SWR2 Wissen: Aula

Wie riskant ist künstliche Intelligenz? (2/2)

Stand

Roboter, die irgendwann die Menschheit beherrschen, selbstfahrende Autos, die für uns Entscheidungen treffen - die KI bringt viele ethische Probleme mit sich. Gespräch mit der Philosophin Dr. Manuela Lenzen.

Audio herunterladen (28,3 MB | MP3)

Voreingenommene Algorithmen

Es gibt KI, die Muster erkennen kann, also die zum Beispiel Röntgenbilder deuten und Krebs auffinden kann.

Ähnliche Programme können Studienplätze vergeben oder Sozialhilfe verteilen. Es könnte jetzt passieren, dass eine KI zur Gesichtserkennung farbige Menschen schlechter erkennt als Menschen mit heller Hautfarbe.

automatische Gesichtserkennung (Foto: IMAGO, imageBROKER/KurtxAmthor)
Fotomontage: automatische Gesichtserkennung

Weil man das System nur mit Bildern von Menschen mit heller Hautfarbe trainiert hat.

Genau dieses Problem tauchte in der Realität auf, ein System hat deshalb „Schwarze“ als "Gorillas" klassifiziert. Das ist ein krasser Fall, der das Problem aber gut zeigt.

Wir brauchen Regeln für gute Software

Einige europäische Firmen und Organisationen wollen Regeln entwickeln, die festlegen, was ist eine gute und eine schlechte Software ist, was ist ein guter, was ein schlechter Algorithmus ist.

Da geht es nicht um KI, die nur die Pizza richtig belegt, sondern um eine KI, die zum Beispiel Sozialhilfe verteilt oder Studienplätze. Hier muss vermieden werden, dass es Algorithmen gibt, die falsch oder einseitig trainiert wurden.

Gedankenexperimente mit dem autonomen Auto

Angenommen, ein autonom fahrendes Auto kommt in die Zwangslage, dass es auf jeden Fall einen Unfall verursachen wird. Es hat lediglich die Wahl, in eine Menge von alten Menschen zu fahren, oder in eine Menge, die sowohl aus alten und aus jungen Menschen besteht.

Wäre ein Mensch in dieser Situation, würde man sagen, egal, wie er handeln würde, das war ein Unfall, da hätte man nichts machen können.

Autonom fahrender Bus (Foto: IMAGO, imago images/Jochen Tack)
Im nordrheinwestfälischer Stadt Monheim am Rhein verkehren bereits fünf autonom fahrende Linienbusse, die jeweils bis zu 15 Fahrgäste aufnehmen können. Begleitet wird der Bus allerdings noch durch einen sogenannten Operator. Unfälle hat es bisher noch nicht gegeben.

Bei der KI geht man aber davon aus, dass das Auto genügend Zeit hat, alle Möglichkeiten durchzuspielen und dann eine aufgrund komplexer Algorithmen rationale und ethisch richtige Entscheidung zu treffen.

Was hat man von so einem Experiment? Es ist doch eine Fiktion, dass autonome Autos im Ansatz so eine Entscheidung treffen können, das geht im Moment technisch nicht.

Und hinzu kommt:  Bis heute weiß man nicht genau, wie Menschen entscheiden, was da genau im Gehirn passiert. Wie soll das dann eine Software wissen?

Dr. Manuela Lenzen ist Philosophin an der Universität Bielefeld und Wissenschaftsjournalistin mit den Themenschwerpunkten Kognitionswissenschaften, Evolutionstheorie und künstliche Intelligenz.

Von dieser Sendung ist kein Manuskript verfügbar.

Stand
AUTOR/IN
SWR