Bei weißen Männern funktioniert es, bei schwarzen Frauen nicht – ein häufiges Ergebnis, wenn man Gesichtserkennungs-Software testet. In ihrem Ted-Talk beschreibt die dunkelhäutige Joy Buolamwini, wie sie von Gesichtserkennungs-Software, wie sie zum Beispiel in Kameras eingesetzt wird, oft nicht erkannt wird.
Hallo Kamera! Ich habe ein Gesicht. Erkennst du mein Gesicht? Vielleicht ohne Brille? Ihr Gesicht erkennst du, was ist mit meinem?
Das Gesicht ihrer asiatischstämmigen Kollegin wird erkannt, ihres aber erst als sie sich eine weiße Maske aufsetzt, die gerade mal auf die grundlegendsten Merkmale eines Gesichts reduziert ist: Augen, Nase, Mund.
KI ist in praktischen Situationen nicht vorurteilsfrei
Der Ted-Talk von Joy Buolamwini ist von 2017. Spätestens seitdem bröckelt es gewaltig am Versprechen der vorurteilsfreien KI.
Viele Menschen glauben, dass KI frei von Vorurteilen sind, dass ihnen solche Dinge gleichgültig sind. Aber das stimmt nicht. Wir versuchen dafür ein Bewusstsein zu schaffen und auch Wege zu finden, wie man das richtigstellen kann.
Doch bevor das Problem gelöst werden kann, muss die Arbeitsgruppe von Ksenia Keplinger erst einmal die Ursache dafür finden. Denn auf dem Papier ist KI tatsächlich völlig vorurteilsfrei. Ein Algorithmus an sich besteht aus Programmiercode. Er teilt nicht – zumindest nicht bewusst – unsere Geschichte, in der Vorurteile oder Rassismus und Sexismus gewachsen sind. Das Problem ist aber auch nicht der Algorithmus, sondern – wieder einmal – wir selbst.
![Gesichtserkennung durch KI (Foto: IMAGO, IMAGO / Westend61) Gesichtserkennung durch KI](/wissen/1713258433544%2Ckuenstliche-intelligenz-diskriminierend-106~_v-16x9@2dS_-6be50a9c75559ca1aaf1d0b25bae287afdcd877a.jpg)
Laut Ksenia Keplinger, der Gruppenleiterin am Max-Planck-Institut für Intelligente Systeme in Stuttgart gibt es zwei Wege, die erklären können woher die Vorurteile kommen. Der erste sind vorurteilsbehaftete Trainingsdaten.
Trainingsdaten der KI sind vorurteilsbehaftet
Vorurteilsbehaftet ist möglicherweise z.B. auch ein Algorithmus, der Bewerbungen filtert. Den würden Entwickler mit allen Bewerbungen trainieren, die je bei dem Unternehmen eingegangen sind – mit einem Hinweis darauf, welche Bewerbung erfolgreich war und welche nicht. So lernt der Algorithmus, was dem Unternehmen bei einer Bewerbung wichtig ist, welche Bewerber am besten passen.
Das Problem daran ist, dass genau in diesen Trainingsdaten ja schon unsere eigenen Vorurteile stecken. Männer wurden in der Vergangenheit bevorzugt, deswegen lernt die KI, dass Männer die besseren Bewerber sind. Migrantinnen und Migranten wurden benachteiligt, deswegen sind das für die KI die schlechteren Bewerber.
![Gesichtserkennung von jungem Geschäftsmann durch KI (Foto: picture-alliance / Reportdienste, picture alliance / Zoonar | Robert Kneschke) Gesichtserkennung von jungem Geschäftsmann durch KI](/wissen/1713258431434%2Ckuenstliche-intelligenz-diskriminierend-100~_v-16x9@2dS_-6be50a9c75559ca1aaf1d0b25bae287afdcd877a.jpg)
Die Trainingsdaten könnten zwar noch verfeinert werden – etwa mit Daten, wer wie lange im Unternehmen geblieben ist oder wer wie schnell aufgestiegen ist – allerdings stecken auch in diesen Daten wieder dieselben Vorurteile.
Wenn ich Vorträge zu diesem Thema halte, dann reagieren die Leute immer gleich. Sie sagen: ‚Aber es funktioniert. Wir brauchen Algorithmen, die funktionieren, deswegen haben wir keine Zeit, um uns über sowas Gedanken zu machen.
KI-Entwicklungsteams sind nicht divers
Das führt zur zweiten Quelle von Vorurteilen in der KI: Die Menschen, die sie entwickeln oder anders gesagt: Die Abwesenheit derer, die nicht daran beteiligt sind.
![Gesichtserkennung eines Businessman durch KI (Foto: IMAGO, IMAGO / Westend61) Gesichtserkennung eines Businessman durch KI](/wissen/1713258432590%2Ckuenstliche-intelligenz-diskriminierend-110~_v-16x9@2dS_-6be50a9c75559ca1aaf1d0b25bae287afdcd877a.jpg)
Ksenia Keplinger berichtet, dass die Teams, die solche Algorithmen entwickeln, hauptsächlich aus weißen Männern bestehen. Das ist ein Problem, über das in den vergangenen zehn Jahren viel gesprochen wurde, aber verändert hat sich kaum etwas.
Dann sind wir in einer Situation, in der Dinge für spezifische demographische Gruppen entwickelt werden, aber diese Gruppen werden von der Entwicklung selbst ausgeschlossen. Das passiert nicht immer, weil Menschen versuchen andere auszuschließen, es passiert auch aus Ignoranz. Niemand denkt darüber nach.
Kunstprojekt "Fair" möchte Problematik aufzeigen
Eine KI, die gar nicht erst versucht vorurteilsfrei zu sein, ist das Kunstprojekt „Fair“, entwickelt von Studierenden der Hochschulen Heilbronn und Pforzheim.
Im Prinzip macht das Exponat was sehr menschliches. Und zwar versucht es anhand eines Bildes Dinge über einen Menschen vorherzusagen, also Dinge wie Alter, Geschlecht, Herkunft. Aber auch inkriminierendere Details wie zum Beispiel das Einkommen oder den Gesundheitszustand, um damit auch Menschen in eine Schublade zu stecken.
Patrick Hanselmann studiert Softwareentwicklung an der Hochschule Heilbronn und hat „Fair“ mitentwickelt.
Ziel des Projekts, ist es natürlich nicht, Dinge über sich zu erfahren, die man eh schon weiß oder zu zeigen, dass die KI eben nicht alles genau vorhersagen kann, sagt Nicole Ondrusch, Professorin für Softwareentwicklung an der Hochschule Heilbronn, die das Projekt betreut hat.
Erstmal ist das natürlich lustig. Aber wenn die KI dann anfängt den Gesundheitszustand oder das eigene Eheverhalten vorherzusagen, dann sind schon mal Gedanken da, die sagen, oha! Ist denn das etwas, was ich möchte? Und was macht der Algorithmus eigentlich mit diesen Informationen oder anders: Was kann mit diesen Informationen getan werden?
Und noch problematischer wird es natürlich, wenn die Vorhersagen vorurteilsbehaftet sind.
"Fair" KI ist auch vorurteilsbehaftet
Die Vorhersagen von „Fair“ sind nicht absichtlich mit Vorurteilen versehen – aber die Studierenden sind sich auch durchaus bewusst, dass der Algorithmus vorurteilsbehaftet sein könnte. Aufgrund eigener Vorurteile und der verwendeten Datensätze, sagt Patrick Hanselmann.
![Konzept einer KI (Foto: IMAGO, IMAGO / Imaginechina-Tuchong) Konzept einer KI](/wissen/1713258431536%2Ckuenstliche-intelligenz-diskriminierend-104~_v-16x9@2dS_-6be50a9c75559ca1aaf1d0b25bae287afdcd877a.jpg)
Da es für Faktoren wie Einkommen und Gesundheitszustand keine verfügbaren Datensätze gibt, mussten die Entwickelnden von "Fair" diese Datensätze selbst zusammenstellen. Mitentwickler Patrick Hanselmann sagt selbst, dass er nicht garantieren kann, dass diese Datensätze frei von seinen eigenen Vorurteilen sind.
In wirklich ausbalancierte Datensätze muss man eine Menge Arbeit reinstecken. Das ist wesentlich aufwändiger als einfach im Internet sich 50.000 Bilder von Menschen zusammenzustellen, wie die Entwickelnden von "Fair" es getan haben.
Ich glaube, ein erster Schritt, um dies besser zu handhaben, könnte sein, wenn man sich in der Community auf Qualitätsstandards einigt und auch versucht, diesen zu folgen.
Bessere Datensätze und diversere Entwicklerteams nötig, um fairere KI zu erschaffen
Dass Vorurteile völlig aus Algorithmen verschwinden, glaubt Ksenia Keplinger allerdings nicht. Deswegen wird für die Zukunft noch ein dritter Ansatzpunkt im Umgang mit KI wichtig, sagt sie.
Neben der technischen gibt es noch die menschliche Seite. Wir müssen uns beide Seiten anschauen. Die menschliche Seite muss sich bewusst sein, dass die KI möglicherweise vorurteilsbehaftet sein könnte. Anstatt einfach nur alles abzunicken, was uns die KI vorschlägt, müssen wir alle Informationen beurteilen und darauf basierend Entscheidungen treffen.
Das würde allerdings auch voraussetzen, dass Menschen sich ihrer Vorurteile bewusstwerden und diese ablegen. Ein höheres Ziel, das bisher von keiner Gesellschaft, keiner Kultur umgesetzt werden konnte. Und auch, dass es in Zukunft passieren wird, ist unwahrscheinlich. Ein „Perfekt“ ist nicht möglich, glaubt Ksenia Keplinger, aber wir sollten trotzdem nach einem „Besser“ streben.
Wir sind Menschen. Selbst, wenn die KI perfekt wäre, Menschen haben immer noch Vorurteile. Deswegen werden wir sie nicht zu 100 Prozent los, aber wir können sie begrenzen, um eine gerechtere Gesellschaft zu schaffen.