Bei weißen Männern funktioniert es, bei schwarzen Frauen nicht – ein häufiges Ergebnis, wenn man Gesichtserkennungs-Software testet. In ihrem Ted-Talk beschreibt die dunkelhäutige Joy Buolamwini, wie sie von Gesichtserkennungs-Software, wie sie zum Beispiel in Kameras eingesetzt wird, oft nicht erkannt wird.
Das Gesicht ihrer asiatischstämmigen Kollegin wird erkannt, ihres aber erst als sie sich eine weiße Maske aufsetzt, die gerade mal auf die grundlegendsten Merkmale eines Gesichts reduziert ist: Augen, Nase, Mund.
KI ist in praktischen Situationen nicht vorurteilsfrei
Der Ted-Talk von Joy Buolamwini ist von 2017. Spätestens seitdem bröckelt es gewaltig am Versprechen der vorurteilsfreien KI.
Doch bevor das Problem gelöst werden kann, muss die Arbeitsgruppe von Ksenia Keplinger erst einmal die Ursache dafür finden. Denn auf dem Papier ist KI tatsächlich völlig vorurteilsfrei. Ein Algorithmus an sich besteht aus Programmiercode. Er teilt nicht – zumindest nicht bewusst – unsere Geschichte, in der Vorurteile oder Rassismus und Sexismus gewachsen sind. Das Problem ist aber auch nicht der Algorithmus, sondern – wieder einmal – wir selbst.
Laut Ksenia Keplinger, der Gruppenleiterin am Max-Planck-Institut für Intelligente Systeme in Stuttgart gibt es zwei Wege, die erklären können woher die Vorurteile kommen. Der erste sind vorurteilsbehaftete Trainingsdaten.
Trainingsdaten der KI sind vorurteilsbehaftet
Vorurteilsbehaftet ist möglicherweise z.B. auch ein Algorithmus, der Bewerbungen filtert. Den würden Entwickler mit allen Bewerbungen trainieren, die je bei dem Unternehmen eingegangen sind – mit einem Hinweis darauf, welche Bewerbung erfolgreich war und welche nicht. So lernt der Algorithmus, was dem Unternehmen bei einer Bewerbung wichtig ist, welche Bewerber am besten passen.
Das Problem daran ist, dass genau in diesen Trainingsdaten ja schon unsere eigenen Vorurteile stecken. Männer wurden in der Vergangenheit bevorzugt, deswegen lernt die KI, dass Männer die besseren Bewerber sind. Migrantinnen und Migranten wurden benachteiligt, deswegen sind das für die KI die schlechteren Bewerber.
Die Trainingsdaten könnten zwar noch verfeinert werden – etwa mit Daten, wer wie lange im Unternehmen geblieben ist oder wer wie schnell aufgestiegen ist – allerdings stecken auch in diesen Daten wieder dieselben Vorurteile.
KI-Entwicklungsteams sind nicht divers
Das führt zur zweiten Quelle von Vorurteilen in der KI: Die Menschen, die sie entwickeln oder anders gesagt: Die Abwesenheit derer, die nicht daran beteiligt sind.
Ksenia Keplinger berichtet, dass die Teams, die solche Algorithmen entwickeln, hauptsächlich aus weißen Männern bestehen. Das ist ein Problem, über das in den vergangenen zehn Jahren viel gesprochen wurde, aber verändert hat sich kaum etwas.
Kunstprojekt "Fair" möchte Problematik aufzeigen
Eine KI, die gar nicht erst versucht vorurteilsfrei zu sein, ist das Kunstprojekt „Fair“, entwickelt von Studierenden der Hochschulen Heilbronn und Pforzheim.
Patrick Hanselmann studiert Softwareentwicklung an der Hochschule Heilbronn und hat „Fair“ mitentwickelt.
Ziel des Projekts, ist es natürlich nicht, Dinge über sich zu erfahren, die man eh schon weiß oder zu zeigen, dass die KI eben nicht alles genau vorhersagen kann, sagt Nicole Ondrusch, Professorin für Softwareentwicklung an der Hochschule Heilbronn, die das Projekt betreut hat.
Und noch problematischer wird es natürlich, wenn die Vorhersagen vorurteilsbehaftet sind.
"Fair" KI ist auch vorurteilsbehaftet
Die Vorhersagen von „Fair“ sind nicht absichtlich mit Vorurteilen versehen – aber die Studierenden sind sich auch durchaus bewusst, dass der Algorithmus vorurteilsbehaftet sein könnte. Aufgrund eigener Vorurteile und der verwendeten Datensätze, sagt Patrick Hanselmann.
Da es für Faktoren wie Einkommen und Gesundheitszustand keine verfügbaren Datensätze gibt, mussten die Entwickelnden von "Fair" diese Datensätze selbst zusammenstellen. Mitentwickler Patrick Hanselmann sagt selbst, dass er nicht garantieren kann, dass diese Datensätze frei von seinen eigenen Vorurteilen sind.
In wirklich ausbalancierte Datensätze muss man eine Menge Arbeit reinstecken. Das ist wesentlich aufwändiger als einfach im Internet sich 50.000 Bilder von Menschen zusammenzustellen, wie die Entwickelnden von "Fair" es getan haben.
Bessere Datensätze und diversere Entwicklerteams nötig, um fairere KI zu erschaffen
Dass Vorurteile völlig aus Algorithmen verschwinden, glaubt Ksenia Keplinger allerdings nicht. Deswegen wird für die Zukunft noch ein dritter Ansatzpunkt im Umgang mit KI wichtig, sagt sie.
Das würde allerdings auch voraussetzen, dass Menschen sich ihrer Vorurteile bewusstwerden und diese ablegen. Ein höheres Ziel, das bisher von keiner Gesellschaft, keiner Kultur umgesetzt werden konnte. Und auch, dass es in Zukunft passieren wird, ist unwahrscheinlich. Ein „Perfekt“ ist nicht möglich, glaubt Ksenia Keplinger, aber wir sollten trotzdem nach einem „Besser“ streben.