Jugendliche machen ein Selfie (Foto: SWR, SWR -)

Pokerface oder Verbrechergesicht

Kann man Kriminelle per Software erkennen?

Stand
AUTOR/IN
Guido Meyer

Eine israelische Firma hat eine neue Software zur automatischen Gesichtserkennung entwickelt. "Faception" liefert die Charaktereigenschaften einer Person gleich mit. Denn unsere Persönlichkeit, so die These, die stehe uns ins Gesicht geschrieben. Lassen sich damit auch Kriminelle erkennen?

Die Software "Faception" analysiert die Struktur eines Gesichts und leitet daraus Vorhersagen über die Persönlichkeit eines Menschen und sein Verhalten ab. So kann die Software sagen, ob jemand eher extrovertiert oder introvertiert ist. Oder ob von jemandem eine Gefahr ausgeht, weil er beispielsweise pädophile Züge hat, oder ob er unschuldig ist – dies behaupten die Macher der Faception-Software. Einen wissenschaftlichen Beleg dafür, dass man aus den Gesichtszügen eines Menschen auf seine Persönlichkeit schließen kann, gibt es allerdings nicht.

Phantombild auf dem PC in Front- und Seitenansicht (Foto: SWR, SWR -)
Phantombild

Wir konstruieren uns ein Verbrechergesicht

Shai Gilboa ist der CEO und Mitbegründer von Faception. Fünf Jahre lang haben er und seine Kollegen diese neuartige Software entwickelt. Die Arbeitshypothese ist ziemlich einfach: Man kann Leuten ansehen, ob sie kriminell sind. Was genau die Kriterien sind, will Faception nicht verraten. Nur so viel: Eine hohe Stirn, der Augenabstand und die Mundwinkel haben etwas damit zu tun. Die Frisur und Schmuck hingegen spielen keine Rolle.

Zehntausende von Fotos haben die Computerspezialisten ausgewertet und daraus fünfzehn Kategorien von Menschen abgeleitet, vom Taschenspieler über den kriminellen Weißen aus der Arbeiterklasse bis hin zum potenziellen Terroristen. Die Datenbank ist anonym entstanden. Die Bilder haben sich die Faception-Macher größtenteils aus dem Internet zusammengesucht. Auch Polizeifotos sind dabei. Mit ihrer Hilfe wurde die Software geschult.

Taschenspieler oder Serienmörder

Um beispielsweise jemanden als Taschenspieler zu entlarven, kombiniert die Software sechs bis sieben verschiedene Eigenschaften des Gesichts – solche, die angeblich auf mathematisches Denken hinweisen, auf die Bereitschaft, ein hohes finanzielles Risiko einzugehen und einen hohen Grad an mentaler Selbstbeherrschung.

Kritik an Pilotprojekt Gesichtserkennung (Foto: picture-alliance / dpa, picture-alliance / dpa -)
Kritik an Pilotprojekt Gesichtserkennung - denn jeder kann auf die Daten zugreifen

Taschenspieler oder Serienmörder

All das könnte ein Mensch einem anderen niemals ansehen. Die Software fügt alle diese Eigenschaften zusammen und kommt dann zu dem Ergebnis, dass jemand ein Taschenspieler ist - oder ein Serienmörder.

Die Erfolgsrate der Software liege derzeit bei siebzig bis achtzig Prozent, sagen die Macher von Faception. Beispiel: Neun der elf Paris-Attentäter von 2016 hat die Software korrekt als Terroristen identifiziert. Diese Trefferquote reicht lokalen und staatlichen Einrichtungen in Israel, um sie zur Personensuche einzusetzen. Auch einige Unternehmen machen sich damit bei Bewerbungsgesprächen erst einmal ein Bild ihres möglicherweise neuen Personals.

Rassismus als Maschine

Der Informatiker Gün Sirer von der Cornell University ist Türke – und sieht damit per se schon mal verdächtig aus, zumindest nach den Kriterien von Faception. Wenn man die Software zum Beispiel mit den 19 Attentätern vom 11. September füttere, werde die Software auf arabisch aussehende Menschen sensibilisiert. Sie hat also durch die Daten, anhand derer sie gelernt hat, einen rassistischen bias, ein Vorurteil, eingebaut.

Es sei, so Gün Sirer, nicht das erste Mal in der Wissenschaftsgeschichte, dass bestimmte Eigenschaften des Gesichts für bestimmte Wesenszüge verantwortlich gemacht werde – oder umgekehrt, dass sich Charaktereigenschaften angeblich in der Mimik widerspiegeln. Diesmal solle moderne Technik als Alibi dafür herhalten. Schon im frühen 19. Jahrhundert entwickelte der deutsche Arzt Franz Joseph Gall seine Phrenologie. Diese Lehre wollte von der Schädelform eines Menschen auf seinen Charakter und seine Intelligenz schließen. Eine weiter entwickelte Form davon nutzten die Nationalsozialisten für ihre Rassenlehre.

Solche vermeintlichen technischen Errungenschaften seien mit Vorsicht zu genießen, warnt der Informatiker Gün Sirer. Denn seit Jahrzehnten verlasse sich die Polizei auf völlig unbrauchbare Technologien. Zum Beispiel sei allgemein bekannt, dass Lügendetektoren völliger Quatsch seien. Aber der Öffentlichkeit wurden sie als seriös verkauft.

Keine wissenschaftliche Grundlage für biometrische Charakteranlayse

Eine biometrische Charakteranalyse per Computersoftware sei nun die neueste unglaubwürdige Entwicklung auf diesem Gebiet, findet der US-Computerspezialist. Nun gäbe es eine Maschine, die vorgebe, objektiv und neutral zu sein. Dabei gebe es für ihre Analyse, aus den Gesichtszügen eines Menschen auf seine Terrorabsichten schließen zu können, überhaupt keine wissenschaftliche Grundlage.

Sicherheit Überwachungstechnik für Diktatoren – Wie die EU den Export bremsen will

Mit Spähsoftware und intelligenter Videoüberwachung kann man Terroranschläge verhindern – aber auch Regimegegner kontrollieren. Der Export dieser Techniken ist kaum geregelt.

SWR2 Wissen SWR2

Stand
AUTOR/IN
Guido Meyer