Verbraucher-Scoring: Wer kontrolliert Algorithmen? Wenn Computer über Menschen entscheiden

AUTOR/IN

Computer entscheiden heute bereits darüber, wer einen Job oder einen Kredit bekommt, wer ins Gefängnis muss oder auf Bewährung entlassen wird. Müssen ihre Algorithmen künftig besser kontrolliert werden?

Software, die solch wichtige Entscheidungen fällt, soll besser kontrolliert werden - möglichst von unabhängigen staatlichen Stellen. Das fordern Computerwissenschaftler und Juristen in einem Gutachten der Fachgruppe Rechtsinformatik der Gesellschaft für Informatik. Das Gutachten ist eines der Kernelemente für die Empfehlungen für faires Verbraucher-Scoring, die der Sachverständigenrat für Verbraucher beim Bundesjustizminister am 31. Oktober vorlegen will.

Gleiches Auto - unterschiedlicher Tarif bei KFZ-Versicherung

Wolfgang M. zahlt für seine Kraftfahrzeugversicherung 100 Euro weniger als seine Kollegin. Beide fahren ein Auto desselben Modells. Dass Wolfgang M. günstiger davon kommt, hat die Tarif-Software seiner Versicherung entschieden. Grundlage für diese Entscheidung waren zum einen persönliche Daten, wie Alter, Beruf, Lebensumstände - Wolfgang ist Reihenhausbesitzer, das Auto steht nachts in einer Garage - sondern auch Fahrdaten.

Auf welchen Straßen Wolfgang M. unterwegs ist, wie schnell er fährt, wie oft er bremst, dafür gibt es Plus- oder Minuspunkte. Und daraus errechnet eine Software den Tarif. „Scoring“ nennen die Fachleute das.

Bei KFZ-Versicherungen gibt es, so Professor Gerd Gigerenzer vom Max-Planck-Institut für Bildungsforschung, z.B. sogenannte Telematik-Tarife. Mit Hilfe einer eingebauten Blackbox überwacht sie, wenn wir zu schnell fahren. In Deutschland gibt es mittlerweile auch schon Kredit-Scoring. Gigerenzer: Sie möchten ja auch gerne wissen, ob Ihr Geschäftspartner schon mal betrogen hat oder nicht gezahlt hat.

Gesucht von Gerd Gigerenzer (Foto: SWR, SWR -)
Gerd Gigerenzer erforscht die Macht der Algorithmen SWR -

Nicht kreditwürdig - und keiner weiß, warum

Oliver A., 35 Jahre alt, Programmierer von Beruf, Bruttoverdienst 5200 Euro, sucht gemeinsam mit seiner Lebensgefährtin Stephanie F., Krankenschwester, Bruttoverdienst 2200 Euro, eine Wohnung in Stuttgart. Einige Wohnungen waren wirklich schön, teuer zwar, aber mit dem Einkommen der beiden bezahlbar.

Der Draht zum Vermieter stimmte. Und dennoch kam nach 10 Tagen die Absage. Begründet wurde die Absage vom Vermieter nicht. Er teilte nur lapidar mit, er habe sich für jemand anderen entschieden. Oliver A. ließ das keine Ruhe. Er forschte nach. Schließlich brachte ihn der Hinweis eines Kollege auf die richtige Fährte: Sein Kreditscore stimmte nicht.

Wer eine Wohnung mieten will, stimmt nämlich in der Regel zu, dass der Vermieter eine Kreditauskunft einholen kann, einen sogenannten Kredit-Score. Der bekannteste ist der Schufa-Score. Mit dieser Kreditauskunft wollen die Vermieter sichergehen, dass der künftige Mieter auch immer pünktlich seine Miete zahlen wird. Dafür wird nicht nur sein Zahlungsverhalten in der Vergangenheit ausgewertet. Je nach Kreditauskunftei setzt sich der Kredit-Score aus bis zu 200 unterschiedlichen Datensätzen zusammen.

Eine Frau sitzt auf dem Boden. Vor ihr liegen viele Rechnungen. (Foto: Getty Images, Thinkstock -)
Ein ausländisch klingender Nachname? Da könnte es schon schwieriger werden, eine Wohnung, einen Job oder einen Kredit zu bekommen. Thinkstock -

Schlechtes Scoring durch ausländisch klingenden Namen

Bei Oliver A. und seiner Lebensgefährtin hat eigentlich alles gestimmt. Beide haben zukunftssichere Berufe. Er verdient sogar sehr gut. Ihre Rechnungen zahlen sie immer pünktlich. Trotzdem war da dieser miese Kredit-Score für Oliver A. Und dieser Kredit-Score ist rätselhaft, in jeder Hinsicht.

Gerd Gigerenzer erläutert, dass nicht bekannt sei, was die Schufa genau scored, also welche Größen sie nimmt und welchen Algorithmus. Die Algorithmen sind in der Regel Geschäftsgeheimnis, so auch bei der Schufa. Das heißt, der Bürger kann gar nicht kontrollieren, warum er einen guten oder schlechten Score hat.

Bei Oliver A. war es der Nachname. Der klang arabisch, und die Entscheidungssoftware der Kreditauskunftei stufte Oliver A. als Migranten ein. Der Faktor Migrant wiederum war sehr hoch gewichtet für den Kredit-Score. Deshalb die schlechte Kreditnote und die Ablehnung durch den Vermieter. So etwas passiert nicht nur Mietinteressenten.

Professor Gerd Gigerenzer ist der Meinung, dass wir in Deutschland erstaunlich wenig darüber nachdenken, wie wir bereits heute gescored werden. Zum Beispiel durch:

  • Kredit-Scores, der bekannteste ist Schufa-Score.
  • Krankenkassen, die mit Bonusprogrammen und Fitnesstrackern beginnen, die Versicherten nach ihrem Verhalten zu scoren.
  • Bei Unterkunfts-Plattformen wie AirBnB werden die Vermieter gescored.

Durch Social Media und die entstandene Kultur der Likes und Dislikes helfen wir alle beim Scoring kräftig mit und machen uns als Verbraucher und Nutzer auch sehr gut berechenbar.

Die Mitglieder der Fachgruppe Rechtsinformatik der Gesellschaft für Informatik haben über das Scoring nachgedacht: herausgekommen ist dabei ein fast 200 Seiten starkes Gutachten für den Sachverständigenrat für Verbraucherfragen.

Experten fordern mehr Kontrolle über diese Entscheidungs-Algorithmen

Die wichtigste Forderung: Algorithmen, die für das Verbraucher-Scoring eingesetzt werden, also über Menschen entscheiden, müssen besser kontrolliert werden. Von einer fairen und nachvollziehbaren Entscheidung kann beim Einsatz von Entscheidungs-Algorithmen nämlich keine Rede mehr sein. Der Münchner Informatiker Bernhard Waltl fordert, dass Unternehmen offenlegen müssten wie ein Algorithmus funktioniert. Auf welcher Basis welcher Entscheidungen oder welcher Operationen kommt es zu einer Entscheidung? Die Daten hierfür muss das Unternehmen vorhalten.

Andererseits kann man sich aber auch vorstellen, unabhängige staatliche Stellen beispielsweise zu beauftragen, in Unternehmen hineinzugehen und eine entsprechende Transparenz zu generieren. Müsste man hier nochmal stärker differenzieren, welche dieser Methoden man auch hier einsetzen will.

Big Data (Foto: SWR, Foto: Colourbox.de -)
Algorithmen beeinflussen den Menschen Foto: Colourbox.de -

Brauchen wir "Algorithmen-Gesetze" ?

Der abgelehnte Bewerber um einen Arbeitsplatz hätte dann einen Anspruch darauf, zu erfahren, auf welcher Grundlage das Human-Resource-Programm ihn abgelehnt hat. Einprogrammierte rassistische oder sexistische Vorurteile würden so ziemlich schnell entlarvt. Die Schufa müsste Bürgern mit einem schlechten Kredit-Score die Berechnung der Kreditnote genau erläutern und das Ergebnis bei verzerrten Gewichtungen korrigieren.

Mit entsprechenden „Algorithmen-Gesetzen“ wäre Schluss mit dem Wilden Westen beim Verbraucher-Scoring. Das Gutachten der Fachgruppe Rechtsinformatik sorgte jedenfalls schon gleich nach Bekanntwerden im politischen Berlin für heftige Diskussionen. Ihm wird eine ähnlich hohe Bedeutung eingeräumt wie den ersten Gutachten für einen europäischen Datenschutz.

AUTOR/IN
STAND