Roboterethik - Haben Maschinen Moral?

SWR2 Wissen: Aula

Maschinen, die mit künstlicher Intelligenz gesteuert werden, werden immer selbstständiger und autonomer. Doch können und dürfen Maschinen überhaupt moralisch handeln? Die Philosophin Professor Catrin Misselhorn beschäftigt sich mit diesen Fragen.

Dauer

Drei Antworten von Catrin Misselhorn auf einen Blick:

 

Wir brauchen keine neue Moral, wir kommen mit den derzeitigen Konzepten des Utilitarismus und der Kantischen Ethik gut aus. Der Utilitarismus basiert auf der Minimierung von Leid, die Kantische Ethik beruht auf Vernunftprinzipien und auf der Vorstellung, dass der Mensch niemals Mittel zum Zweck sein dürfe.

Beide Konzepte könnten etwa bei bestimmten Unfallszenarien des autonomen Fahrens zum Tragen kommen. 

Woran erkennen wir in Zukunft, ob wir gerade mit einem Menschen oder einer KI kommunizieren? Das ist eine wichtige Frage.

Gerade in sensiblen Bereichen, wo es um Datenschutz und Privatheit geht, brauchen wir ethische Maßstäbe und wir müssen gewarnt werden, die KI nicht zu vermenschlichen. 

Die KI wird in Zukunft vor allem im Pflegebereich eingesetzt. Bisher gibt es Systeme, die an Essen, Trinken und Medikamenten-Aufnahme erinnern, Systeme, die z.B. einen Arzt rufen, wenn sich jemand eine Zeitlang nicht bewegt, oder vielleicht die Angehörigen verständigt.

Wir müssen uns fragen: Soll ein System den Nutzer rund um die Uhr überwachen? Wie verhält es sich mit seiner Privatsphäre insgesamt? Kommt es zu Konflikten zwischen verschiedenen Werten, etwa der Selbstbestimmung, Privatsphäre oder Sorge der Angehörigen?

Wichtig ist, dass betroffene Menschen das selber entscheiden sollten. Ist es ihnen etwa wichtiger, gesundheitliche Risiken um jeden Preis auszuschalten, auch wenn das eine Einschränkung der Privatsphäre bedeutet?

Das vollständige Manuskript finden Sie hier. 

AUTOR/IN
STAND