Künstliche Intelligenz

Ohne Empathie geht es nicht: K.I., Ethik und Begehren

Stand
INTERVIEW
Philine Sauvageot

„Ich habe durch meine Auseinandersetzung mit KI gelernt, dass es in einer zwischenmenschlichen Beziehung nicht nur auf eine einseitige Projektion ankommt, sondern auf eine wechselseitige Beziehung", sagt Philosophieprofessorin und Buchautorin Catrin Misselhorn im Gespräch mit SWR2.

Audio herunterladen (6,6 MB | MP3)

Degradiert zum Bedürfnis-Erfüller

Man wachse ja nur an Widerständen, so Misselhorn, die an der Universität Göttingen lehrt. Verhalte sich jemand immer genauso, wie man sich das vorstelle, stecke jemand immer nur zurück, sei das problematisch, denn an so jemandem könne man sich nicht weiterentwickeln.

Man könne zwar auch Empathie mit einem perfekten Gegenüber entwickeln, aber es sei problematisch, wenn man den anderen nur noch als Bedürfnis–Erfüller wahrnehme und nicht mehr als eigenständige Person mit eigenen Bedürfnissen, auf die man eingehen muss.

Forum Gefakte Wirklichkeit – Wie manipuliert uns KI?

Wie gefährlich ist das, wenn mehr und mehr Stimmen, Bilder und Texte das Ergebnis von Deep Fake sind? Und wem oder was können wir noch trauen?

SWR2 Forum SWR2

Empathielos wie Psychopathen

Auch wenn Computerprogramme Emotionen erkennen könnten, fehle ihnen weiterhin die Fähigkeit zur Empathie, so Misselhorn: „Ich habe das mal mit Psychopathen verglichen, die können zwar auch sehr gut Emotionen erkennen und für ihre Zwecke einsetzen, aber sie empfinden selbst keine Empathie.“

Und natürlich seien es nicht die Roboter selbst, die sich irgendwelche Ziele setzten, um uns zu instrumentalisieren, sondern Firmen, die solche Programme entwickelten.

Prof. Catrin Misselhorn, Philosophin Uni Göttingen (Foto: IMAGO, xdtsxNachrichtenagenturx dts_24650)
Prof. Dr. Catrin Misselhorn ist Professorin an der Universität Göttingen mit Schwerpunkt in Theoretischer Philosophie.

In Europa sei der „A.I.-Act“, das geplante Gesetzeswerk zur Künstlichen Intelligenz eine Möglichkeit, vulnerable Gruppen vor scheinbar emotional agierenden Programmen wie beispielsweise bestimmten manipulativen Apps zu schützen, beispielsweise psychisch labile Menschen oder Kinder.

SWR2 Geld, Markt, Meinung Droht die KI-Apokalypse? - Risiken und Chancen von Chat GPT und Co für die Wirtschaft

Werden neue Technologien wie Chat GPT und Co zur Gefahr für die Menschheit?

SWR2 Geld, Markt, Meinung SWR2

Mehr Inhalte zum Thema Künstliche Intelligenz

Die künstlich intelligente Gesellschaft (1/10) Die Geschichte vom denkenden Computer

Seit über 60 Jahren ist von künstlicher Intelligenz die Rede. Heute können Computer und Roboter zwar viel, aber können sie auch denken?

SWR2 Wissen: Spezial SWR2

Feature Kampf-Maschinen. Künstliche Intelligenz und die Kriege der Zukunft

Autonome Waffensysteme, Drohnen und Kampfroboter können Kriege entscheiden. Übernehmen Programmierer die Macht und menschliche Entscheidungen werden überflüssig?

SWR2 Feature SWR2

Psychologie Helfen KI-Avatare von Verstorbenen beim Trauern?

Künstliche Intelligenz hilft uns beim Schreiben, beim Erstellen von Bildern – und möglicherweise können Sie auch bei der Trauer unterstützen. KI-Avatare sollen so aussehen und sich so anhören wie ihre verstorbenen Vorbilder und sogar deren Persönlichkeit fortführen.
Ralf Caspary im Gespräch mit PD Dr. Jessica Heesen, Medienethikerin von der Universität Tübingen

SWR2 Impuls SWR2

Neurologie Fortschritt beim Gedankenlesen: KI erkennt innere Sprache im Gehirn

Ein Forschungsteam in den USA hat mit Hilfe eines Kernspintomographen die neuronalen Aktivitätsmuster im Gehirn von Probanden aufgezeichnet, während diese an etwas gedacht haben. In diesen Mustern hat dann eine speziell trainierte KI die innere Sprache der Probanden entschlüsseln können.
Ralf Caspary im Gespräch mit Prof. John-Dylan Haynes, Max-Planck-Institut für Kognitions- und Neurowissenschaften, Leipzig.

SWR2 Impuls SWR2

Forum Feindliche Übernahme – Geht uns durch KI die Arbeit aus?

Geli Hensolt diskutiert mit
Dr. Tina Klüwer, Künstliche Intelligenz Entrepreneurship Zentrum (K.I.E.Z.)
Daniel Privitera, Zentrum für KI-Risiken und -auswirkungen (kira)
Prof. Dr. Johanna Wenckebach, Hugo Sinzheimer Institut für Arbeits- und Sozialrecht (HSI) der Hans-Böckler-Stiftung

SWR2 Forum SWR2

Technik Emotionsanalyse: So wird KI im Callcenter eingesetzt

Mitarbeiter*innen in Callcentern müssen die Anrufer oft erstmal beruhigen. Zur Unterstützung setzen manche Unternehmen offenbar Software mit Künstlicher Intelligenz ein, die Emotionen der Anrufer*innen analysiert – anhand der Stimmlage. Oft ohne deren Wissen.

SWR2 Impuls SWR2