STAND

Schon jetzt ist Künstliche Intelligenz (KI) in fast allen Branchen am Werk. Und sie wird immer mehr Bereiche des Lebens beeinflussen und auch Entscheidungen für die Menschen übernehmen. Wie das gutgehen kann, will eine Forschungsgruppe in Tübingen klären.

Wie kann man Künstliche Intelligenz so programmieren, dass der Mensch den Maschinen vertrauen und in problematische Entscheidungen doch noch eingreifen kann? Und wie kann KI in der Medizin sinnvoll und zum Wohl der Menschen angewendet werden? In Tübingen beschäftigt sich mit diesen Fragen jetzt eine Arbeitsgruppe aus drei Ethik- und Philosophie-Forschern: Thomas Grote, Thilo Hagendorff und Eric Raidl. Angesiedelt sind sie im Exzellenzcluster für maschinelles Lernen der Universität Tübingen. Damit sind sie Teil der Cyber Valley-Initiative.

AG Ethik und Philosophie (Foto: Pressestelle, Universität Tübingen/Theresa Authaler)
Thomas Grote, Thilo Hagendorff und Eric Raidl (v.li.n.re.) forschen gemeinsam in der Arbeitsgruppe "Ethik und Philosophie der Künstlichen Intelligenz" an der Universität Tübingen. Pressestelle Universität Tübingen/Theresa Authaler

"Wenn man bei der Forschung an Künstlicher Intelligenz Kriterien wie Privatsphäre, Transparenz, Erklärbarkeit und Sicherheit berücksichtigt, kann man von vertrauenswürdiger KI sprechen."

Thilo Hagendorff, Technik- und Medienethiker

Kritischer Blick auf KI-Forschung

Unabhängig von wirtschaftlichen Interessen wollen die drei Wissenschaftler die Forschung kritisch begleiten und Impulse für die verantwortungsvolle Entwicklung geben. Denn die Forschung an Künstlicher Intelligenz boomt. Sie wird mit enormer Kraft, Energie und Geld vorangetrieben. Deshalb beschäftigt sich die Arbeitsgruppe auch mit den Fragen: Wohin wird das führen? Wer bestimmt, wo die Forschung hingeht und was mit den Daten und Ergebnissen passiert? Außerdem soll es auch darum gehen, wie verantwortungsvoll an KI geforscht werden kann.

Auch Ansprechpartner für die Öffentlichkeit

Eine "Ethik-Polizei", die den Kollegen ständig auf die Finger klopft, will die Arbeitsgruppe aber auf keinen Fall sein, betonten sie im Gespräch mit dem SWR. Es gehe darum, die Forschung mal aus einer anderen Sicht zu bewerten. Am Beispiel Medizin heißt das, zu zeigen, wo sich die ethischen Fallstricke befinden, wenn KI im Gesundheitssystem eingesetzt wird. Außerdem sollen die Experten bei ethischen Fragen auch Ansprechpartner für die Öffentlichkeit, Bildungseinrichtungen und Medien sein, so die Universität Tübingen. Fragen werde es genug geben. Da ist sich der Medizinethiker Thilo Hagendorff sicher.

STAND
AUTOR/IN