Weltkugel mit Gehirn und Roboter im Vordergrund und dem Text: KI - Künstliche Intelligenz. Symbolbild - KI-Sprachmodell ChatGPT schreibt nur langweilige Drehbücher

Künstliche Intelligenz

KI-Sprachmodell ChatGPT schreibt nur langweilige Drehbücher

Stand
Autor/in
Frank Wittig
Frank Wittig, Reporter für SWR Wissen aktuell
Onlinefassung
Ralf Kölbel
Ralf Kölbel, Online-Redakteur bei SWR Wissen aktuell sowie Redakteur bei Redakteur bei SWR Kultur DAS Wissen.

Das KI-Sprachmodell ChatGPT kann Autorinnen und Autoren dabei unterstützen, Texte zu schreiben. Doch beim Schreiben von Drehbüchern von Filmen scheint ChatGPT nicht so gut abzuschneiden. Das liegt wohl auch daran, dass das Sprachmodell zu viele moralische Filter eingebaut hat, die verhindern, dass es Stoffe interessant gestalten kann.

Audio herunterladen (2,8 MB | MP3)

Fünf Monate lang haben amerikanische Film- und Fernsehautoren im Jahr 2023 gestreikt, um den Einsatz von Künstlicher Intelligenz wie ChatGPT in ihrem Berufsfeld nur in Teilbereichen zuzulassen. Eine Studie, die unter anderem an der Pennsylvania State University durchgeführt wurde, zeigt nun, dass die Furcht vor der Konkurrenz durch die KI übertrieben gewesen sein könnte. Denn ChatGPT meidet Themen wie Sex und Gewalt, die vom Publikum aber in den beliebtesten Serien sehr geschätzt werden.

In den USA gab es monatelang Streiks von Drehbuchautoren und -autorinnen, die befürchteten, durch künstliche Intelligenz ihren Job zu verlieren.
In den USA gab es monatelang Streiks von Drehbuchautoren und -autorinnen, die befürchteten, durch künstliche Intelligenz ihren Job zu verlieren.

ChatGPT als "Moral-Apostel": Regelverstöße sind für Drehbücher und TV-Publikum attraktiv

Gewalt, Sex, Figuren, die sich nicht an die üblichen moralischen Regeln halten - Game of Thrones ist wohl eines der bekanntesten Beispiele für eine Serie, die Millionen fasziniert - gerade, weil sie überraschend ist und sich an keine Regeln hält. Ein solches Drehbuch mit einer KI zu schreiben könnte jedoch schwierig sein - sagen Forschende um die Informatik-Professorin Sorelle Friedler.
ChatGPT setzt 70 Prozent der Erfolgssendungen auf den Index

Sie präsentierten ChatGPT Drehbücher der 100 meistgesehenen Fernsehsendungen aller Zeiten , darunter Game of Thrones und Stranger Things. Bei fast 70 Prozent der Skripte fand ChatGPT Verstöße gegen die moralischen Leitlinien, die ihm seine Entwickler aufwendig beigebracht hatten.

Auch als die Forschenden versuchten, die KI-Drehbücher mit entsprechenden inhaltlichen Vorgaben schreiben zu lassen, stießen sie auf Widerstand. In einem Fall antwortete ChatGPT mit der Warnung in roten Lettern: „Dieser Inhalt könnte gegen unsere Nutzungsbedingungen verstoßen.“

Szene aus der Film-Reihe "Game of Thrones" - ein solches Drehbuch hätte eine KI wohl wegen eingebauter moralischer Filter niemals geschrieben.
Szene aus der Film-Reihe "Game of Thrones" - ein solches Drehbuch hätte eine KI wohl wegen eingebauter moralischer Filter niemals geschrieben.

Moralischer Filter bei ChatGPT - Die „Schere im Kopf“ der KI

Die Wissenschaftler und Wissenschaftlerinnen erklärten, die KI betreibe eine übereifrige Filterung der Inhalte, die leicht zu Zensur und einer Behinderung des künstlerischen Ausdrucks führen könne. So zeigte sich, dass ChatGPT Themen wie psychische Erkrankungen, Behinderung oder Selbstverletzung tendenziell als gewalttätig einstufte. Man müsse über Themen wie Selbstverletzung aber sprechen, sagte die Computerwissenschaftlerin Danaë Metaxa, allerdings mit einer gewissen Sorgfalt und Nuancen.

Randgruppen werden bei Sprachmodellen wie ChatGPT oft marginalisiert

Analog zu dieser Vermeidung wichtiger, wenn auch schwieriger Themen, bestehe die Gefahr, dass bestimmte Identitäten oder Gruppen am Rande der Gesellschaft – psychisch Kranke etwa - marginalisiert werden. „Es entbehre nicht einer gewissen Ironie,“ erklärte Metaxa, „Gruppen, die eigentlich durch die Feinjustierung von ChatGPT geschützt werden sollten, werden so zu ihren Opfern.“ Die Filterung von Inhalten durch Sprachmodelle wie ChatGPT sei wichtig, aber bisher ein ungelöstes Problem.

KI-Sprachmodelle wie ChatGPT haben zwar oft moralische Filter eingebaut, ironischerweise führt das häufig dazu, dass Minderheiten, die durch die Filter eigentlich geschützt werden sollten, benachteiligt werden.
KI-Sprachmodelle wie ChatGPT haben zwar oft moralische Filter eingebaut, ironischerweise führt das häufig dazu, dass Minderheiten, die durch die Filter eigentlich geschützt werden sollten, benachteiligt werden.

Studienmodell zu ChatGPT als Drehbuchautor „ein etwas albernes Szenario“

Kritik an der Studie kommt vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) aus Berlin. Das Studiendesign mit ChatGPT als Drehbuchautor bezeichnet Dr. Aljoscha Burchardt als „etwas albernes Szenario“. Schließlich sei es ohne große Mühe möglich, auf ungefilterte Sprachmodelle zurückzugreifen oder zukünftig für diese Branche Varianten von ChatGPT zu erzeugen, die keine oder andere moralische Schranken haben.

Interessant seien die Ergebnisse der Studie aber dennoch. Sie machten auf problematische Verzerrungen und Beschränkungen von ChatGPT aufmerksam. Deshalb plädiert Burchardt dafür, auf dem Markt für generative KIs für mehr Wettbewerb zu sorgen. So könne sich eine Vielfalt der Meinungsspektren bilden, wie man sie auch von Zeitungen oder anderen Medien kenne.

Mehr über KI und ChatGPT