ChatGPT Logo und Dialog mit dem Chatbot. Der User fragt den Chatbot, ob er ihm bei den Hausaufgaben helfen kann. ChatGPT bejaht dies.  (Foto: IMAGO, IMAGO / ANP)

Künstliche Intelligenz

ChatGPT schreibt auch wissenschaftliche Texte

Stand
AUTOR/IN
Anja Braun
Anja Braun, Reporterin und Redakteurin SWR Wissen aktuell. (Foto: SWR, Christian Koch)
ONLINEFASSUNG
Lena Schmidt

Hausaufgaben, Hausarbeiten und jetzt auch wissenschaftliche Veröffentlichungen. Der Bot ChatGPT mischt Bildung und Wissenschaft auf. Wie schätzen Fachleute den Einsatz von Sprachmodellen ein?

Beim Chatten mit ChatGPT fällt kaum auf, dass es sich um einen Chatbot handelt. Während einige den Chatbot aus reiner Neugier ausprobiert haben, nutzen ihn andere zum Beispiel aus beruflichem Interesse: Welche komplexen Programmieraufgaben kann der Bot bereits lösen? Wie klingt es, wenn ChatGPT eine E-Mail für mich formuliert?

Auch Schülerinnen und Schülern sowie Studierenden blieb der neue Nutzen der Sprach-Künstlichen Intelligenz (KI) nicht unbekannt. Schulaufgaben und ganze Hausarbeiten wurden mithilfe des Chatbots generiert. Und nun breiten sich Aufmerksamkeit und Diskussion auch auf wissenschaftliche Veröffentlichungen aus.

Denn Chat GPT hat bereits an wissenschaftlichen Veröffentlichungen mitgeschrieben und wird in mindestens vier Papern sogar als Co-Autorin genannt, wie das Wissenschaftsmagazin Nature berichtet.

 Einsatz von Chatbots in der Lehre

Chatbots wie ChatGPT könnten in der Wissenschaft verschieden eingesetzt werden – doch ob und wie sie zum Einsatz kommen sollen, ist unter Expertinnen und Experten umstritten. Neben der Mitarbeit an wissenschaftlichen Artikeln könnten sie auch in der Lehre genutzt werden. Dafür haben sich schon einige Professorinnen und Professoren ausgesprochen.

Ein Chatbot erleichtere Vieles – zum Beispiel, passgenauere Prüfungsaufgaben zu formulieren. Gerade Lehrkräfte in technisch geprägten Studienfächern wie zum Beispiel den Ingenieurswissenschaften fordern explizit auch ihre Studierenden auf, das KI Sprachmodell für ihre Hausarbeiten zu nutzen. Denn wichtig sei doch, dass Studierende in der Lehre auf das vorbereitet werden, was KI und Technologien wie ChatGPT leisten können.

Kritischer betrachtet wird der Einsatz von Chatbots unter anderem von der Universität Tübingen. Die Uni hat den Einsatz von ChatGPT für Studierende und Forschende nun stark eingeschränkt:

Tübingen

Keine KI in schriftlichen Prüfungen Universität Tübingen beschränkt Nutzung von ChatGPT

Die Software ChatGPT kann Mathe, aber auch Texte auf Deutsch und Englisch schreiben. Die Universität Tübingen hat ihren Einsatz für Studierende und Forschende nun stark begrenzt.

SWR4 BW am Vormittag SWR4 Baden-Württemberg

Co-Autorschaft von ChatGPT umstritten

Es wird nicht nur diskutiert, ob Sprachmodelle wie ChatGPT zum Schreiben wissenschaftlicher Paper eingesetzt werden sollten, sondern auch, ob und wie der Einsatz dann kenntlich gemacht werden muss. Nachdem vor Kurzem vier Paper eine Co-Autorschaft des Bots angegeben haben, hagelt es nun Kritik: Renommierte wissenschaftliche Fachmagazine wie Nature wollen keine Beiträge akzeptieren, bei denen ein Chatbot als Autor aufgeführt wird. Denn ein Sprachmodell wie Chat GPT könne keine Verantwortung für die Arbeit übernehmen – und das sei die Voraussetzung für eine Autorenschaft.

Nature-Chefredakteurin Magdalena Skipper erklärt, eine künstliche Intelligenz könne man schließlich nicht verklagen. Das Fachmagazin Science fordert darüber hinaus: Der Einsatz von ChatGPT muss klar gekennzeichnet werden. Zum Beispiel als Werkzeug in einer Liste der verwendeten Materialien. Geschieht das nicht, dann kann ein KI-generierter Text als Plagiat angesehen werden.

Dr. Thilo Hagendorff, Post-Doc am Exzellenzcluster „Machine Learning: New Perspectives for Science“ an der Uni Tübingen sieht das anders:

Es macht keinen Sinn, dort ein Sprachmodell mit aufzulisten, denn früher oder später werden das alle benutzen, wir werden einfach mehr zu Editorinnen und Editoren.

In spätestens 10 Jahren werde es laut Hagendorff absolut selbstverständlich sein, dass Sprachmodelle an wissenschaftlichen Texten mitschreiben. Dann müsste unter jedem wissenschaftlichen Paper stehen, welches Sprachmodell mitgewirkt habe – und diese Information sei dann absolut nichtssagend.

Das Bild zeigt ein Handy, auf dessen Bildschirm ChatGPT angezeigt wird und im Hintergrund befindet sich das Microsoft-Logo. (Foto: IMAGO, NurPhoto)
Berichten zufolge, könnte sich Microsoft zukünftig stärker an ChatGPT beteiligen. So könnten Funktionen der OpenAI-Software zum Beispiel in Programme wie Outlook oder Word integriert werden – und der Bot noch häufiger mit dem Alltag in Berührung kommen.

Spart der Einsatz ChatGPT wirklich Zeit?

Ute Schmid, Leiterin der Arbeitsgruppe kognitive Systeme an der Uni Bamberg, meint jedoch, es könnte auch anders laufen. Sie erinnert, wie Sprachprojekte zur maschinellen Übersetzung von EU-Verträgen in alle EU-Sprachen abgebrochen wurden. Für dolmetschende Menschen habe das Editieren von teilweise gut, teilweise schlecht übersetzten Texten viel mehr Aufwand bedeutet, als es gleich selber zu machen.

Eine Frau markiert Korrekturen in einem Text mit einem roten Stift. (Foto: IMAGO, IMAGO / Panthermedia)
Das Editieren von Chatbot-generierten Texten könnte länger dauern als das eigenhändige Schreiben der Texte.

Der Einsatz von Chat GPT könnte also auch mehr Zeit kosten als letztlich einsparen. Denn das Sprachmodell arbeitet nicht wissenschaftlich fundiert, sondern gibt wieder, was es im Internet findet. Deshalb müssen die Texte nochmal geprüft werden. Ein großes Problem der Software ist dabei, dass sie nicht transparent ist:

Da steckt ein tieferes Problem, dass es eben nicht nachzuvollziehen ist, welche Quellen wann und wie in die jeweiligen produzierten Aussagen eingehen.

 Bot ist noch sehr fehleranfällig

Dass auch der Chatbot Fehler machen kann und teils absurde Antworten gibt, wurde sehr schnell klar. Eine Twitter-Userin veröffentliche beispielsweise folgende Chatbot-Antwort auf der Microblogging-Plattform: Auf die Frage, welches Säugetier die größten Eier legen antwortete ChatGPT, es sei der Elefant.

Doch dazu kommt, dass ChatGPT auf Anfrage einfach Quellen erfindet, was in der Wissenschaft als Todsünde gilt. Geforscht wird daher auch daran, KI-generierte Texte extra zu kennzeichnen, also zum Beispiel durch Wasserzeichen. Das ist bereits in der Entwicklung, funktioniert aber nur mit Texten ab einer gewissen Länge.

Vorurteile von Künstlicher Intelligenz Können Psychotests problematische Vorstellungen von KI aufdecken?

Wie gewissenhaft ist eine künstliche Intelligenz (KI) - oder wie neurotisch? Können Psychotests versteckte Persönlichkeitsmerkmale und Moral-Vorstellungen einer KI bestimmen?

SWR2 Impuls SWR2

Eine wirklich bahnbrechende Evolution sieht Technikethiker Thilo Hagendorff erst dann, wenn man Sprachmodelle wie ChatGPT mit anderen KI-Systemen kombiniert. Die Möglichkeiten sind also noch lange nicht erschöpft. „Da wird sich so viel verändern, was das menschliche Zusammenleben, was die Wirtschaft angeht, dass dort einiges auf uns zukommt“, sagt Hagendorff.

Das Bild zeigt einen humanoiden Roboter vom Typ Pepper. (Foto: IMAGO, epd-bild/GuidoxSchiefer)
Die Felder, in denen Robotik und KI zukünftig genutzt werden könnten, sind vielfältig. „Robbie“ ist ein humanoider Roboter vom Typ Pepper, der von Wissenschaftlerinnen und Wissenschaftlern der Universität Siegen und der Fachhochschule Kiel programmiert wurde, um unterstützend in der Pflege eingesetzt zu werden.

Mehr zum Thema ChatGPT und KI:

Künstliche Intelligenz: ChatGPT im Journalismus Kommentar: Axel Springer-Verlag und OpenAI gehen Partnerschaft ein

Open AI und Axel Springer haben eine Kooperation vereinbart. Welche Risiken bietet die Zusammenarbeit? Was bedeutet das für die Nachrichtengebung? Stefan Troendle kommentiert.

Baden-Württemberg

Riskant oder nützlich? Künstliche Intelligenz: ChatGPT bei Schülern in BW stark gefragt

Die auf Künstlicher Intelligenz basierende Software ChatGPT verbreitet sich in rasantem Tempo - auch unter Schülerinnen und Schülern in BW. Ein Verbot ist jedoch keine Lösung, meinen Experten.

Kaiserslautern

Innovative Technik zur Verbrechensbekämpfung Künstliche Intelligenz auch bei Ermittlungen zum Polizistenmord von Kusel im Einsatz

Hasskommentare im Internet und Aufrufe zu Gewalt gegen Polizeibeamte: Künstliche Intelligenz hilft den Ermittlern. Auch im Fall der getöteten Polizisten von Kusel.

Stand
AUTOR/IN
Anja Braun
Anja Braun, Reporterin und Redakteurin SWR Wissen aktuell. (Foto: SWR, Christian Koch)
ONLINEFASSUNG
Lena Schmidt