KI-Bilder

Edle Kämpfer, alles Fake: KI-Bilder zum Gaza-Krieg fluten das Netz

Stand
AUTOR/IN
Andreas Langen

KI-generierte Bilder zum Gaza-Krieg findet man selbst bei seriösen Bildanbietern wie Adobe Stock: Bildmaterial, das so realistisch wirkt wie Fotografie, aber keine ist. Eine gefährliche Entwicklung, sagt der Deutsche Fotorat, da es weder ein Kontrollorgan gibt noch Tools, die Fake-Bilder zuverlässig erkennen.

Audio herunterladen (3,9 MB | MP3)

Alles Fake? Bilderflut aus dem Nahost-Krieg

Einen packenden Bericht über den Gaza-Krieg zu publizieren, mit dramatischen Bildern mitten aus dem Geschehen, ist leichter denn je. Bild-Datenbanken wie Abobe Stock bieten im Netz unzählige eindrückliche Motive: Explosionen, Ruinenlandschaften bis zum Horizont, brennende Autos, Kämpfer, startende Raketen.

Mitten im Schlachtfeld wie immer Kinder in Großaufnahme: lachend, weinend, schreiend, fliehend, betend, mit und ohne Teddy, manche blutend, andere wohlauf. Das Verrückte dabei: Die allermeisten dieser Szenen hat es nie gegeben; die Bilder sind keine Fotos, sondern wurden von künstlicher Intelligenz erzeugt.

Kaum Unterschiede zu echten Fotos

Auf den ersten Blick gebe es gar keinen Unterschied zu echten Fotos, sagt Jürgen Scriba vom Deutschen Fotorat: „Die sind genauso verschlagwortet, die sind genauso beschriftet.“

Die Gefahr sei daher groß, dass gefakte Bilder verwechselt oder absichtlich vertauscht würden mit Bildern von tatsächlichen Geschehnissen. Scriba beobachtet, dass der Anbieter Adobe Stock jetzt schon echte Fotografien aus dem Gaza-Krieg mischt mit KI-erzeugten, aber fotorealistisch wirkenden Bildern.

Online-Tools versagen darin, KI-Bilder zu erkennen

Ein Kampfpanzer mag tatsächlich fotografiert worden sein, ebenso eine fliehende Zivilistin vor rauchenden Trümmern. Doch den hautnah abgebildeten Feuerwehrmann in einer zerstörten Straße dagegen hat es ebenso wenig gegeben wie etliche Palästina-Demos, auf denen zornige Männer schreiend die Fäuste gen Himmel recken – alles aus Pixeln gebaute Illusion.

Bei KI-generierten Bildern habe ich durch die Bank einen Authetizitäts-Score von mindestens 86 Prozent bekommen.

Es fehlten die technischen Mittel, das alles aufzudecken, sagt Scriba. Die öffentlich zugänglichen Online-Tools, die die Fakes erkennen sollen, hätten in Tests komplett versagt. „Bei KI-generierten Bildern habe ich durch die Bank einen Authetizitäts-Score von mindestens 86 Prozent bekommen.“ 

„Freiwillige Selbstkontrolle“ scheint gescheitert

Authentizität führt auch eine globale Initiative großer Medien, Software- und Kamerahersteller im Namen: Die Content Authenticity Initiative, 2019 gegründet von New York Times, Twitter und – ausgerechnet – Adobe. Derselben Firma, die jetzt das Netz flutet mit KI-generierten, irreführenden Kriegsbildern zum Thema Gaza.

Trotzdem vertrauen in der EU Deutschland, Frankreich und Italien auf freiwillige Selbstkontrolle der KI-Hersteller. Enge gesetzliche Vorgaben lehnen die drei Länder ab.

Deutscher Fotorat sieht Medienhäuser in der Verantwortung

Unzureichend gegen KI-Fake-Bilder ist auch die Strategie, im Fotoapparat eine Technik einzubauen, die nachweist, dass eine Bilddatei tatsächlich als Fotografie entstanden ist. Es gibt derzeit genau zwei Kameratypen, die das können, aber keinen Workflow, der solche Echtheitsbeweise auch bei Redaktionen und Usern ankommen lässt.

Deshalb fordert der deutsche Fotorat, dass die Medienbranche schnell reagiert. Jürgen Scriba fordert ein klares Bekenntnis gegen KI-generierte Bilder in der Berichterstattung: „Da muss es ein Commitment geben, ein Redaktionsstatut, das sagt: Alles, was ihr bei uns auf der Seite seht, ist echt.“

KI-Antlitze voll ernster Entschlossenheit

Solange es das nicht gibt, werden die Avatare herumgeistern: Bilder von Reporterinnen in schusssicheren Westen, Typ Angelina Jolie; und massenweise Hamas-Kämpfer, die aussehen wie edle Kriegsfürsten aus dem Herrn der Ringe – die ebenmäßigen Antlitze voll ernster Entschlossenheit.

Seltsam nur, dass diese makellosen Helden, unberührt von Blut, Schweiß und Tränen, eine Gesichtshaut haben wie Models für Männerparfüm. Da muss die KI wohl noch mal nachlegen.

KI manipuliert die Berichterstattung

Gespräch Tagesschau-Fake: Wie einfach ist es, Jens Riewa zu fälschen?

Zurzeit kursieren im Netz Audiodateien, die wie Mitschnitte der Tagesschau mit Susanne Daubner oder Jens Riewa klingen. Das sei möglich mittels „Stimmsynthese“, erklärt Sandra Müller, multimediale Redaktionsleiterin des SWR-Studios Tübingen. Die KI schaue sich die Besonderheit der Stimme an und könne genau diese Stimme neu synthetisieren, sagt Müller

SWR2 Kultur aktuell SWR2

Deepfakes im Internet Das neue Zeitalter der Unwahrheitsvermutung: Droht die Infokalypse im Netz?

Ungeprüfte Falschnachrichten und -bilder im Netz sind eine wachsende Herausforderung für alle. Wir werden umdenken müssen, wenn Wahrheit und Fiktion kaum zu unterscheiden sind.

Forum Gefakte Wirklichkeit – Wie manipuliert uns KI?

Wie gefährlich ist das, wenn mehr und mehr Stimmen, Bilder und Texte das Ergebnis von Deep Fake sind? Und wem oder was können wir noch trauen?

SWR2 Forum SWR2

Stand
AUTOR/IN
Andreas Langen