STAND
AUTOR/IN

Von vermeintlichen Medikamenten gegen Covid-19 bis hin zu Verschwörungstheorien: Das Netz ist voll von dubiosen Virus-News. Dagegen wollen auch soziale Medien ihre Nutzer schützen.

Die Corona-Krise hat dem Informationsaufkommen im Netz einen ordentlichen Schub gegeben: Mehr Nachrichten schwirren durchs Netz, mehr Nutzer wollen sich informieren. Doch in diesem Informationsdschungel den Überblick zu behalten, ist nicht einfach – vor allem weil sich auch viele falsche Infos dazwischen mischen, die teils wirklich gefährlich sind.

Viele davon werden schnell von seriösen Medien widerlegt, z. B.:

Überblick SWR3-Faktenchecks Fake News & Verschwörungstheorien in der Corona-Krise

Fake News verbreiten sich dieser Tage schneller als das Virus. Panikmache, falsche Fakten und Verschwörungstheorien verunsichern bei Whatsapp & Co. Hier findest du Faktenchecks – und wir zeigen, wie du die Fakes erkennen kannst.  mehr...

Doch gerade in Online-Netzwerken verbreiten sich solche Fake News schnell ohne eine Einordnung. Um die Flut von Falschinformationen einzudämmen, haben die Plattformen mittlerweile aber verschiedene Maßnahmen entwickelt.

Nicht einfach löschen: Twitter warnt jetzt vor Corona-Fake-News

Bereits im März hatte Twitter seine Community-Standards aktualisiert. Seither werden Inhalte, die offiziellen Quellen direkt widersprechen, gelöscht. Was davon betroffen sein kann, erklärt Twitter an Beispielen wie diesen:

  • Tweets, die dazu aufrufen, offizielle Richtlinien zu ignorieren, z. B.  weil Social Distancing nichts bringe.
  • Tweets, die vermeintliche Heilmittel bewerben, z. B. Aromatherapien oder ätherische Öle.
  • Tweets, die gefährliche Selbst-Therapien vorschlagen, z. B. Bleichmittel zu trinken.
  • Tweets, die Rassismus schüren, z. B., dass die Gefahr, sich bei Asiaten anzustecken, höher sei.

Das bisherige System von Twitter ist damit ziemlich schwarz-weiß. Schwieriger wird’s, wenn die Informationen nicht gefährlich, aber umstritten sind. Die Diskussion um einen möglichen Impfzwang gegen Corona zum Beispiel. Ist in Deutschland bisher nicht geplant, trotzdem wird im Netz Angst geschürt.

Twitter-Hinweise zur Corona-Krise. (Foto: Twitter.com)
Twitter.com

Twitter gibt zu: Fehler können passieren

Genau unter Tweets zu diesem Thema könnten in Zukunft deswegen Links zu offiziellen Quellen angezeigt werden. Insgesamt gibt es bei Twitter drei Stufen. Dieser Link-Tipp ist Stufe eins. Sind die Inhalte mit hoher Wahrscheinlichkeit Fake News, werden sogar Warnhinweise angezeigt. Und gefährliche Tweets werden natürlich weiterhin gelöscht.

Das könnte übrigens dann explizit auch bei Tweets von US-Präsident Donald Trump der Fall sein. Die Maßnahme gelte für jeden, der irreführende Informationen weitergebe, einschließlich „führender Politiker“, so ein Twitter Manager.

Was richtig ist und was falsch, das soll im Großen und Ganzen ein Computer erkennen, eine künstliche Intelligenz, die von Entscheidungen von Twitter-Mitarbeitern lernt. Twitter warnt aber vor: Es könnten natürlich Fehler passieren, die wolle man aber schnellstmöglich korrigieren.

Facebook informiert im Nachhinein

Die Werbenetzwerke Facebook und Instagram sind im ersten Schritt ähnlich unterwegs wie Twitter. Dubiose Nachrichten werden mit Hinweisen versehen, im Facebook-Newsfeed werden sie angeblich auch seltener ausgespielt.

Im zweiten Schritt geht Facebook aber sogar weiter: Stellt sich bei Nachrichten nämlich erst im Nachhinein raus, dass sie Fake News sind, dann bekommen Nutzer, die sie gelikt, geteilt oder kommentiert haben, auch nachträglich im Newsfeed noch Links zum Beispiel zur Seite der Welt-Gesundheits-Organisation (WHO) angezeigt.

Gelöscht werden Fake-News aber anscheinend nicht. Warum erklärt Facebook auch nicht. Und auch generell ist die Kampagne gegen Fake News bei Facebook umstritten. Denn zum einen könne es nach SWR-Recherchen bis zu 22 Tage dauern, bis eine Nachricht mit Hinweisen versehen wird. Social-Media-Experten dauert das zu lange. Zum anderen ist politische Werbung generell von den Fake-News-Checks ausgenommen – vor allem in den USA stehen die politischen Akteure aber durchaus regelmäßig für mögliche Desinformation in der Kritik.

WhatsApp beschränkt Weiterleitungen

Da Nachrichten, Videos und Fotos bei WhatsApp generell verschlüsselt sind, ist die Überprüfung und Einordnung von Inhalten hier nicht möglich. Trotzdem versucht der Facebook-Konzern, zu dem WhatsApp gehört, die Verbreitung von Fake News einzudämmen.

Deswegen können Nachrichten innerhalb der App nicht unbegrenzt, sondern maximal an fünf Chats weitergeleitet werden. Diese werden außerdem mit einem Doppelpfeil als Weiterleitung gekennzeichnet. Weitergeleitete Nachrichten können zudem nur noch an einzelne Chats weitergeleitet werden. WhatsApp will damit das maßlose, unreflektierte Weiterleiten von Gerüchten und Falschnachrichten unterbinden.

YouTube löscht Medizin-Fakes

Auch das Video-Netzwerk Youtube ordnet Inhalte mit Hinweisen auf offiziellen Webseiten ein. Das kann die WHO sein, aber auch „lokalen Quellen wie Gesundheitsministerien oder -ämter“. Zudem werden gefährliche Medizin-Videos gelöscht, also „Videos, die Menschen davon abhalten, sich medizinisch behandeln zu lassen, oder in denen schädliche Substanzen als gesundheitsfördernd angepriesen werden“.

STAND
AUTOR/IN