Nahaufnahme Handydisplay - Social Media Apps (Foto: SWR, SWR -)

SWR2 Wissen | Die Zukunft der sozialen Medien

Selbstkontrolle im Netz – Neue Regeln für Google, Twitter und Facebook

STAND
AUTOR/IN
ONLINEFASSUNG

Falschmeldungen, Hetze, Hasskommentare: Der politische Druck auf Facebook, Google und Twitter wächst. Sie löschen und sperren deutlich mehr Beiträge als früher. Aber ihre Inhaltskontrolle ist oft willkürlich, teilweise widersprüchlich. Sollen wirklich private Unternehmen über die Grenzen der Meinungsfreiheit entscheiden?

Audio herunterladen (12,8 MB | MP3)

Mobbing, Pornografie und Gewaltverherrlichung verboten – eigentlich

Die Gemeinschaftsstandards von Facebook, Youtube und Twitter verbieten Mobbing, Pornografie, Gewaltverherrlichung und Werbung für militante Bewegungen. Doch den Plattformen wird oft vorgeworfen, zu wenig dagegen zu unternehmen, vor allem gegen Hassrede.

Anne Laumen, Sprecherin von Facebook Deutschland, verteidigt ihr Unternehmen. Sie sagt, dass in den letzten zwei Jahren deutlich mehr Hassrede von der Plattform entfernt worden sei. Nicht nur deutschsprachige Inhalte würden dabei im Auftrag von Facebook geprüft, sondern auch Posts in anderen Sprachen wie Arabisch, Türkisch oder Niederländisch.

Verstörende Inhalten belasten Content-Moderatoren

"Im Auftrag vom Facebook" bedeutet: Die Mitarbeiter, die unerwünschte Inhalte aussortieren, sind bei anderen Betrieben angestellt. In Deutschland handelt es sich um die Firmen Competence Call Center in Essen und Arvato in Berlin. "Content-Moderation" heißt diese Branche, die die Inhalte überwacht und gegebenenfalls eingreift.

Eine Mitarbeiterin, "Sara", die anonym bleiben möchte, berichtet von den belastenden Inhalten, denen sie ständig ausgesetzt sei:

  • sexuelle Handlungen bis hin zur Vergewaltigung
  • Kindesmissbrauch
  • Tierquälerei
  • brutale Verbrechen z. B. im Drogenmilieu
  • Hass-Content
  • Mobbing

Die Moderatorinnen und Moderatoren werde von der Öffentlichkeit strikt abgeschottet und müssen sich vertraglich zu Stillschweigen verpflichten. Die Content-Moderation ist quasi die Müllabfuhr der globalen Netzwerke. Die Angestellten säubern sie vom Schmutz, der in gewaltigen Mengen anfällt.

Netzwerkdurchsetzungsgesetz fordert Bericht über Mitarbeiterbetreuung

Das Netzwerkdurchsetzungsgesetz verpflichtet die Unternehmen, halbjährlich über "Schulung und Betreuung der für die Bearbeitung von Beschwerden zuständigen Personen" zu berichten. Im jüngsten Bericht von Facebook heißt es dazu lediglich:

"Facebook engagiert sich dafür, Menschen, die Inhalte überprüfen, ein qualitativ hochwertiges und vielfältiges Betreuungsprogramm zur Verfügung zu stellen, und wird auch in Zukunft neue Dienstleistungen hinzufügen und bestehende Dienstleistungen verbessern."

Ein Beschäftigter pro 147.000 Nutzer bei Facebook

Ende 2018 kündigte Facebook an, die Zahl der Mitarbeiter, die sich um Sicherheitsfragen und Gemeinschaftsstandards kümmern, auf 30.000 zu erhöhen. Laut Aussagen des Unternehmens arbeitet etwa die Hälfte von ihnen als Content-Moderatoren, also ungefähr 15.000 weltweit. Zum Vergleich: 2,2 Milliarden Menschen nutzen die Plattform. Somit kommt auf etwa 147.000 Nutzer je ein Beschäftigter.

Um die Kosten niedrig zu halten, versuchen Facebook, YouTube, Microsoft und Google, die Inhaltskontrolle nach Möglichkeit zu automatisieren. Menschliche Arbeitskraft, um Beiträge zu überprüfen, passt nicht zum Geschäftsmodell der Plattformen. Ihre Profitabilität beruht darauf, dass sie immer größere Datenmengen bei gleichbleibenden Kosten verarbeiten – und so immer größere Erträge erzielen. "Skalierbarkeit" nennen das die IT-Manager.

Künstliche Intelligenz-Programme zur Unterstützung

Für die Zukunft setzt Facebook verstärkt auf Künstliche-Intelligenz-Programme. Die sollen die Mitarbeiter unterstützen. Im November 2018 erklärte Facebook, man mache in diesem Bereich Fortschritte. Mittlerweile würden 52 Prozent der Beiträge, die später als Hassrede gelöscht werden, automatisch erkannt. Die entsprechenden Programme werden mit den Daten trainiert, die bei der menschlichen Inhaltskontrolle anfallen. Die Künstliche Intelligenz soll die Entscheidungen der Beschäftigten nachahmen, berichtet die ehemalige Content-Moderatorin "Sara". Sie stellt jedoch auch fest, dass die KI vor allem die einfachen Fälle aussortiere. Der Rest bleibe weiterhin den Menschen überlassen.

Internetplattformen ziehen die Grenzen der Meinungsfreiheit

Die Internetplattformen sind in eine problematische Rolle geraten: Mit ihrer Inhaltskontrolle sind sie es, die die Grenzen der Meinungsfreiheit ziehen:

  • Was zählt noch als scharfe Kritik, was bereits als Verleumdung?
  • Welche Äußerungen sind hässlich, aber durch die Meinungsfreiheit gedeckt?
  • Wie sollen die Plattformen mit Inhalten umgehen, die vielleicht im Ton nicht hasserfüllt, aber sachlich eindeutig falsch sind?

Audio herunterladen (42 MB | MP3)

Die sozialen Medien versuchen, sich möglichst neutral zu verhalten – und die Verantwortung auszulagern.

In Deutschland übernimmt Correctiv, ein journalistisches Recherchebüro, das Fact-Checking für Facebook. Fotomontagen, falsche Zitate, wilde Behauptungen – ungefähr 50 Hinweise pro Tag schickt Facebook an Correctiv. Ein oder zwei dieser Posts werden dann überprüft. Wie die Liste von Facebook zustande kommt, wissen auch die Angestellten von Correctiv nicht genau.

Viele europäische und deutsche Politiker wollen sich nicht länger auf die Freiwillige Selbstkontrolle der sozialen Medien verlassen. Bundesjustizministerin Katarina Barley etwa fordert eine staatliche Aufsichtsbehörde, die die Inhaltskontrolle überwacht.

Teil 2, Montag, 4. Februar, 8.30 Uhr

Gesellschaft Cyberstalking – Was tun gegen digitale Gewalt?

Häufig sind Frauen die Opfer von Cyberstalking: Sie werden digital beleidigt und bedroht. Obwohl der Stalking-Paragraf verschärft wurde, ist es schwer, die Täter zu belangen.  mehr...

SWR2 Wissen SWR2

Kriminalität Telegram – Der Messengerdienst als rechtsfreier Raum

Telegram ist beliebt bei Aktivisten, bei Kriminellen und Extremisten sowie bei einer halben Milliarde ganz normaler User weltweit. Alle vertrauen der App. Zu Recht?  mehr...

SWR2 Wissen SWR2

Onlinesucht Süchtig im Netz – Kampf gegen die "Droge Facebook"

Smartphone-abhängige Programmierer im Silicon Valley erfinden technische Tricks, um die eigene Internetsucht zu überlisten.  mehr...

SWR2 Wissen SWR2

Digitalisierung: aktuelle Beiträge

Gesellschaft Überwachtes Leben – Gesichtserkennung und Tracking

Immer mehr Menschen werden automatisch auf den Bildern von Überwachungskameras identifiziert - eine Gefahr für die Freiheitsrechte. Von Cäcilia und Thomas Kruchem. (SWR 2022) | Manuskript und mehr zur Sendung: http://swr.li/ueberwachtes-leben | Bei Fragen und Anregungen schreibt uns: wissen@swr2.de | Folgt uns auf Twitter: @swr2wissen  mehr...

SWR2 Wissen SWR2

Überwachung Gesichtserkennung in Großbritannien offenbar häufig im Einsatz

London ist die Stadt mit den meisten Überwachungskameras in Europa.
Die Polizei überwacht immer wieder belebte Plätze mit Gesichtserkennung und gleicht die Aufnahmen mit einer Liste von etwa 10.000 Personen ab. Deutlich häufiger als im Rest der EU.  mehr...

SWR2 Impuls SWR2

Technik Wie Handys und smarte Uhren Leben retten sollen

Handys, Uhren, Fitnessbänder: In vielen Geräten, die wir täglich nutzen, stecken Sensoren, die Daten sammeln. Sie werden immer präziser. Einige Technik-Hersteller haben das Ziel: Blutdruck oder Blutzucker messen - ohne Manschette oder Blutprobe.  mehr...

SWR2 Impuls SWR2

STAND
AUTOR/IN
ONLINEFASSUNG