Mobbing, Pornografie und Gewaltverherrlichung verboten – eigentlich
Die Gemeinschaftsstandards von Facebook, Youtube und Twitter verbieten Mobbing, Pornografie, Gewaltverherrlichung und Werbung für militante Bewegungen. Doch den Plattformen wird oft vorgeworfen, zu wenig dagegen zu unternehmen, vor allem gegen Hassrede.
Anne Laumen, Sprecherin von Facebook Deutschland, verteidigt ihr Unternehmen. Sie sagt, dass in den letzten zwei Jahren deutlich mehr Hassrede von der Plattform entfernt worden sei. Nicht nur deutschsprachige Inhalte würden dabei im Auftrag von Facebook geprüft, sondern auch Posts in anderen Sprachen wie Arabisch, Türkisch oder Niederländisch.
Verstörende Inhalten belasten Content-Moderatoren
"Im Auftrag vom Facebook" bedeutet: Die Mitarbeiter, die unerwünschte Inhalte aussortieren, sind bei anderen Betrieben angestellt. In Deutschland handelt es sich um die Firmen Competence Call Center in Essen und Arvato in Berlin. "Content-Moderation" heißt diese Branche, die die Inhalte überwacht und gegebenenfalls eingreift.
Eine Mitarbeiterin, "Sara", die anonym bleiben möchte, berichtet von den belastenden Inhalten, denen sie ständig ausgesetzt sei:
- sexuelle Handlungen bis hin zur Vergewaltigung
- Kindesmissbrauch
- Tierquälerei
- brutale Verbrechen z. B. im Drogenmilieu
- Hass-Content
- Mobbing
Die Moderatorinnen und Moderatoren werde von der Öffentlichkeit strikt abgeschottet und müssen sich vertraglich zu Stillschweigen verpflichten. Die Content-Moderation ist quasi die Müllabfuhr der globalen Netzwerke. Die Angestellten säubern sie vom Schmutz, der in gewaltigen Mengen anfällt.
Netzwerkdurchsetzungsgesetz fordert Bericht über Mitarbeiterbetreuung
Das Netzwerkdurchsetzungsgesetz verpflichtet die Unternehmen, halbjährlich über "Schulung und Betreuung der für die Bearbeitung von Beschwerden zuständigen Personen" zu berichten. Im jüngsten Bericht von Facebook heißt es dazu lediglich:
"Facebook engagiert sich dafür, Menschen, die Inhalte überprüfen, ein qualitativ hochwertiges und vielfältiges Betreuungsprogramm zur Verfügung zu stellen, und wird auch in Zukunft neue Dienstleistungen hinzufügen und bestehende Dienstleistungen verbessern."
Ein Beschäftigter pro 147.000 Nutzer bei Facebook
Ende 2018 kündigte Facebook an, die Zahl der Mitarbeiter, die sich um Sicherheitsfragen und Gemeinschaftsstandards kümmern, auf 30.000 zu erhöhen. Laut Aussagen des Unternehmens arbeitet etwa die Hälfte von ihnen als Content-Moderatoren, also ungefähr 15.000 weltweit. Zum Vergleich: 2,2 Milliarden Menschen nutzen die Plattform. Somit kommt auf etwa 147.000 Nutzer je ein Beschäftigter.
Um die Kosten niedrig zu halten, versuchen Facebook, YouTube, Microsoft und Google, die Inhaltskontrolle nach Möglichkeit zu automatisieren. Menschliche Arbeitskraft, um Beiträge zu überprüfen, passt nicht zum Geschäftsmodell der Plattformen. Ihre Profitabilität beruht darauf, dass sie immer größere Datenmengen bei gleichbleibenden Kosten verarbeiten – und so immer größere Erträge erzielen. "Skalierbarkeit" nennen das die IT-Manager.
Künstliche Intelligenz-Programme zur Unterstützung
Für die Zukunft setzt Facebook verstärkt auf Künstliche-Intelligenz-Programme. Die sollen die Mitarbeiter unterstützen. Im November 2018 erklärte Facebook, man mache in diesem Bereich Fortschritte. Mittlerweile würden 52 Prozent der Beiträge, die später als Hassrede gelöscht werden, automatisch erkannt. Die entsprechenden Programme werden mit den Daten trainiert, die bei der menschlichen Inhaltskontrolle anfallen. Die Künstliche Intelligenz soll die Entscheidungen der Beschäftigten nachahmen, berichtet die ehemalige Content-Moderatorin "Sara". Sie stellt jedoch auch fest, dass die KI vor allem die einfachen Fälle aussortiere. Der Rest bleibe weiterhin den Menschen überlassen.
Internetplattformen ziehen die Grenzen der Meinungsfreiheit
Die Internetplattformen sind in eine problematische Rolle geraten: Mit ihrer Inhaltskontrolle sind sie es, die die Grenzen der Meinungsfreiheit ziehen:
- Was zählt noch als scharfe Kritik, was bereits als Verleumdung?
- Welche Äußerungen sind hässlich, aber durch die Meinungsfreiheit gedeckt?
- Wie sollen die Plattformen mit Inhalten umgehen, die vielleicht im Ton nicht hasserfüllt, aber sachlich eindeutig falsch sind?
Die sozialen Medien versuchen, sich möglichst neutral zu verhalten – und die Verantwortung auszulagern.
In Deutschland übernimmt Correctiv, ein journalistisches Recherchebüro, das Fact-Checking für Facebook. Fotomontagen, falsche Zitate, wilde Behauptungen – ungefähr 50 Hinweise pro Tag schickt Facebook an Correctiv. Ein oder zwei dieser Posts werden dann überprüft. Wie die Liste von Facebook zustande kommt, wissen auch die Angestellten von Correctiv nicht genau.
Viele europäische und deutsche Politiker wollen sich nicht länger auf die Freiwillige Selbstkontrolle der sozialen Medien verlassen. Bundesjustizministerin Katarina Barley etwa fordert eine staatliche Aufsichtsbehörde, die die Inhaltskontrolle überwacht.
Teil 2, Montag, 4. Februar, 8.30 Uhr