Bitte warten...

Erlebnisse einer Content-Moderatorin So läuft Selbstkontrolle bei Facebook

Um verbotene und unerlaubte Inhalte auszusortieren, engagiert Facebook externe Betriebe. In Deutschland handelt es sich um die Firmen Competence Call Center in Essen und Arvato in Berlin. „Content-Moderation“ heißt diese Branche, die die Inhalte überwacht und gegebenenfalls eingreift. Hier schildert eine ehemalige Content-Moderatorin, wie hart ihr Job ist.

Was ist "Content-Moderation"?

Die Mitarbeiter, die unerwünschte Inhalte aussortieren, sind bei anderen Betrieben angestellt. In Deutschland handelt es sich um die Firmen Competence Call Center in Essen und Arvato in Berlin. „Content-Moderation“ heißt diese Branche, die die Inhalte überwacht und gegebenenfalls eingreift. Sara (Name von der Redaktion geändert) war so eine Content-Moderatorin:

Als ich angefangen habe, sagte mir ein Kollege: ‚Stell dir einfach vor, dass du die Welt sauber machst, indem du all diese schlechten Dinge wegräumst. Du machst die Welt ein bisschen besser durch deine Arbeit.‘ Und dann habe ich versucht, so zu denken. Die Arbeit war wirklich verstörend. Ja. Ich habe mit wirklich, wirklich krassen Inhalten zu tun gehabt. Es war vor allem Sexuelles. Hass-Content. Mobbing. Kindesmissbrauch. Tierquälerei. Auch Politisches. Auch total brutale Inhalte von Verbrechern, Drogenhändlern.

Sara kam aus dem Ausland nach Berlin und fand dort eine Stelle bei Arvato. Moderatorinnen wie sie werden strikt von der Öffentlichkeit abgeschottet und müssen sich vertraglich zu Stillschweigen verpflichten. Hier äußert sie sich anonym. In der Sendung haben wir die Aussagen von einer Schauspielerin nachsprechen lassen.

Die Müllabfuhr der Sozialen Medien

Es hat sich angefühlt, als würde mir Abfall in den Kopf gefüllt. Die ganze Zeit. Und ich fühlte mich, also na ja, enttäuscht. Enttäuscht von der ganzen Gesellschaft, weil ich das Gefühl hatte, so geht es also wirklich zu. So sind die Menschen also. Und das ist wirklich deprimierend. Als ich angefangen habe, sagte mir ein Kollege: ‚Stell dir einfach vor, dass du die Welt sauber machst, indem du all diese schlechten Dinge wegräumst. Du machst die Welt ein bisschen besser durch deine Arbeit.‘ Und dann habe ich versucht, so zu denken.

Userin surft durch ihr Facebook-Profil

Profilseite auf Facebook

Etwa 2.000 Moderatoren beschäftigt Facebook in Deutschland. Sie kontrollieren auch afrikanische, südamerikanische und nahöstliche Seiten – im Schichtdienst und unter großem Zeitdruck. Das Grundgehalt ist niedrig. Deswegen lohnt sich der Job nur wegen der Bonuszahlungen. Prämien gibt es für große Mengen, wenig Fehler und für Leistungen über dem Team-Durchschnitt.

Manchmal arbeitest du acht Tage hintereinander. Manchmal morgens, manchmal nachmittags, manchmal nachts. Okay, dann hast du drei Tage am Stück frei, aber du bist so müde … So müde, dass du einfach nur noch deine Wäsche machen willst und einkaufen und dir was kochen und schlafen.

Die sogenannte "psychologische Betreuung"

Facebook und Arvato betonen, dass Mitarbeiterinnen wie Sara psychologisch betreut werden. Diese Betreuer sind Psychologen, aber auch Sozialarbeiter und Sozialpädagogen. Informationen über die Befristungen, den Verdienst oder das Prämiensystem geben die Firmen allerdings nicht heraus.

Mein Schlafrhythmus war total aus dem Gleichgewicht. Ich habe Schlaftabletten genommen. Da dachte ich, ich nehme die Hilfe an und gehe zu der Psychologin. Als erstes sagte mir die Frau, dass sie gar keine Psychologin ist. Sondern eine Sozialarbeiterin. Eine Kollegin von mir ging zu dieser Frau, weil sie Alpträume hatte. Sie sagte: ‚Mach dir eine Liste mit allen Sachen, die dir Sorgen machen. Und dann verbrenn das Papier. Das wird dir helfen.‘ Wollt ihr mich veralbern? Ich sehe Leute, die sich umbringen, die sich selbst verletzen, die andere Menschen quälen. Da habe ich mich dann entschieden, mir selbst einen Psychologen zu suchen, und dafür bezahlt.

Unter den Folgen dieser Arbeit leide sie noch heute, sagt Sara. 

Ich habe Alpträume, die ganze Zeit. Dass Leute umgebracht werden, richtig... schlimme Dinge. Ich bin nicht mehr dieselbe. Es war eine wirklich schwierige Zeit für mich. Ich habe ein Video gesehen, in dem ein Kind vergewaltigt wird, und ich bin immer noch... immer noch nicht darüber weggekommen. Ich glaube, diese Arbeit hat mein eigenes Sexualleben kaputt gemacht. Ich habe mit meinem damaligen Freund darüber reden wollen, und er hat gesagt: ‚Ich kann mir das nicht anhören‘.

Entlastung durch Künstliche Intelligenz?

Im November letzten Jahres erklärte Facebook stolz: Mittlerweile würden 52 Prozent der Beiträge, die später als Hassrede gelöscht werden, automatisch erkannt. Die entsprechenden Programme werden mit den Daten trainiert, die bei der menschlichen Inhaltskontrolle anfallen. Die Künstliche Intelligenz soll die Entscheidungen der Beschäftigten nachahmen – berichtet Sara. 

Der Algorithmus lernt von den Angestellten. Aber er lernt nicht wirklich gut. Es war dann so, dass die einfachen Fälle von den Maschinen aussortiert wurden und wir uns um den Rest gekümmert haben. Und du musst wirklich schnell entscheiden. Die Vorgabe ist 2.000, ich habe vielleicht 4.000 am Tag erledigt.

Weitere Themen in SWR2