Ein einziger Fehler wäre ein Desaster, eine einzige Unaufmerksamkeit könnte Revolten auslösen. So wie vor zwei Wochen, als eine Falschmeldung auf einer Online-Plattform im Norden Indiens zum Lynchmord an einem Vieh-Transport-Chauffeur geführt hat. Subramani Subbu (32) weiss das.

Er blickt starr durch die Brillengläser auf seinen Bildschirm. Von draussen dringt der Verkehrslärm der indischen Millionen-Metropole Bangalore in das heruntergekühlte Grossraumbüro.

Drinnen sitzen junge Menschen, vorwiegend Männer, versunken in den Abgründen des Internets. Über ihre Bildschirme flimmern Live-Videochats, Fotos, Filmausschnitte, Textnachrichten. Maustastenklicken mischt sich ins dumpfe Grossstadtrauschen.

Subbu klickt eifrig mit. Rund 20'000 Fotos und Videos im Schnelldurchlauf schaut er sich jeden Tag an; Dateien, die Menschen auf Sozialen Medien teilen oder auf ihren Dating-Profilen aufschalten wollen; Dateien, die manchmal schreckliche Dinge zeigen. Abgehackte Köpfe, missbrauchte Kinder, Selbstmordversuche vor laufender Handy-Kamera.

Etwa fünf Prozent der Bilder und Videos, die über Subbus Bildschirm flimmern, zeigen solchen «Blut-Inhalt», wie Subbu das nennt. «Diese Dinge setzen sich in deinem Kopf fest», sagt der junge Inder mit dem stoppeligen Bart. «Albträume hatte ich bisher aber nie.» Er habe sich an vieles gewöhnt. Und er habe gelernt, wie wichtig seine Arbeit sei. «Wenn es uns nicht gäbe, dann brächen morgen politische Unruhen aus, dann wäre das Internet im Nu eine reine Porno-Plattform.»

Subramani Subbu und Suman Howladder: Wächter an den Online-Abgründen.

Subramani Subbu und Suman Howladder: Wächter an den Online-Abgründen.

Subramani Subbu ist ein «Content Moderator», so etwas wie eine menschliche Firewall gegen alles Böse und Verbotene. Sein Job besteht darin, Inhalte aus dem Internet zu löschen, die niemand zu Gesicht bekommen sollte, weil sie Gewalt und illegale Pornografie zeigen oder gegen Copyright-Bestimmungen verstossen. Schätzungsweise 150'000 Menschen arbeiten weltweit als Content-Moderatoren, vorwiegend in Billiglohnländern wie Indien.

Sex überfordert die Roboter

Im einzigen Einzelbüro des Gebäudes am Rande von Bangalore sitzt Suman Howladder (37) und kämpft gegen die hereinbrechende Mailflut seiner Kunden. Howladder war einer der ersten, die erkannt haben, wie wichtig die Arbeit der Content-Moderatoren im digitalen Zeitalter sein wird. «Wir alle haben Smartphones und posten ständige Dinge online. Es ist wichtig, dass das jemand im Auge behält und einschreiten kann, wenn gefährliche oder gefälschte Dateien in Umlauf kommen», sagt Howladder.

Vor acht Jahren hat er die Firma Foiwe gegründet und drei Content- Moderatoren eingestellt. Heute arbeiten in seinen Grossraumbüros in Bangalore, Kalkutta und im russischen Kazan fast 400 Moderatoren im Schichtbetrieb rund um die Uhr. In fünf Jahren, schätzt Howladder, werden es doppelt so viele sein. Die Branche boomt.

Künstliche Intelligenz und automatisierte Programme würden ihnen einen Teil der Arbeit abnehmen, erzählt der Mann mit den hellwachen Augen. Ohne menschliche Moderatoren aber würde das System nicht funktionieren. «Programme checken vielleicht, wenn jemand auf seinem Dating-Profil ein Foto von Brad Pitt hochlädt und eine falsche Identität vorgibt», sagt er. Wenn es aber darum geht, Missbrauch und verbotene Sex-Praktiken zu erkennen, dann brauche es den menschlichen Blick, um richtig zu entscheiden.

Richtig entscheiden, das lernen Howladders Angestellte in einem zweiwöchigen Crashkurs am Anfang ihrer Anstellung. «Manchmal kann unsere Arbeit sehr verstörend sein», sagt man ihnen dann. «Jeden Tag sehen wir Fotos von Kindsmissbrauch. Manchmal sind die Bilder so übel, dass ihr euch fragt, wie man das überhaupt anschauen kann. Aber das ist ein Teil des Jobs. Ihr seid hier, um diese Dinge zu löschen, damit sie niemand anders sehen kann.»

Die Bilder im Kopf

Die Firmen, in deren Auftrag Howladders Truppe sich durch die Schattentäler des Internets schlägt, haben ihre Sitze auf der ganzen Welt. Die Dating-Seiten Growlr, Mamba und IQ Elite gehören dazu, europäische Online-Verkaufsplattformen und chinesische Live-Chat-Anbieter. Mehrere Social-Media-Giganten setzen auf die Dienste von Foiwe. Ihre Namen aber behält Howladder für sich. Seine Mitarbeiter haben Geheimhaltungs-Vereinbarungen unterzeichnet. Die Kunden wollen nicht, dass ihr Brand plötzlich im Zusammenhang mit den düsteren Realitäten des Internets erscheinen.

Doch ab und zu dringt das Thema trotzdem an die Öffentlichkeit. Ende September etwa hat Selena Scola, die während neun Monaten für Facebook als Content-Moderatorin gearbeitet hatte, das Unternehmen verklagt. Scola sagt, durch die tägliche Konfrontation mit Kindsmissbrauch, Vergewaltigungen und Suizid-Videos leide sie an einer posttraumatischen Belastungsstörung.

2016 verklagten zwei ehemalige Content-Moderatoren im Dienste des Software-Giganten Microsoft ihren Arbeitgeber aus demselben Grund. Diese Klagen westlicher Mitarbeiter sind neben den Kosteneinsparungen wohl einer der Hauptgründe, wieso Firmen wie Facebook, Microsoft oder Youtube die digitale Drecksarbeit an Billigarbeiter in anonymen Grossraumbüros in Asien auslagern.

Sie retten täglich Tausende

Birgit Kleim überraschen die Klagen der Content-Moderatoren nicht. Die Professorin für Psychotherapie an der Universität Zürich weiss, wie viel Stress solche Bilder im menschlichen Hirn auslösen können. Untersuchungen zeigten, dass nicht nur die effektive Konfrontation mit sexueller oder sonst wie gearteter Gewalt, sondern alleine schon das Betrachten von Bildern mit Gewaltdarstellungen zu posttraumatischen Störungen führen könne, erklärt Kleim.

«Das ist ein ernstzunehmendes Problem für bestimmte Berufsgruppen wie Content-Moderatoren.» Hohe Erregbarkeit, kaum zu verdrängende Bilder im Kopf, plötzliche Flashbacks: Die Betroffenen werden zu Gefangenen der eigenen Erinnerungen an das, was sie gesehen haben.

Dass Inder, die in ihren Massenmedien traditionell viel Gewalt, Unfallopfer und Leichen zu sehen bekommen, weniger anfällig sind für solche Traumata als westliche Content-Moderatoren, das glaubt Birgit Kleim nicht. Individuelle Unterschiede könne es geben. «Wissenschaftlich gesehen gibt es aber keinen Befund, dass Personen mit bestimmtem kulturellem Hintergrund besser mit Gewaltdarstellungen umgehen können als andere.» Content-Moderatoren bräuchten in jedem Fall einen Ansprechpartner und die Möglichkeit, sich mit anderen auszutauschen, um das Gesehene zu verarbeiten, sagt Kleim.

Haben sie, sagt Suman Howladder. Foiwe habe eine Helpline, auf die die Mitarbeitenden anrufen können, falls sie Probleme kriegen. «In acht Jahren hatten wir keinen einzigen Anruf», betont der Foiwe-Chef. Wer sich der Aufgabe nicht mehr gewachsen fühle, könne jederzeit das Projekt wechseln und etwa für die E-Commerce-Kunden arbeiten. Da gibts keine Pornos und Hinrichtungen, sondern nur gefälschte iPhones und gefakte Markenprodukte.

Aber Belastungen hin oder her, irgendjemand müsse sich mit den düsteren Seiten des Internets auseinandersetzen. «Wenn es uns morgen nicht mehr gäbe, bräche im Internet das Chaos aus», sagt Howladder. «Nur schon der Gedanke daran macht mir Angst.» Auf den Chat-Plattformen retteten seine Leute täglich Tausende Menschen vor Betrügern, auf den Dating-Seiten garantierten sie dafür, dass harmlose Bildergalerien nicht zu Hardcore-Porno-Sammlungen würden, auf den Sozialen Medien stellten sie sicher, dass nicht jeder Unwahrheiten verbreiten könne.

Die Grenzen des Bösen

Was unwahr ist und was nicht, was drin liegt und was nicht, das entscheiden die Auftraggeber. «Wir arbeiten zu hundert Prozent nach den Guidelines unserer Kunden. Sie geben die Regeln vor», sagt Howladder. Moral wird zur Verhandlungsmasse, die Grenzen zwischen Gut und Böse werden willkürlich gezogen.

Howladders Truppe ist nicht die ermahnende Instanz, sie ist die gehorsame Kraft im Hintergrund, die den digitalen Content gerade so zurechtrückt, wie es den Kunden passt. Keine Bikinibilder? Kein Problem. Keine Kritik am Unternehmen? Kein Problem. Keine politischen Statements? Kein Problem. «Unsere Moderatoren sind neutral und lernbereit», sagt Howladder.

Dass unerfahrene junge Inder, oft gerade knapp fertig mit dem Informatikstudium und kaum älter als 25, darüber entscheiden, was die Weltöffentlichkeit zu sehen bekommt und was vor ihr verborgen bleibt, darin sieht der Foiwe-Chef kein Problem. Inder seien sehr offen, Bangalore – der Hauptsitz von Foiwe – ein internationaler Schmelztiegel. «Unsere Moderatoren können sich schnell in die Kultur unserer Kunden eindenken und wissen, wo die Grenzen liegen.» Sie schauten etwa westliche Filme, um die westlichen Werte kennenzulernen.

Und für die Kunden aus dem Nahen Osten oder aus Russland habe er Moderatoren, die die Sprachen perfekt sprechen und die Kulturen gut kennen würden. «Alles kein Problem», sagt Suman Howladder und lächelt. Und wenn Firmen wie Facebook das Abbilden von stillenden Müttern nicht erlaubten, gleichzeitig aber kaum gegen hetzerische Gewaltaufrufe gegen ethnische Minderheiten vorgingen (wie derzeit etwa in Burma), dann sei das nicht seine Verantwortung. «Wir machen, was der Kunde sagt.»

Dass dieser Kunde oft in den Metropolen des globalen Westens sitzt und seine digitale Schlacke in den südasiatischen Molochen nach allzu üblen Partikeln durchwühlen lässt, überrascht kaum. Nach den Textilfabriken und den Mega-Callcentern, die bereits in den asiatischen Raum ausgelagert worden sind, ist die Content-Moderation nur eine weitere Branche, deren Fachkräfte weit weg von den westlichen Endkonsumenten ihre Arbeit verrichten. Digitaler Kolonialismus? Nein, sagt Howladder. «Die Gesellschaft ist sowieso global.»

Draussen im Grossraumbüro neigt sich Subramani Subbus Acht-Stunden-Schicht ihrem Ende zu. Die globale Gesellschaft ist tausendfach über seinen Bildschirm geflimmert, in all ihren Schattierungen. Manchmal würde er gerne wissen, wie die Leute leben, über deren digitales Schicksal er tagtäglich waltet.

Doch im Ausland war er noch nie. Nur schon der Weg nach Hause ist für ihn jeden Tag eine herausfordernde Reise. Zweieinhalb Stunden braucht der Bus für die knapp 20 Kilometer durch den Stau in der 13-Millionen-Stadt. Subbu nutzt die Zeit, um Filme zu schauen, ohne Schnelldurchlauf, ohne ständiges «Weiter»-Klicken, ohne ständig Dinge löschen zu müssen, fast wie ein ganz normaler Mensch.