10 Fragen an die Regisseure des Dokumentarfilms
1. Was hat Sie bewogen, sich mit dem Thema zu beschäftigen? Wie sind Sie auf das Thema gekommen?
Ausgangspunkt unserer Recherche war ein grausamer Post auf Facebook: Am 23. März 2013 entdeckten Tausende von Nutzer*innen weltweit auf ihrem Facebook-Newsfeed ein Video eines kleinen Mädchens, das von einem älteren Mann vergewaltigt wurde. Bevor das Video von Facebook gelöscht wurde, wurde es 16.000 Mal geteilt und 4.000 Mal geliked. Dieser Fall hat weltweit Bestürzung ausgelöst. Wir haben davon mitbekommen und uns gefragt, wie mit solchen Inhalten auf den sozialen Plattformen normalerweise umgegangen wird. Wer oder was filtert Inhalte auf den sozialen Plattformen? Gibt es eine Art Bilderkennungssoftware? Einen Algorithmus? Künstliche Intelligenz?
Die Medienwissenschaftlerin Sarah T. Roberts, Expertin für Content Moderation, sagte uns, dass Menschen hinter diesen Entscheidungen stehen. Und dass es einige Annahmen gebe, dass der größte Teil dieser Arbeit in Entwicklungsländer ausgelagert wird. Wir wollten unbedingt mit diesen Arbeiter*innen in Kontakt treten. Auf der einen Seite haben wir uns diesen Job als äußerst belastend vorgestellt. Acht Stunden vor dem Bildschirm zu sitzen und all die Grausamkeiten zu sichten, die der Mensch im Stande ist zu produzieren, kann nicht unbeschadet an den Arbeiter*innen vorbeigehen. Auf der anderen Seite bestimmen diese jungen Leute, was in unserer digitalen Öffentlichkeit vorkommen darf und was nicht. Grund genug, um die dunkle Seite der sozialen Medien zu beleuchten.
2. Wie haben Sie den Kontakt zu den Content Moderators hergestellt, Sie konnten ja nicht einfach in der Firma nachfragen?
Die Kontaktaufnahme mit den Arbeiter*innen in Manila war die größte Herausforderung für uns. Es ist eine sehr geheime und verschlossene Industrie. Sowohl die Auftraggeber, also Facebook und Instagram, Google und Youtube, Twitter, als auch die Outsourcing-Unternehmen tun alles, um die Arbeit geheim zu halten. Die Unternehmen verwenden Codewörter, um geheim zu halten, für welche Unternehmen sie arbeiten. Facebook heißt dort zum Beispiel "Honeybadger Project". Denn die Arbeiter*innen dürfen niemals sagen, dass sie für Facebook arbeiten. Wann immer sie gefragt werden, müssen sie sagen, dass sie für das "Honeybadger Project" arbeiten. Alle Mitarbeiter*innen unterschreiben NDA's (non-disclosure agreements), also Verschwiegenheitsvereinbarungen. Wenn sie doch reden, wird ihnen mit Geldstrafen und anderen Repressalien gedroht. Es gibt sogar private Sicherheitsfirmen, die die Mitarbeiter*innen bewachen und sie zwingen, nicht mit Fremden über das zu reden, was sie täglich machen. Sie werden regelrecht kontrolliert, ihre Social-Media-Konten werden gecheckt, sie werden beobachtet, mit wem sie bei der Raucherpause vor dem Gebäude reden. Auch wir haben erlebt, dass während der Recherche in Manila Fotos von unserem Team gemacht wurden, die dann anschließend durch das Unternehmen gejagt wurden mit der Warnung: Wer mit diesen Typen spricht, verliert auf der Stelle seinen Job. Das war zwischenzeitlich wirklich bedrohlich und hat für uns die Kontaktaufnahme extrem erschwert. Wir haben wie Detektive alle möglichen Informationen gesammelt, um Zugänge zu bekommen. Stück für Stück wussten wir dann, welche Unternehmen den Service für die großen sozialen Plattformen anbieten. Uns war klar, dass wir die Mitarbeiter*innen nur zum Sprechen bewegen, wenn wir überhaupt keinen Druck ausüben. Dafür braucht man Zeit, die wir uns genommen haben. Mehr als 6 Monate haben wir insgesamt in Manila verbracht und haben dadurch Stück für Stück Vertrauen aufbauen können. Es ging uns in erster Linie nicht darum vertrauliche Informationen an die Öffentlichkeit zu bringen, sondern die Menschen kennenzulernen, die hinter den Clicks stecken. Nachdem das Vertrauen gewonnen war, waren wir überrascht, wie stolz viele von ihnen auf die Aufgabe, das Internet zu “reinigen”, waren. Sie sagten uns: Ohne uns wären soziale Medien ein komplettes Chaos. Wir haben dann mit unseren Protagonist*innen zusammengearbeitet, um herauszufinden, wie man einen Film über dieses Thema machen kann.
3. Warum wird die Arbeit auf die Philippinen ausgelagert und nicht an andere Billiglohn-Standorte?
Manila ist nicht der einzige Standort für Content Moderation, aber der mit Abstand größte Standort weltweit. Wir haben uns oft gefragt, warum Manila eigentlich die Hauptstadt der Content Moderation ist. Ein offensichtlicher Grund ist zunächst, dass die Philippinen ein Niedriglohnland sind. Gute Englischkenntnisse sind ohne Zweifel auch hilfreich. Bei der Recherche sind wir auf einige Promotion-Videos der ortsansässigen Outsourcing-Unternehmen gestoßen. Die werben damit, dass die Arbeitskräfte dort angeblich besonders gut die Werte der westlichen Welt einschätzen können und deswegen prädestiniert seien, zu entscheiden, was auf den sozialen Medien zu sehen sein darf und was nicht - als Folge von 300 Jahren Kolonisation durch die Spanier und noch fast einhundert Jahren Kolonisation durch die Amerikaner. Das heißt, die Firmen dort machen eine Art Standortvorteil daraus, dass die Menschen jahrhundertelang kolonisiert wurden!
Doch teilen die Content Moderatoren tatsächlich die sogenannten "westlichen Werte"? Über 90 Prozent der Menschen auf den Philippinen sind Christen und Christinnen - teilweise auch ziemlich strenggläubig. Für die Arbeiter*innen ist es oft eine Art christliche Mission zu sagen: Wir machen das Internet sauber. "Cleanliness is next to godliness" steht als Spruch in fast allen Schulen auf den Philippinen. Ebenso haben wir bemerkt, dass die Arbeiter*innen bereit sind, sich "aufzuopfern" für die "gute Sache". Wie Jesus nehmen sie die Sünden der Welt auf sich, damit sie aus dem Netz verschwinden und nehmen dabei sogar in Kauf, ihr Seelenheil zu opfern.
Hinzu kommt eine spezielle Ideologie: Seit einiger Zeit ist ein neuer Präsident im Amt: Rodrigo Duterte. Er steht für die Säuberung der Gesellschaft. Soziale Reinigung. Damit meint er, dass alle Verbrecher oder Drogenabhängigen unsichtbar gemacht werden sollen. In Wirklichkeit bedeutet das, dass seit seiner Amtszeit Zehntausende von Menschen getötet wurden. Die Probleme werden unsichtbar gemacht, anstatt sie zu lösen. Die Mehrheit der Moderatoren unterstützt die Politik des Präsidenten und einige haben ihre Arbeit mit der von Duterte verglichen: “Ich mache das gleiche wie unser Präsident. Ich sorge für Ordnung.” Wenn die Content Moderatoren, die die Inhalte der ganzen Welt moderieren, ihre Arbeit mit missionarischem Eifer ausführen und darauf abzielen, alles zu bekämpfen, was in dieser Welt "sündhaft" ist, wie viel Raum bleibt da noch für Grauzonen, für Andersartigkeit und Minderheiten?
4. Welche Folgen hinterlässt der Job bei den Arbeiter*innen?
Tatsächlich geht die Arbeit an den meist sehr jungen Arbeiter*innen nicht spurlos vorbei. Wenn man acht bis zehn Stunden pro Tag Missbrauchsvideos, Bilder voller Gewalt und Hass oder Suizid-Live-Streams sichten muss, dann kann das extreme Folgen haben. Die Symptome, die Moderatoren oft als Folge ihrer täglichen Arbeit haben, ähneln den posttraumatischen Belastungsstörungen, unter denen Soldaten leiden, die aus dem Krieg zurückkommen. Ist es also ein Wunder, dass Content-Moderators, die Tausende von Enthauptungen gesehen haben, anderen Menschen nicht mehr vertrauen können, alle ihre sozialen Beziehungen verlieren, Schlaf- oder Essstörungen entwickeln können? Ist es verwunderlich, dass es unter Content-Moderators eine stark erhöhte Suizidrate gibt, wenn sie mit allen Arten von Selbstverletzungs-Videos umgehen müssen? All diese Symptome sind uns während der Recherche begegnet. Das Schlimmste ist, dass es den jungen Arbeiter*innen vertraglich verboten ist, über ihre Erlebnisse und Eindrücke zu sprechen. Psycholog*innen aus Manila und Berlin haben uns gesagt: Wenn traumatisierte Menschen ihre schrecklichen Erfahrungen nicht verbalisieren können oder dürfen, ist die Gefahr bleibender psychischer Schäden groß. Das ist der Preis, den wir für ein "sauberes" Internet zahlen.
5. Gab es seit der Veröffentlichung des Films Versuche von Facebook, Twitter oder Youtube, mit euch in Kontakt zu treten?
Nein, leider nicht. Im Gegenteil. Von Anfang an wollten wir mit den Führungskräften der großen Social-Media-Unternehmen in Kontakt treten. Aber ist gibt diesen "Code of Silence". Mitarbeiter von Facebook, Twitter oder Google reden öffentlich nicht gerne darüber, was drinnen passiert. Wir haben mehrere Dutzend Leute kontaktiert und nie eine Antwort bekommen. Wir haben sogar den fertig geschnittenen Film vor der ersten Veröffentlichung an alle großen Unternehmen gesendet und um eine öffentliche Erklärung gebeten. Auch hier gab es keine Antwort. Intransparenz ist leider nach wie vor eine der Haupteigenschaften dieser Unternehmen.
6. Wie gelangen Inhalte aus aller Welt auf die Philippinen zu den Content Moderators?
Eine Bilderkennungssoftware scannt Fotos und Videos schon beim Upload auf verdächtige Merkmale, etwa darauf, ob Blut auftaucht, politische Symbole, Sexualorgane, nackte Haut. Die Software kann aber nur Formen und Farben erkennen, nicht entscheiden, worum es sich bei dem jeweiligen Bild oder Video tatsächlich handelt und in welchem Kontext es gepostet wird. Wird ein Inhalt von der Bilderkennungssoftware als verdächtig markiert, wird der Post in ein System eingespeist, auf das die Content Moderators in Manila zugreifen. Hier schauen sich die Content Moderators jedes einzelne Bild oder Video an und entscheiden, ob sie es tatsächlich löschen oder es gewähren lassen. Auch User können Inhalte melden. Wenn also jemand befindet, dass ein Post auf Facebook, Instagram oder Youtube unangemessen ist, markiert er oder sie diesen Post und dieser Inhalt gelangt dann ebenfalls zu den Cleaners, die entscheiden müssen: "Darf bleiben" oder "Wird gelöscht".
7. Was machen die Content Moderatoren jetzt und seid ihr mit ihnen noch in Kontakt?
Die Content Moderators, die in unserem Film sichtbar werden, haben den Job verlassen und eine andere Arbeit gefunden. Wir sind mit ihnen im regelmäßigen Kontakt und wollen sichergehen, dass es ihnen - den Umständen entsprechend - gut geht. Vor ein paar Wochen waren wir noch einmal in Manila und haben uns mit ihnen persönlich getroffen. Leider hinterlässt die Arbeit bei jedem Menschen Spuren – bei manchen sind sie gravierender beziehungsweise offensichtlicher als bei anderen. Die Firmen interessieren sich nicht für die Langzeitschäden. Verlässt ein/e Arbeiter*in den Job, rückt jemand Anders nach.
8. Braucht es überhaupt eine Moderation im Internet und wenn ja, wie kann man es besser machen?
Ja, bestimmte Inhalte, die in den meisten Fällen auch schlicht und einfach strafbar sind, wie Videos von sexuellem Missbrauch, Vergewaltigungen usw. und viele weitere Fälle, die Gewalt verherrlichen, Terrorpropaganda, Volksverhetzung ... Solche Inhalte gehören gelöscht und das auch zügig. Ein großer Teil der Inhalte, die jeden Tag gelöscht werden, ist dagegen weitaus weniger eindeutig. Hierüber muss öffentlich diskutiert werden. Die Menschen, die Facebook, Instagram, Twitter und Youtube nutzen, stammen aus vielen unterschiedlichen Regionen der Welt mit vielen unterschiedlichen kulturellen und religiösen Gepflogenheiten. Einfach den kleinsten gemeinsamen Nenner zu suchen und alles zu verbieten, was von manchen als anstößig empfunden wird, kann nicht die Lösung sein. Dann bleibt die Redefreiheit auf der Strecke, politischer Widerstand oder Bürgerjournalismus und letztlich all das, wofür die sozialen Netzwerke tatsächlich gesellschaftlich von Nutzen sein können. Mit drei Milliarden Nutzer*innen weltweit sind die sozialen Netzwerke zur digitalen Öffentlichkeit geworden. Was hier erlaubt ist oder verboten, sollte demokratisch und transparent entschieden werden und nicht abgeschottet, hinter verschlossenen Türen.
9. Welche Gefahr geht von den Sozialen Netzwerken auf Gesellschaft und Demokratie aus?
Ein Großteil der Bevölkerung informiert sich mittlerweile fast nur noch durch Social Media und verbringt dort viele Stunden jeden Tag. Was hier viral wird, beeinflusst, was die Mehrheit der Bevölkerung denkt und - vielleicht noch wichtiger - fühlt. Wir haben gerade erst in Myanmar erlebt, wie Facebook zu einem Brandbeschleuniger eines Genozids geworden ist. Im Kleinen wie im Großen findet das überall auf der Welt statt. Aber nicht nur beim Verbreiten von Hass und Gewalt können die sozialen Netzwerke großen Schaden anrichten. Wenn sie Bürgerrechtler*innen oder NGOs mundtot macht, indem deren Accounts gesperrt und ihre Inhalte gelöscht werden, wenn politische Aufklärung behindert wird und sexuelle Freiheit beschnitten, dann können diese Nutzer*innen und Nutzer nicht einfach mehr auf andere Kanäle ausweichen. Tun sie das, verlieren sie Millionen von Adressaten. Das ist das Gefährliche an der Monopolstellung von Facebook & Co. Sie beeinflussen massiv die öffentliche Meinungsbildung und können dadurch die Demokratie behindern.
10. Nutzt ihr noch Facebook oder habt ihr eure Accounts gelöscht? Gibt es ein Leben ohne Facebook?
Zur Zeit nutzen wir beiden Facebook noch für die Debatte über unseren Film. Wir wollen, das die Diskussionen genau dort statt finden, wo sie am dringendsten gebraucht werden: unter den Nutzer*innen der sozialen Netzwerke selbst. Accounts löschen und zurück zur E-mail? Das wäre die falsche Antwort. Menschen zu vernetzen, kann auch zur Verständigung beitragen, kann neue Perspektiven eröffnen. Aber wir brauchen demokratischere Modelle dafür. Das Internet muss wieder ein Projekt der Vielen werden, divers, bunt und transparent. Beispiele wie Mastodon zeigen, dass soziale Netzwerke auch anders aussehen können: gemeinnützig, dezentral, transparent, mit offen zugänglichem Code. Das macht auch Arbeit. Wir dürfen nicht länger passive User bleiben, sondern müssen Digital Citizens werden. Nur so können wir den Ausverkauf des Netzes stoppen, bevor es zu spät ist.
Kommentare