• Unsichtbar gemachte Entscheider*innen: Content-Moderation, KI und Arbeitskämpfe im Internet

    Jeder zensierte Videoclip und jeder als Spam geflaggte Kommentar geht auf ein einfaches binäres Denken zurück: angemessen/unangemessen. Diese Entscheidungen überließen die digitalen Plattformen zunächst Menschen, dann, während der Covid-19 Pandemie im zunehmenden Maße, vermeintlich autonomen Maschinen. Die so genannten Contentmoderator*innen, die einen Knochenjob unter prekären Bedingungen machten und stets unsichtbar gemacht wurden, haben zusehends ihre Jobs verloren. Derweil wird die Internetwirklichkeit immer polarisierter. Die Technologieforscherin und Künstlerin Darija Medić denkt darüber nach,  was es bedeutet, dass Graustufen in unserer Welt verschwinden.

    *

    In dem Moment, als die Welt der globalisierten Bewegung im März 2020 zum Stillstand kam und sich sowohl vorstellbare als auch unvorstellbare Aktivitäten online verlagerten, gab es eine unterschwellige Befürchtung: Wird das Internet es schaffen? Die Antwort hängt davon ab, wie man die Frage betrachtet. Die technische Infrastruktur zerfiel nicht, mehrere Dienste erlebten Unterbrechungen und Abstürze, während einige Plattformen wie Zoom den Markt monopolisierten. Aber Internetarbeit bedeutet auch: Menschen, die sichtbare und unsichtbare Dienste ausführen, sowie dramatische Veränderungen der Arbeits- (oder Entlassungs-) und Lebensbedingungen für viele, die den “menschlichen Klebstoff” innerhalb dieser Infrastruktur darstellen.

    Aufgrund der Bestimmungen zum Abstandhalten schickten Facebook und YouTube viele ihrer Content-Moderator*innen nach Hause und verließen sich stattdessen auf automatisierte Software, da ihre Sicherheitspolitik die Arbeit von zu Hause aus nicht zulässt. Das Ergebnis war die Entfernung problematischer, aber auch legitimer Inhalte in einer Welle des algorithmischen Schutzes der Internetnutzer*innen. Verschwörungstheorien, Politiker-Tweets, Krypto-Inhalte, Nachrichten und wissenschaftliche Artikel sind plötzlich ebenfalls verschwunden, werden Teil des großen Breis der algorithmischen Datenüberprüfung. Dadurch entsteht ein System, in dem die wichtigsten binären Oppositionen geworden sind: genehmigt und abgelehnt. Bis zu dem Punkt, an dem jeder Online-Inhalt in eine der beiden Kategorien fallen muss. Gleichzeitig werden rund um den Globus viele Menschen von autoritären Regierungen inhaftiert, von Journalist*innen, die über die Zustände in Krankenhäusern berichten, bis hin zu Menschen, die in sozialen Medien posten.

    Wie gehen die verschiedenen Dienste angesichts der Angst und der zunehmenden physischen und digitalen Repressionsmaßnahmen mit diesen Moment der sozialen Verwundbarkeit um? Wie wird die Inhaltspolitik und der Umgang mit persönlichen Daten nach der Krise aussehen? Wie wird sich der gegenwärtig eingeschränkte physische und kommunikative Raum auf zukünftige Orte und Ausdrucksformen auswirken? Inwieweit werden automatisierte Werkzeuge den Raum erhalten, um über subtile soziale Kontexte zu entscheiden? Und wann werden die Auswirkungen auf die vielen betroffenen Menschen wirklich berücksichtigt werden?

    Datensammeln für die WHO

    Fake News, Fehlinformationen und die Medienpandemie rund um die COVID-19-Krise tauchten in einem Moment auf, in dem die Inhaltspolitik in sozialen Medien und anderen Online-Plattformen zunehmend eingeschränkt wurde. Es scheint, als sei die Pandemie zu einem perfekten Zeitpunkt gekommen, um ein reales Szenario der Leistungsfähigkeit von Algorithmen zur Moderation von Inhalten zu testen. Facebook motiviert die Nutzer*innen, Informationen nur von der WHO zu beziehen, während parallel dazu die Nutzer*innen zu Forschungszwecken nach Gesundheitsdaten gefragt werden. YouTube hat Ende August 2020 einen Bericht veröffentlicht, der Einblicke in die Durchsetzung der Community-Guidelines gibt, wobei jeder Aspekt des Berichts durch Daten unterstützt wird – eingesetzt als legitimierender Faktor und ohne zu erklären, was diese Daten zeigen. In ihrem Blog-Beitrag “Responsible Policy Enforcement” bestätigten sie den Akt der Überregulierung als eine Wahl zwischen einer möglichen Unter- oder Überforderung bei der Entfernung von Inhalten.

    In gewisser Weise sind diese Handlungen ein Zeugnis für Flussers Schreiben über Apparate, die “sozusagen automatisch als Selbstzweck funktionieren, mit dem einzigen Ziel, sich selbst zu erhalten und zu verbessern”. In den Worten von YouTube (im Besitz von Google): “Menschliche Überprüfung ist nicht nur notwendig, um unsere maschinellen Lernsysteme zu trainieren, sie dient auch als Kontrolle, indem sie Feedback liefert, das die Genauigkeit unserer Systeme mit der Zeit verbessert”. Das bedeutet, dass sie der Genauigkeit und Entwicklung ihrer Systeme höhere Priorität einräumen als der Frage des Inhalts, was sie in diesem Bericht offen aussprechen. Darüber hinaus bieten sie in ihrem Bericht den YouTube-User*innen an, bei der kostenlosen Kennzeichnung von Inhalten zu helfen – die Arbeit, die sonst von Algorithmen schlecht erledigt würde.

    Erst an dieser Stelle werden die YouTuber*innen als Gemeinschaft bezeichnet. Die Dienste verbessern sich nicht nur durch Community getriebene Inhalte, sondern auch durch Community getriebene, d.h. kostenlose, Inhaltsüberprüfung. In Zeiten der Corona-Pandemie und der beispiellosen Verlagerung der gesamten Kommunikation auf Online-Dienste, taucht nun GPT-3 als die ultimative Verkörperung der Optimierung des maschinellen Lernens Hand in Hand mit wachsenden Textdaten im Internet auf.

    Was wurde aus all den Content-Moderator*innen?

    Aber hier geht es um eine andere verdeckte Frage. Was geschah mit den vielen Menschen, die die qualvolle Arbeit verrichteten, stundenlang verstörende Inhalte zu sehen und dabei eine posttraumatische Belastungsstörung entwickelten, wie kürzlich durch eine Klage gegen Facebook bestätigt wurde? Es ist viel über die automatische Entfernung von Inhalten geschrieben worden, aber nicht sehr viel über die Menschen, die zuvor, meist von einer ausgelagerten Agentur, für diese Arbeit angestellt waren. Sind sie zu anderen Diensten umgezogen? Wurden sie gefeuert? Wie passt das zu ihren ohnehin anfälligen, problematischen und unzureichend erforschten, ungeschützten Arbeitsbedingungen? Wer ist für ihr Wohlergehen verantwortlich?

    YouTube wurde kürzlich von einem ehemaligen Content-Moderator verklagt, der angab, dass seine “Wellness-Coaches”, also Personen, die keine Lizenz für professionelle medizinische Unterstützung haben, für Personen, die in der Abendschicht arbeiten, nicht verfügbar seien. In der Klage wird behauptet, dass die Moderatoren für ihre medizinische Behandlung selbst aufkommen mussten, wenn sie benötigt wurde. Aus der Klage können wir auch entnehmen, dass die Moderator*innen täglich 100 bis 300 Videoinhalte mit einer “Fehlerquote” von 2% bis 5% überprüfen müssen. Diese Zahl allein reicht aus, um zu verstehen, dass psychologische Auswirkungen dieser Exposition eine Voraussetzung dafür sind, dass diese Art von Arbeit überhaupt stattfinden kann.

    Konfrontiert mit der Unzufriedenheit der Verbraucher*innen und, was noch wichtiger ist, der Unzufriedenheit der Werbetreibenden, schafft YouTube aus klaren Gründen der Effizienz und des wirtschaftlichen Interesses langsam einen vollständigen Kreis der Absurdität, indem es ab Ende September 2020 zur menschlichen Inhaltsmoderation zurückkehrt. Dies allein ist schon faszinierend, wenn man die wachsende Besorgnis über die Art der Arbeit der Inhaltsmoderatoren, die zunehmenden Klagen gegen diese Unternehmen sowie ihre problematische Positionierung im Hinblick auf die Auslagerung der Verträge sowie der Arbeitsbedingungen der Inhaltsmoderatoren an andere Unternehmen bedenkt.

    Zurück zum Menschen!

    Zusammen mit dieser Rückbesinnung auf die Notwendigkeit der menschlichen Bewertung kündigt sie auch eine weitere algorithmische Hilfstechnologie an – die der Faktenprüfung. Wenn man die letzten Monate und die Ergebnisse der algorithmischen Entscheidungsfindung betrachtet, stellt sich die Frage: Auf welche Weise kann die algorithmische Faktenprüfung ausgefeilter sein als die algorithmische Entfernung von Inhalten? Was an diesen Aussagen besonders faszinierend ist, ist das Beharren auf Fakten und die Zuverlässigkeit der Technologie, um sie in einer Welt nach der Wahrheit zu erkennen, in der sogar Menschen über die Verifizierbarkeit von Datenquellen debattieren.

    Als ein mögliches Porträt dieses spezifischen Moments unserer Gegenwart bleibt die Botschaft einer allgegenwärtigen und totalen Zensur dessen, was sichtbar sein darf, sowohl hinsichtlich der zugrundeliegenden Mechanismen, der Arbeitsbedingungen als auch der tatsächlichen Inhalte, die auf den Plattformen veröffentlicht werden. Es ist eine Polarisierung in wahr und falsch, angemessen und unangemessen, bei der diese Dienste in der Position eines sozialen und ethischen Schiedsrichters agieren und gleichzeitig die Ontologie abflachen, hin zu einem glänzenden, zweidimensionalen Bild. Aber ein absurdes, wie etwa die Verschwörungstheorien, die unter repressiven Bedingungen gedeihen. Um es mit Douglas Adams zu sagen: Widerstand ist nie nutzlos, er ist eine Grundvoraussetzung.

    Hier einige Beispiele, die die bisherigen Ausführungen untermauern: Das Porträt eines zensierten Tweets des venezolanischen Präsidenten Nicolás Maduro, der ein natürliches Heilmittel befürwortet, das “die infektiösen Gene” des COVID-19-Virus “eliminieren” könnte. Das Porträt einer zensierten Theorie, dass das Design der neuen 20-Pfund-Note ein Symbol von COVID-19 und einen 5g-Turm aufweist. Das Porträt eines zugegebenen Fehlers bei der Entfernung von Inhalten. Das Porträt eines Postings der Times of Israel, markiert als Spam.

    Anm.d.Red.: Dieser Beitrag ist als Vorbereitung auf die “Silent Works”-Konferenz entstanden – genauer gesagt, den Workshop-Track “AAI”. Die Konferenz findet vom 12. bis zum 14. November im Haus der Statistik statt.


Noch keine Kommentare zu Unsichtbar gemachte Entscheider*innen: Content-Moderation, KI und Arbeitskämpfe im Internet

Bisher wurden noch keine Kommentare abgegeben.

Kommentar hinterlassen