Von wegen Automatisierung: Wie Googles KI mit prekärer, menschlicher Arbeit gebaut wird

Gute Bezahlung, fester Arbeitsvertrag und eine halbwegs spannende Aufgabe. Das waren die Aussichten als Aktivist und Autor Phoenix Nomi anfing für eine Zeitarbeitsfirma zu arbeiten. Der Auftrag, der von Google kam, lautete: die Audio-KI des Unternehmens zu verbessern. Nach kurzer Zeit wurde der Vertrag gekündigt, doch die Arbeit – jetzt über eine Freelancer-Plattform gebrokert – sollte weiterhin verrichtet werden. Für weniger Geld und ohne Aussicht auf soziale Absicherung. Ein Bericht aus der schönen neuen Arbeitswelt, die Big Tech in Windeseile “für uns” baut.

*

Ich habe den Job über eine Online-Jobbörse im Jahr 2019 gefunden. Ich habe eine Behinderung und war daher auf der Suche nach Aufträgen für die Arbeit von zu Hause aus, mit flexiblen, aber vollen Arbeitszeiten. Der ausgeschriebene Job war “Transkription”, und da ich zu der Zeit bereits auf Rev.com auf Englisch transkribierte, freute ich mich darauf, an der gleichen Art von Aufgaben arbeiten zu können, aber mit der Sicherheit eines Arbeitsvertrags.

Ein Bonus für mich war, dass ich meine zweite Sprache verwenden konnte und mit einer vielfältigen Gruppe arbeiten konnte, von der ich mir vorstellte, dass sie viele andere Menschen mit mehreren Sprachkenntnissen umfasst. Ich bewarb mich für die Stelle bei einer Personalagentur in Kanada, die auf Sprachexpert*innen spezialisiert ist.

Während des Vorstellungsgesprächs wurde mir gesagt, dass der Hauptkunde der Personalagentur Google sein würde. Obwohl ich eine negative Meinung von Google als Arbeitgeber habe, da ich weiß, dass sie fragwürdige Verträge mit dem US-Verteidigungsministerium eingehen, kaputte Gewerkschaften und massenhaft produzierte und monetarisierte Überwachung akzeptieren, war ich dennoch daran interessiert, mehr darüber zu erfahren, wie Googles Produkte hergestellt werden.

Arbeiten für Google?

Außerdem schien der Vertrag anfangs einwandfrei zu sein, und die Personalagentur würde zweiwöchentliche Gehaltsschecks ausstellen und Steuern und kanadische Rentenversicherungsbeträge abziehen, wie es gesetzlich vorgeschrieben ist. Während der anfänglichen Test- und Schulungsphase verwendete ich meinen eigenen Heimcomputer, um die Aufgaben zu erledigen.

Ich meldete mich in einem Chrome-Browser-Fenster an und öffneten eine Inkognito-Registerkarte, um auf die Entwicklerrichtlinien für meine spezifische Sprache zuzugreifen. Ich beantwortete etwa 100 Multiple-Choice- und kurze Audio-Hör- und Transkriptionsaufgaben, die von der Personalagentur erstellt wurden, um meine Grammatik und Rechtschreibung in der Sprache zu testen, für die ich als Experte eingestellt wurde.

Beim Transkribieren geht es normalerweise darum, ein Tonband abzuhören und dann diesen Ton in ein getipptes, schriftliches Protokoll zu übertragen. Dieses schriftliche Protokoll oder Transkript kann entweder eine wortgetreue Aufzeichnung sein, bei der jedes “äh”, “ah” und jeder Fehlstart in natürlicher Sprache enthalten ist und im Text erfasst wird, was oft bei juristischen Abschriften nützlich ist. Umgekehrt kann das Transkript eine weniger wortgetreue Aufzeichnung sein, bei der diese Art von Füllwörtern weggelassen wird und bei der es vor allem darauf ankommt, die Bedeutung der gesprochenen Worte zu erfassen, z. B. in einem Transkript eines journalistischen Interviews oder in der wissenschaftlichen Forschung.

Bezahlte Einarbeitungszeit

Bei Rev.com entscheide ich mich in der Regel für die Arbeit an Non-Verbatim-Transkripten. Für Google habe ich ein wortwörtliches Transkript der Sprachlaute erstellt, aber nicht nur wortwörtlich. Ich habe auch alle anderen Daten im Ton erfasst, wie Geräusche, Musik und andere Merkmale. Jeder einzelne Sprecher wurde separat und spezifisch gekennzeichnet, ebenso wie alle voraufgezeichneten Stimmen, wie z. B. die Stimme der Telefonistin in einem Voice-Mail-System. Die zusätzliche Komplexität der Arbeit machte die Arbeit für mich interessanter. Die Einarbeitungszeit wurde bezahlt.

Ich lernte die anderen Mitarbeiter*innen über einen Google Hangouts-Chat kennen, einschließlich der etwa ein Dutzend Personen, die an der gleichen spezifischen Sprache, in meinem Fall Spanisch, arbeiteten. Es gab einen Projektmanager im Gruppenchat, der nicht fließend Spanisch sprach und hauptsächlich dazu da war, Fragen zur Technologie zu beantworten.
Uns wurde gesagt, dass unsere Aufgabe darin bestand, die maschinell erstellte Texttranskription von Audiodateien zu korrigieren, und dass die Daten, die wir während unserer Arbeitszeit generierten, in das Training der künstlichen Intelligenz des Unternehmens einfließen würden, um deren Fähigkeit zur Erfassung menschlicher Sprache zu verbessern. Auf diese Weise schienen wir Googles Tonerfassungstools darauf zu trainieren, wie sie uns, die menschlichen Arbeiter, tatsächlich ersetzen können.

Die Arbeit des Transkribierens

Um zu arbeiten, meldete ich mich in einer Google Doc-Tabelle an, in der mein Name oben in einer Spalte erschien. In den Zellen unter der Spalte würde automatisch eine alphanumerische Zeichenkette erscheinen. Diese Zeichenfolge würde ich dann in einen separaten Chrome-Browser-Tab am Ende einer bestimmten Webadresse kopieren und einfügen, was dann die App öffnen würde, in der ich jede einzelne Audiodatei bearbeiten sollte.
Sobald ich das getan hatte, würde ich an den eigentlichen Ort gelangen, an dem ich arbeiten würde. Das Transkriptionstool sah aus wie viele andere webbasierte Google-Produkte und hieß Loft.

Wenn man Loft öffnete, war der Bildschirm in drei Spalten unterteilt, mit einer oberen menüartigen Ansicht, in der die Timecodes anzeigten, wie lang die Audiodatei war, und kleinere Timecodes, die anzeigten, wo innerhalb der Audiodatei der Auswahlcursor stand. Die Menüleiste enthielt auch Funktionsknöpfe wie Play, Pause, Vorspulen oder Zurückspulen, sowie eine Reihe von zufälligen Wörtern (so etwas wie “aardvark antelope artifice”, zu Deutsch etwa “Erdferkel-Antilopen-Kunststück”), von denen ich annahm, dass es sich um einen maschinell erzeugten Namen für die jeweilige Audiodatei handelte.

Diese Wörter hatten nichts mit der Audiodatei im Fenster zu tun, aber sie änderten sich jedes Mal, wenn ich eine neue alphanumerische Zeichenkette in die Adressleiste des Webbrowsers einfügte, um eine neue Audiodatei zu öffnen. Unterhalb dieser Menüleiste befand sich der Arbeitsbereich. Ganz links im Arbeitsbereich befand sich eine visuelle Darstellung der Audiodatei, an der ich gerade arbeitete, ähnlich wie der Ton in einer Audiobearbeitungssoftware wie Audacity oder Pro Tools aussieht, wobei leises Audiomaterial als kürzere Zeilen und lautere Teile als längere Zeilen angezeigt werden.

Diese Darstellung der Schallwellen wurde in der Mitte des Bildschirms mit Textfeldern gepaart, in denen das maschinell erstellte und mit Fehlern versehene Transkript erschien. Ganz rechts auf diesem Bildschirm erschienen unsere Optionen zur Korrektur des maschinellen Transkripts. In dieser Spalte ganz rechts erlaubten uns fließende Textfelder, das maschinell erzeugte Transkript neu zu tippen und genau zu ändern, wie die Felder der mittleren Spalte zur Tonwelle passen würden. Unsere Aufgabe war es, jede Audiodatei in diesen Optionen in der äußersten rechten Spalte des Bildschirms perfekt wiederzugeben. Bevor ich anfing, musste ich ein langes und detailliertes Dokument studieren, bei dem es sich um den Google Style Guide für meine spezielle Sprache handelte. Es definierte Dinge wie die Großschreibung, wie viele Leerzeichen nach einem Punkt zu lassen sind, wie die Schreibweise verschiedener Arten von Zahlen zu formatieren ist, wenn sie im Audio vorkommen, usw.

Zum Beispiel: “Wenn aus dem Kontext ersichtlich ist, dass eine Zahl einen Geldbetrag widerspiegelt, transkribieren Sie mit dem Dollarzeichen $”, und so weiter. Für jede Art von Geräusch sollte es eine ganz bestimmte korrekte Art der Wiedergabe geben, entweder in Form von Text, der in das Transkriptionsfeld geschrieben wurde, oder in der Geräuschkennzeichnungsfunktion der App. Die Art und Weise, wie das Transkript gerendert werden sollte, war extrem spezifisch.

Wenn sie mit US-Englischen Dateien arbeiteten, mussten die Mitarbeiter*innen das Wort wie “Okay” schreiben, während die Richtlinien für das britische Englisch (GB_En) vorschrieben, dass das Wort wie folgt geschrieben werden musste: “Ok”. Wenn in GB_En ein Sprecher einen Wort sagte, das wie “wanna” klang, mussten wir ihn genau so schreiben, wie er gesprochen wurde, als “wanna”. In einer US_En-Datei wurde eine solche Verkürzung jedoch nicht akzeptiert, und es wurde erwartet, dass wir die vollständige korrekte Schreibweise, “want to”, eingeben.

Um alle Audiodaten in Textdaten umzuwandeln, die die Maschine lesen konnte, gab es ein Menü mit Optionen zur Beschriftung der Geräusche, die keine Wörter waren, und die Textfelder, die in der mittleren Spalte schwebten, mussten so eingestellt werden, dass der Zeitcode auf die Millisekunde genau mit dem Ton übereinstimmte. Diese schwebenden Kästchen konnten sich gegenseitig überlappen, und jeder zusätzliche Sprecher musste mit einer Nummer gekennzeichnet werden, die dann zu einer eigenen Spalte wurde (Sprecher 1, Sprecher 2, voraufgenommener Sprecher 1 usw.).

Erste Schwierigkeiten

Alles, was Geräusch, persönlich identifizierbare Informationen wie der Name einer Person oder Musik war, musste markiert werden. Diese anderen Tonmarkierungen erschienen in leicht unterschiedlichen Farben auf dem Bildschirm, getrennt von der Texttranskription. Auch diese Kennzeichnung musste auf die Millisekunde genau sein. Es gab Tastaturkürzel, die die Aufgabe, den exakten Timecode für jede Beschriftung auszuwählen, erleichterten, aber am Anfang benutzte ich nur ein normales Laptop-Trackpad, um die Stelle auszuwählen, an der der Anfang und das Ende jeder Audio-Äußerung markiert werden sollte. Wenn ich mein Tastaturlayout auf ein internationales Layout umstellen mussten, um sprachspezifische Zeichen einzugeben, funktionierten die Tastaturkürzel nicht mehr.

Ich hatte keine Tastatur, die für die Sonderzeichen der spanischen Sprache optimiert war, aber ich war bereits daran gewöhnt, meine Tastaturlayouts in den internationalen Einstellungsmenüs meines Betriebssystems zu ändern, um Sonderzeichen wie á oder ñ eingeben zu können. Mir wurde gesagt, sobald ich die Schulung bestanden hätte, würde die Firma Geräte bereitstellen, die für meine Sprache optimiert wären. Schließlich kam der versprochene Arbeitscomputer an, aber enttäuschend war, dass er keine spanische Tastatur enthielt. Es war nur ein höherwertiges Chromebook.

Eine externe Tastatur mit den spezifischen spanischen Zeichen wurde versprochen, aber nie geliefert. Alle anderen Geräte, die ich brauchte, um meinen Arbeitsplatz ergonomisch zu gestalten, wie z. B. gute Kopfhörer, um den Ton besser zu hören, eine externe Maus, um die Verwendung des eingebauten Laptop-Trackpads zu vermeiden, und einen Laptop-Ständer, um die Tastatur des Chromebooks in einen besseren Winkel zum Tippen zu bringen, habe ich selbst besorgt. Mit dem Arbeitsgerät war es zumindest möglich, die Arbeitszeiten und die privaten Computerzeiten zu trennen.

Ein paar Cent über dem Mindestlohn

In der ersten Zeit meiner Arbeit erhielt ich ein paar Cent mehr als den Mindestlohn für meinen Zuständigkeitsbereich. Ich wurde nach Arbeitsstunden bezahlt, und mir wurde gesagt, dass ich bestimmte Zielvorgaben erfüllen müsse, wie viel Audio ich in dieser Zeit durch Loft verarbeiten soll. Ich hatte nie Probleme, diese Vorgaben zu erfüllen, und profitierte davon, dass ich mich an meine Behinderung anpassen konnte.
Das änderte sich jedoch, als die Personalvermittlungsfirma mich nach ein paar Monaten mit der Begründung entließ, dass Google ihnen keine Arbeit mehr schicke.

Später fand ich heraus, dass die Personalvermittlungsfirma der kanadischen Regierung gegenüber behauptet hatte, dass sie mich während der Probezeit entlassen hatte, als sie mein Arbeitszeugnis einreichte. Dies war nicht der Fall, da in meinem Arbeitsvertrag eine Probezeit von drei Monaten festgelegt war und ich mindestens sechs Monate gearbeitet habe. Außerdem wurde ich entlassen, bevor ich die erforderliche Anzahl von Arbeitsstunden erreicht hatte, um Anspruch auf Arbeitslosenversicherung zu erhalten. Anderen Arbeitnehmer*innen wäre es vielleicht anders ergangen, und sie hätten nach Beendigung des Vertrages einen Antrag auf staatliche Arbeitslosenunterstützung stellen können, aber mir war das nicht möglich.

Arbeiten als unabhängiger Auftragnehmer

Einige Wochen, nachdem ich rechtmäßig entlassen worden war, meldete sich der Personaldienstleister wieder und bot mir an, die gleiche Arbeit wieder aufzunehmen. Sie boten mir nicht an, mich wieder als Vollzeitkraft einzustellen, nicht mehr mit Renten- und Urlaubsabzügen. Stattdessen würde ich als unabhängiger Freiberufler unter Vertrag genommen werden und müsste mich über einen weiteren Vermittler, entweder Upwork.com oder Guru.com, anmelden. Dieser Vermittler würde einen großen Prozentsatz von jedem Gehaltsscheck einbehalten, Upwork zwischen 10 und 20 % und Guru etwa 9 % (ich wurde von der Personalagentur nicht über die Unterschiede zwischen diesen Plattformen informiert und ich musste selbst recherchieren und fand erst später heraus, dass ich den ausbeuterischsten Vermittler der beiden Optionen gewählt hatte).

Diesmal waren etwa 100 Personen in der Google Hangouts-Chatgruppe, in der sich alle Personen meiner Sprachgruppe zur Arbeit treffen sollten. Ich erkannte niemanden aus der ersten Zeit wieder, es waren alles neue Mitarbeiter*innen, und die meisten Leute fingen gerade erst an, sich in die Software einzuarbeiten. Es wurde wirklich schwierig, den Chatroom für nützliche Schulungen zu nutzen, da die Leute begannen, ihn zu nutzen, um Routinefragen zu stellen, auf die ich die Antworten bereits kannte, oder um einen Gutachter zu bitten, sich ihre Dateien anzusehen, damit sie dafür bezahlt werden konnten. Wir wurden auch nicht mehr nach geleisteten Arbeitsstunden bezahlt, also war dieser Schulungsaufwand unbezahlt. Dieses Mal wurden wir im Akkord bezahlt, je nachdem, wie viel Audio wir transkribieren konnten.

Als unabhängiger Auftragnehmer gab es auch einen Unterschied bei den Arten von Audiodateien, die wir in Text- und Geräuschkennzeichnungen umwandeln sollten. In der ersten Arbeitsphase arbeiteten wir mit sauberen Audiodateien, die Google scheinbar von Callcentern gekauft hatte. Diese Art von Audiodatei hatte nur einen oder zwei Sprecher und minimale Geräusche und Musik. In der zweiten Phase arbeitete ich als Selbstständige an der Transkription von Audiodateien, die aus YouTube-Uploads zusammengeschnitten worden waren. Mir wurde gesagt, dass ich, wenn ich Probleme hätten zu identifizieren, was in dem Audio gesagt wurde, nach dem spezifischen YouTube-Video suchen sollte, aus dem das Audio stammte. Aber die Information, aus welchem YouTube-Video das Audio stammte, wurde von der Firma nicht geliefert.

Stattdessen musste ich mir die Datei anhören, versuchen, einige Schlüsselwörter wie den Namen des Themas oder des YouTubers zu erkennen, und dann diese Schlüsselwörter bei YouTube suchen, um das richtige Video zu finden. Außerdem hatte ich das Chromebook der Firma bereits zurückgegeben und arbeitete daher vollständig auf meinem eigenen Computern.

Arbeitsverträge mit falschem Inhalt

Es wurde auch klar, dass die Personalvermittlungsfirma im Upwork-Vertrag nicht die wahre Natur meiner Arbeit widerspiegelte. Sie hatten mich für einen nominellen 5-Dollar-Vertrag bei Upwork eingestellt und mir dann den tatsächlichen Lohn als “Aufwandsentschädigung” gezahlt. Dies geschah, glaube ich, damit man sich kein Profil auf Upwork aufbauen und sich um Arbeit bei anderen Firmen bewerben konnte, die vielleicht eine bessere Bezahlung bieten.

Von mir wurde immer noch erwartet, dass ich mich in die Google Docs-Tabelle einlogge und dort die Aufzeichnungen über die Dateien führe, an denen ich gearbeitet habe, aber diese zusätzliche Arbeit des Protokollierens, spiegelte sich nicht in der Bezahlung wider. Stattdessen bezahlten sie nur nach erfolgreich transkribierter Audiominute. Selbst für mich als jemand, der im Umgang mit dem Loft-Tool geschult und geübt war, konnte es 30 oder 40 Minuten dauern, alle Wörter und Geräusche in einem dreiminütigen Audioclip korrekt zu kennzeichnen und zu transkribieren. Die Bezahlung war also weit, weit unter die gesetzlichen Standards gesunken.

Arbeiten für 90 Dollar pro Woche

Für einige der neueren Teilnehmer*innen des Gruppenchats konnte es bis zu einer Woche oder länger dauern, einen 30-minütigen Audio-Clip zu bereinigen und jedes einzelne Audiomerkmal und jede Äußerung korrekt zu beschriften. Die Bezahlung für die Arbeit, als ich zum ersten Mal von der Personalagentur eingestellt wurde, betrug $12 pro Stunde für 60 Stunden pro Woche, also $720 pro Woche. Als ich über Upwork angestellt wurde, sollte der Lohn 4 $ pro transkribierte Audiominute betragen. Das Höchste, was ich in einer Woche verdienen konnte, waren 90 Dollar, da wir nun mit so viel mehr Arbeiter*innen um die Menge der verfügbaren Aufgaben konkurrierten.

Aufgrund dieser niedrigen Bezahlung gab es eine hohe Fluktuation an Leuten, die kündigten und den Chat verließen. Mir ist auch aufgefallen, dass die meisten Arbeiter*innen, die im Google Hangout für die spanischen Transkriptionen waren, nicht mehr in Kanada ansässig waren, sondern in Ländern wie Venezuela und Bolivien, wo ein Gehaltsscheck in US-Dollar bei der Umrechnung in die Landeswährung noch weiter reichen würde. Der Projektmanager war ein Freiberufler, der in der Türkei angeheuert wurde, und die Reviewer saßen in Argentinien, Irland oder an anderen Orten.

Es gab auch eine große Verzögerung zwischen dem Zeitpunkt, an dem eine Arbeit von einem Mitarbeiter fertiggestellt wurde, und dem Zeitpunkt, an dem sie von einem Gutachter überprüft werden konnte. Da wir nur für Audiomaterial bezahlt wurden, das die Prüfung bestanden hatte und von einem Gutachter genehmigt worden war, beschwerten sich die Leute über diese Verzögerung bei der Genehmigung. Wenn Ihre Transkripte nicht schnell geprüft wurden, konnte das in einer bestimmten Woche keine oder nur eine geringe Bezahlung bedeuten, je nachdem, wie ausgelastet die Prüfer waren und wie unordentlich die Transkripte waren, die sie sahen. Wir wurden nicht für die Zeit bezahlt, die wir mit der Schulung im Google-Hangout-Chat verbracht haben, oder für die Zeit, in der wir daran gearbeitet haben, unsere Abschriften zu korrigieren, die eine erste Überprüfung nicht bestanden haben.

Ich denke, dass das Personaldienstleistungsunternehmen seine lokale Belegschaft entlassen hat, um sich auf Vertragsarbeiter zu verlassen, weil es sich rechtlichen Verpflichtungen wie der Zahlung von nationalen Rentenversicherungsbeträgen und Urlaubszeiten entziehen wollte. Laut einem Artikel, in dem das Unternehmen Upwork gelobt wurde, war die Personalvermittlungsfirma “lean” und konnte Transkribent*innen für 70 verschiedene Sprachgruppen einstellen, obwohl sie nur eine Person im Management hatte, soweit ich das beurteilen konnte. Die Buchhaltung und die Personalabteilung wurden ebenfalls an verschiedene Personen vergeben, die über Upwork eingestellt wurden, oder vielleicht sogar von derselben Person, die nur von verschiedenen E-Mail-Adressen aus antwortete.

Laut dem Artikel über Upwork reicht das “Volumen von LinguistixTank von 100 bis 3.000 Freiberuflern gleichzeitig”, während Google Projekte schickte, die “ein paar Tage bis ein paar Monate dauern können.” In diesem Artikel heißt es, dass die “Go-to-Ressource” des Unternehmens “zu 90 % aus freiberuflichen Talenten” bestand, und das Personaldienstleistungsunternehmen “Experten in den Bereichen HR, Business-Coaching und Marketing unter Vertrag nahm”, und zwar über diese sogenannten Freelance- oder Gig-Märkte.

Nach der Pandemie

Google hörte im Juni 2020 auf, Transkriptionsaufgaben an uns Freiberufler*innen zu senden, und machte dafür die globale Pandemie verantwortlich. Sie informierten die Arbeiter*innen, dass der Auftrag im Oktober wieder aufgenommen werden könnte, aber das ist nie passiert. Der einzige Ort, an dem wir mit Kolleg*innen interagieren konnten, war ein Google Hangouts-Chatroom, der vom Unternehmen überwacht wurde. Es war sehr schwierig, mit Kollegen über unsere Arbeitsbedingungen zu sprechen und einen Weg zu finden, gemeinsame Forderungen zu formulieren.

Es ist auch schwer, mit anderen Upwork-Nutzern in Kontakt zu treten und gegen diese Praxis der verdeckten 5-Dollar-Verträge zu kämpfen, bei denen die Löhne als Spesen ausgezahlt werden. Der einzige Feedback-Mechanismus gegen die Personalvermittlungsfirma wäre, eine 1-Stern-Bewertung auf Upwork zu hinterlassen, worauf sie wahrscheinlich reagieren würden, indem sie dieselbe Bewertung auf deinem Freelancer-Profil hinterlassen und dich so daran hindern, dich für andere Aufträge zu bewerben.

Wenn andere Freiberufler*innen sehr markante Vor- und Nachnamen haben, ist es möglich, auf anderen Plattformen wie Facebook oder LinkedIn nach ihnen zu suchen und sie dort zu kontaktieren, um zu versuchen, eine Beziehung und Vertrauen aufzubauen, aber da die meisten Menschen Sprachexperten in nicht-englischen Sprachen sind, ist der Gedanke, das profitabelste Unternehmen der Welt in seinem Heimatland Kalifornien auf Schadensersatz zu verklagen, wo es ein großer Arbeitgeber mit tiefen Taschen für Lobbyarbeit ist, ein entmutigendes Vorhaben.

Wie sieht es mit Gewerkschaften aus?

An diesem Punkt fragen Sie sich vielleicht, ob ich einer Gewerkschaft beitreten kann, nämlich der neuen Google-spezifischen Alphabet Workers Union? Nun, nein. “Wenn Sie derzeit nicht für Alphabet arbeiten oder Ihre Kündigung anfechten, ist die AWU nicht der richtige Ort”, sagte mir ein Gewerkschaftsorganisator.

Da Google uns alle im Juni entlassen hat und wir nie die Möglichkeit hatten, mit dem Unternehmen direkt über unsere Arbeit zu sprechen, geschweige denn über unsere Kündigungen, scheint eine kollektive Anfechtung unserer Kündigung keine Option zu sein. Ist also Google, der Personaldienstleister oder Upwork am ehesten für unsere schlechten Arbeitsbedingungen verantwortlich? Gibt es eine Möglichkeit, die Verantwortlichkeiten dieser Unternehmen gemeinsam zu bündeln, um zu bekämpfen, wie sie ihre Verantwortung gegenüber den Arbeitern diffundieren, wenn sie die Auftragsvergabe auf diese Weise verteilen?

Abschließend lässt sich sagen, dass wir den Systemen der künstlichen Intelligenz bei Google vielleicht doch erfolgreich beigebracht haben, wie sie uns menschliche Transkribentinnen ersetzen können. Jedes Mal, wenn Sie in der Lage sind, automatische Closed Captions für ein YouTube-Video einzuschalten, oder während einer Google Meet-Telefonkonferenz, den Ton des Gesprochenen in Echtzeit nahtlos in Text umwandeln können, wobei die sogenannte künstliche Intelligenz zum Einsatz kommt, hoffe ich, dass Sie an die Menschen denken, die für weit unter einem existenzsichernden Lohn gearbeitet haben, um diese Technologie möglich zu machen.

Anm.d.Red.: Mehr zum Thema finden Sie in der Text-Serie, die wir für unser Jahresthema 2020 SILENT WORKS zusammengestellt haben: https://berlinergazette.de/feuilleton/2020-silent-works/

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.