Wie könnte eine Ethik der Cloud aussehen? Über Algorithmen, Verantwortung und Vorurteile

Über digitale Ethikrichtlinien, Ethikinstitute und auch Ethikräte ist in letzter Zeit viel gestritten worden. Doch die diversen Entwürfe einer digitalen Ethik – besonders, wenn Tech-Unternehmen selbst involviert sind – versuchen nichts Weiteres, als konkretere politische Regulierungen mit einer Art „ethics washing“ zu umgehen. Die Wissenschaftler*innen Anna-Verena Nosthoff und Felix Maschewski setzen sich kritischen mit den jüngsten Entwürfen einer Ethik der Cloud auseinander.

*

Louise Amoores differenzierter Entwurf zu einer Cloud Ethics, so auch der Titel ihres Buches, erscheint gerade zur rechten Zeit: Denn die Autorin zeigt nicht nur eindrücklich auf, warum es in Anbetracht technologischer Komplexität im Digitalen keinesfalls ausreichen wird, ein oder zwei Moralphilosoph*innen oder Corporate Digital Responsibility-Advokaten bei den Tech-Konzernen anzustellen, sondern beleuchtet ebenso, warum sich gegenwärtige Probleme mit algorithmischen Biases wohl kaum durch ein einfaches technologischen „Fixing“ ‚lösen‘ lassen werden.

Algorithmen und ihre vielen Schichten

Amoore wirft zunächst einen gründlichen Blick auf das, was Algorithmen im Zeitalter neuronalen Lernens ausmacht: Algorithmen seien zwar binär strukturiert, gingen in einem dualistischen Text auf, doch, so die Autorin, tun sie dies nur im Dialog mit einer ihnen vorausgehenden Mehrdeutigkeit, die keineswegs auf ein schwarz-weißes Schema zu reduzieren ist. Denn die kodierten Handlungsvorschriften operierten immer im Zusammenspiel mit den jeweiligen, durchaus wechselhaften Trainingsdatensets und den flexiblen, benutzerdefinierten Vorgaben ihrer Programmierer*innen, seien also in sich kontingent; in gewisser Weise sogar abhängig von ihrer unmittelbaren Umgebung: „Algorithms“, scheibt die Autorin, „are not merely finite series of procedures of computation but are also generative agents conditioned by their exposure to the features of data inputs“ .

Insofern geben Algorithmen zwar situativ ‚klare‘ Outputs aus. Diese seien jedoch weder als ahistorisch, als in sich abgeschlossen noch als ontologisch separat von derjenigen Realität zu begreifen, die sie zu beschreiben und abzubilden vorgeben. Stattdessen handele es sich vielmehr um eine wechselseitige Durchdringung: Ändern sich die Parameter, die Variablen oder die generativen Datensätze, so überschreibt der Algorithmus seine eigene Definition dessen, was als „Norm“ und was als „Abweichung“, was als „gefährlich“ und ungefährlich – und damit auch als kritischer Schwellenwert – zu gelten hat, kurz: was überhaupt erst ins Blickfeld gerät. Es gelte deshalb, vor allem der „perceptual power of the algorithm“ Rechnung zu tragen.

Deutlich wird anhand dieser Ausführungen nicht zuletzt, wie antiquiert nicht nur Begriffe von Technik als Mittel zum Zweck, sondern wie simplifiziert auch jene Definitionen von Algorithmen sind, die diese exklusiv im Sinne einer klar definierten Handlungsanweisung (vergleichbar etwa mit einem Kochrezept) beschreiben. Vielmehr, so macht die Autorin klar, seien Algorithmen ontologische Entitäten, die ihre Umwelten ebenso definierten wie diese ihre Umwelten selbst.

Unvernunft des Machine Learnings

Darauf aufbauend durchkreuzen Amoores Analysen dann besonders die Vorstellung von Algorithmen als in sich vollständig „rationale“ Zuschreibungen. Das, was gemeinhin ‚algorithmische Vernunft‘ genannt wird, sei vielmehr immer auch notwendigerweise unvernünftig. Amoore spricht so unter Rückgriff auf Foucaults Wahnsinn und Gesellschaft von einer konstitutiven „madness of the algorithm“, eine gerade dem maschinellen Lernen teils intrinsische Logik des Exzesses – man denke nur an die radikalisierende Tendenz von YouTubes Autoplay-Funktion und den rassistischen Bias von Googles Bildsuche-Algorithmus.

Die Unvernunft korrelativen machine learnings lässt sich dabei auch dahingehend plausibilisieren, als dass der Geltungsbereich dessen, was der Algorithmus selbst als „wahr“ oder „falsch“ einordnet, von den Datensets abhängt, auf deren Basis Algorithmen ‚lernen‘. Insofern sind programmatische ‚Fehler‘ oder ‚false positives‘, im Sinne einer Abweichung von einem vernünftigen ‚Output‘ immer auch selbst Möglichkeitsgrundlage für einen weiteren Lernprozess.

Vernunft ist aus der Sicht des Algorithmus damit skalierbar, niemals in sich geschlossen, vielmehr immer abhängig von ihrem ‚Anderen‘: Der Fehler ist ein notwendiger wie erwartbarer Teil des autokorrektiven Systems, das niemals in der Lage ist, vielschichtige Realitäten umfassend abzubilden: „[t]he madness of algorithms”, schreibt die Autorin deshalb, “does not reside in the moral failure of the designer or the statistician, but it is an expression of the forms of unreason folded into a calculative rationality, reducing the multiplicity of potentials into a single output”.

Räume der Gewalt

Was hier noch recht abstrakt klingen mag, ja, vielleicht als Raum der Möglichkeit oder des Potenzials, ist jedoch im konkret politischen Sinne – und diese Tatsache hätte man sich an der einen oder anderen Stelle etwas klarer betont gewünscht – ein Raum der Gewalt. Mehr noch: Ein Raum der Gewalt, dessen vermeintliche „Eindeutigkeit“ teils, und hier lässt sich auf die insbesondere in den USA weit verbreitete Anwendung prädiktiver Analytik in der Polizeiarbeit verweisen, kaum anfechtbar scheint. Konkret gesprochen gilt das „false positive“ dann etwa denjenigen, die auf Basis eines mit historischen Daten trainierten Algorithmus – eines Algorithmus also, der wenig Raum für eine andere, offene Zukunft lässt – als „Gefährder*innen“ ausgewiesen, in gewisser Weise bestimmt werden.

Dass Amoore in diesem Konnex für eine generelle „ethics of doubt“ gegenüber algorithmischer Autorität plädiert, ist so konsequent wie richtig – es ginge darum, betont die Autorin, „[to] dwell for some time with the aperture of the algorithm, the point where the vast multiplicity of parameters and hidden layers become reduced and condensed to the thing of interest“. Doch stellt sich die Frage, ob eine solche Ethik allein reichen kann, wenn es gerade, wie die Autorin betont, nicht um ein „resistant overturning of the logics of algorithm“ gehen soll, diese Logik aber immer, wie die Autorin selbst ausdrücklich schreibt, eine Logik des Ausschlusses bleibt?

Zu fragen wäre vor dem Hintergrund des predictive policings nicht zuletzt, welches Subjekt, welche Subjektivität – ob hybrid, fragmentiert, dividuell gedacht oder nicht – hier überhaupt noch sprechen kann, wenn, wie die Rechtsphilosophin Antoinette Rouvroy betont, der Algorithmus ein sich vor dem Recht persönlich verantwortendes Subjekt per se übergeht, es also keinen Raum hat, Rechenschaft abzulegen, sich zu verantworten und Einspruch einzulegen? Kurz: Wo kann eine solche „cloud ethics“ ihren Ort, ihre Artikulation finden? Und ist diese womöglich nicht gerade dort zu „cloudy“, wenn die vermeintliche Eindeutigkeit des Algorithmus exklusiv und ungeachtet der immer vorhandenen ‚false positives‘ widerspruchslos für sich spricht?

Wer kann überhaupt sprechen?

Unklar bleibt also – politisch gesprochen – wie jenen eine Stimme verliehen werden soll, die von programmatischen Kalkülen übergangen werden. Wenn Amoore schreibt: „a cloud ethics is located in the encounters, arrangements, and combinations through which the algorithm is generated”, muss die Autorin sich zwangsläufig die Frage gefallen lassen, ob nicht diejenigen die Entscheidungsgewalt über eine solche „cloud ethics“ innehaben, die ihn programmieren. Statt den Fokus also isoliert auf die Emergenz des Algorithmus zu richten, wäre es womöglich politisch relevanter, die Perspektive zu wechseln, jene in den Blick zu nehmen, die von seinen ‚eindeutigen‘ Entscheidungen betroffen sind; jene, die observiert, benachteiligt oder verurteilt werden – und somit auf eine Ethik der Verantwortung zu bestehen, die sich gerade zwischen den Betroffenen und Programmierer*innen aufhält, ohne dabei freilich der Illusion zu verfallen, dass, wie auch Amoore betont, es eine eindeutige, exklusive Autor*innenschaft algorithmischen ‚Schreibens‘ gäbe.

Richtigerweise verweist Amoore darauf, dass (und das gilt auch für den juridischen Kontext) die Offenlegung von source codes gerade in Hinsicht der oben geschilderten Komplexität – die Tatsache also, dass algorithmische Programmierungen nicht allein auf einen homogenen Ursprung zurückzuführen seien – keinesfalls allein „Transparenz“ und damit Gerechtigkeit herstellen kann. Doch eher kontraintuitiv wirkt dabei, dass die Autorin Ähnlichkeiten zwischen dem Schreibprozess einer Autor*in und dem eines Algorithmus herausstellt, gar Derridas ‚il n’ya pas de hors-texte‘ mit dem eigens vorgeschlagenen ‚there is no outside the algorithm‘ parallelisiert. Denn eine solche partielle Analogisierung riskiert die vorschnelle Gleichstellung zwischen dem Nichtantizipierbaren in Derridas Sinne und dem irreduzibel probabilistischen Operieren algorithmischer Funktionen.

Liegt nicht, so möchte man hier einwenden, der Unterschied zwischen geschriebenem Text und der probabilistischen Funktion darin, dass ersterer die Offenheit vielschichtiger Lesarten zulässt, letztere aber in seinen Effekten – auch hier sei wieder auf das predictive policing verwiesen – einen eindeutigen, oder zumindest wahrscheinlichkeitstheoretisch formulierbaren ‚Output‘ forciert (auch wenn dieser kontingent ist, d.h. abhängig von den zugrunde liegenden training datasets)? Mit Blick auf die gegenwärtige Datenökonomie ließe sich zudem fragen, ob Social-Media-Monopolisten wie Facebook den Newsfeed-Algorithmus nicht mit einer klaren Absicht auf maximale Aktivierung und Datenakkumulation der Nutzer*innen hin programmieren? So hätte man sich an der einen oder anderen Stelle eine stärkere Fokussierung auf plattformökonomische Interessen und deren Niederschlag in algorithmischer Programmierung gewünscht.

Wer übernimmt Verantwortung?

Zu fragen wäre hier also schließlich, wem diese ‚Poetisierung‘ algorithmischer Kalküle, das Narrativ vom „designer as author“ und einer nicht eindeutig nachvollziehbaren Verantwortungszuschreibung dient – und damit ist nicht zuletzt angesprochen, dass das Buch zu selten die politische Ökonomie der Digitalisierung in den Blick nimmt: Sind es nicht doch jene, die sich mit ähnlichen Argumenten – man denke an das mittlerweile jahrelange Insistieren der Silicon-Valley-Elite auf dem ‚proprietären‘ Charakter ihrer Algorithmen – davor scheuen, Verantwortung für die eigene Programmierung von Algorithmen zu übernehmen?

Eine Ethik der Algorithmen irgendwo im immer schon politischen Zwischenraum zwischen Nutzer*innen, Programmierer*innen und den Algorithmen selbst zu lokalisieren, wird im besten Sinne der Vielschichtigkeit neuronaler Lernprozesse gerecht, hat aber im schlechtesten Sinne einen nicht zu unterschätzenden – und seinerseits durch und durch politischen – Preis: Sie spielt denen in die Hände, die sich allzu gern im opaken Milieu des digitalen Überwachungskapitalismus aufhalten. In diesem Sinne votiert die explizite Parallelisierung zwischen dem „Tod des Autors“ und der Kontingenz algorithmischer Programmierung für eine mehr als problematische Uneindeutigkeit, die die ohnehin im digitalpolitischen Raum dominanten Machtasymmetrien droht, zu reproduzieren anstatt sie produktiv zu durchkreuzen.

Zudem bleibt offen, inwiefern eine solche relationale „cloud ethics“ in der Lage sein soll, den letztlich auch systemisch agierenden Technologien immer noch eingeschriebenen Logozentrismus binärer Entscheidungslogik im Sinne einer Ethik des Anderen bzw. der „Unentscheidbarkeit“ zu transzendieren und, wie hier noch stärker anhand der Hypostase „there is no outside the algorithm“ argumentiert wird, diese gar in sich aufzunehmen – oder ob es nicht umgekehrt gerade der Ort dieser Unentscheidbarkeit ist, von dem aus eine solche Kritik am Logozentrismus, an der „ethicopolitical closure“ des Algorithmus geäußert werden kann. Letzteres wäre dann auch eine Form der Kritik, die Derrida und dem ebenfalls zitierten Levinas – sowie den vielfach herangezogenen Interpretationen beider Philosophen, Thomas Keenans Fables of Responsibility und Simon Critchleys The Ethics of Deconstruction – näher stünde.

Die Hoffnung auf ein Anderes läge dann weniger in der konstitutiven und immer kontingenten, jedoch dem – so sieht es die Autorin – Algorithmus eingeschriebenen Lücke zwischen Programmierbarem und der Realität, im konstanten Changieren algorithmischer Emergenz. Sie läge vielmehr, mit Levinas gesprochen, in der absoluten Vorrangigkeit des Ethischen und der Verantwortung vor dem Anderen und vor allem Sein – und das heißt dann auch, in dem absoluten Vorrang des Partikularen vor dem Kalkulierbaren. Folgt man Derridas‘ und Levinas‘ Insistieren auf ein Nichtkalkulierbares, wären Algorithmen nicht per se „ethicopolitical“ – vielmehr wären sie politisch, aber nicht ethisch.

Damit verschöbe sich dann aber auch der Ort der Kritik einer ‚kalkulatorischen Vernunft‘ in Grenzbereiche, die sich davor sperren, überhaupt von ihr erfasst zu werden: Ein solcher Ort läge dann weniger in der Bestimmung eines wie auch immer gearteten ‚offeneren‘ Algorithmus, sondern in der Stimme derjenigen, deren Wesen und Wirken von Algorithmen bewertet werden. Die Lücke zwischen Kalkulierbarem und der Realität wäre damit jedoch nicht dem Algorithmus immanent. Sie ginge über ihn hinaus, wäre ein Raum des Widerspruchs, mit Foucault gesprochen vielleicht eine Art Heterotopie. Amoores Text riskiert so am entscheidenden Punkt einen Kategorienfehler: Eine Ethik der Unentscheidbarkeit findet ihren Ort gerade dort, wo das ethisch entscheidende Subjekt die Verantwortung der Entscheidung darüber tragen muss, was im Grunde nicht entscheidbar ist.

Ein Algorithmus jedoch ist von der Last dieser Entscheidung eben nicht affiziert, er gibt keine Antwort, ist wortwörtlich nicht ver-antwortlich. Doch genau in diese Richtung denkt Amoore ihren Begriff der „cloud ethics“: „The algorithm must carry the weight of its weightings“. In probabilistischer Logik scheint dies jedoch allenfalls auf eine Erweiterung und Verfeinerung von Kalkülen hinauszulaufen, wohingegen eine Ethik der „Unentscheidbarkeit“ gerade darin bestehen müsste, das Unkalkulierbare und eine „unendliche Gerechtigkeit“ (Derrida) gegenüber dem Kalkül zu verteidigen; darin, zu erkennen, dass die irreduzible Entscheidungslogik von Algorithmen nicht in der Lage sein wird, Unentscheidbarkeit in sich aufzunehmen.

Das Märchen von einer neutralen Technik

Die Gefahr einer Instrumentalisierung der ethischen Positionen Levinas‘ oder Derridas‘ für eine „cloud ethics“ ist also durchaus gegeben und nicht ohne politische Konsequenz. Gleichwohl teilt Amoores Position eine grundlegende Ambivalenz mit den Autoren. Denn so wenig, wie etwa eine Ethik als „erste Philosophie“ in Levinas‘ Verständnis, oder Derridas „unendliche Gerechtigkeit“ in der Lage sind, in konkreten Situationen moralische Handlungsanweisung zu geben, ja, sich gerade im Raum einer grundlegenden „Unentscheidbarkeit“ aufhalten, sich der moralphilosophischen Schematisierung entziehen, so wenig kann Cloud Ethics eine Grundlage der Justiziabilität von Algorithmen bieten, die ohne ein nachvollziehbares und eindeutig identifizierbares Verständnis von „agency“ im idealistischen Sinne kaum auskommt. Doch wo Levinas und Derrida auf der Notwendigkeit des Politischen beharren, das permanent von ethischen Forderungen in Anspruch genommen wird, bleibt Amoores Position diesbezüglich eher uneindeutig.

Demungeachtet kann Cloud Ethics unser Verständnis gegenüber der irreduziblen Komplexität, der wechselseitigen Durchdringung von Mensch und Maschine, von User und Apparat dennoch schärfen, unser „clouded judgement“ aufklaren, wenn wir die digitale Sphäre vorschnell als schwarz-weiß betrachten, anstatt ihren Schattierungen nachzugehen. Denn Recht behält die Autorin mit dem dringlichen Hinweis, dass die Offenlegung eines source code allein biases nicht vollständig erhellen, Transparenz herstellen, gar eine Ethik für das digitale Zeitalter begründen kann. Unbedingt zu unterstreichen ist so auch Amoores Einsicht, dass eine vollständige Objektivität algorithmischer Weltdurchdringung ein Mythos bleiben muss – egal, wie umfassend die Trainings-Datensets, wie ausgefeilt die Variablen der Programmierung sein werden. Insofern werden gängige Silicon-Valley-Narrative, das „je mehr Daten, desto besser“, das Märchen von einer neutralen Technik und dem spontanen „Fixing“ sämtlicher algorithmischer biases schließlich doch zumindest implizit in Zweifel gezogen. Eindrücklich ist zudem die Argumentation der Autorin, warum es nicht ausreichend ist, den korrelativen Formen algorithmischer (Un-)Vernunft mit den klassischen Mitteln einer deduktiven Moralphilosophie antworten zu wollen.

Damit bietet Cloud Ethics wenig konkrete oder praktikable Antworten, doch es stellt grundlegendere und damit richtigere Fragen als viele gängige Formen der „Algorithmen-“ oder „Datenethik“ (von denen einige gerade von konkreter politischer Regulierung ablenken, als diese zu forcieren) zuvor – denn es verschreibt sich einem Möglichkeitshorizont, der weniger ab- und auszuschließen als vielmehr offen zu halten versucht. Doch verweist Amoores lesenswerte Analyse auch auf ein ganz grundlegendes Dilemma algorithmischen Regierens: Was kann es heißen, offen zu legen, wenn die Grenze zwischen Opazität und Transparenz längst nicht mehr eindeutig nachvollziehbar ist?

Anm. d. Red.: Lesen Sie mehr Beiträge zum Thema in der Textsammlung zu unserem Jahresthema Ambient Revolts.

Ein Kommentar zu “Wie könnte eine Ethik der Cloud aussehen? Über Algorithmen, Verantwortung und Vorurteile

  1. Google hat seine Ethiker gefeuert und das ist erschreckend, argumentiert Lê Nguyên Hoang, ein französischer YouTuber und Doktor der angewandten Mathematik, in einem 8-minütigen Video. Er bringt die Entlassung von Timnit Gebru und Margaret Mitchell, den ehemaligen Leitern von Googles “KI-Ethik-Teams”, mit aktuellen Entwicklungen in Verbindung, die enorme ethische Auswirkungen haben könnten, wie z. B. die Verwendung des Gmail-Archivs privater Konversationen zum Trainieren von Sprachmodellen. Herr Nguyên Hoang ist besonders besorgt über den relativ kleinen Aufschrei, der auf Googles effektive Demontage der Ethik folgte, was seiner Meinung nach ein schlechtes Vorzeichen für eine kommende Regulierung ist.

    Hier das Video: https://www.youtube.com/watch?v=fe9u6YQTsWY

    Hier ein Transcript des Videos: https://docs.google.com/document/d/e/2PACX-1vSo9ZvnYWMitxXb79ZGLeCukOJ7OIHby5TCwH7kQw5JBER_92P-G8g2yZk_HkTWjfMURfutLBf6UPnU/pub

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.