Handlungsfähigkeit neu denken: Die Politik der künstlichen Intelligenz

Künstliche Intelligenz verstärkt in so unterschiedlichen Bereichen wie Politik, Wirtschaft, Polizeiarbeit und Kriegsführung seit langem bestehende Vorurteile, die den Zugang zur politischen Öffentlichkeit einschränken, und verändert unsere Beziehungen zu uns selbst und zu anderen. Ein Interview mit Loiuse Amoore von Magdalena Taube und Krystian Woznicki.

*

„Politische Handlungsfähigkeit in einer von KI geprägten Welt neu denken“ lautet das Thema der AMBIENT REVOLTS-Konferenz, die vom 8. bis 10. November in Berlin stattfindet. Wir möchten daher zunächst Ihre Meinung zum Einsatz von Algorithmen an Staatsgrenzen einholen. Sie haben festgestellt, dass „[sie] genau die Zirkulationen und Mobilitäten benötigen, die sie durchlaufen, um zu lernen, sich täglich zu verändern und weiterzuentwickeln“. Diese Beobachtung ist Teil Ihrer umfassenderen Argumentation, dass es der Gouvernementalität weniger darum geht, Bewegung zu verbieten, als vielmehr darum, sie auf produktive Weise zu erleichtern. Die Rolle selbstlernender Algorithmen scheint in diesem Zusammenhang sehr bedeutend zu sein, da sie – wie der Kapitalismus – ebenfalls von Bewegung abhängen. Wie beurteilen Sie angesichts ihres Hungers nach Datenverkehr die Beziehung zwischen selbstlernenden Algorithmen und dem Kapitalismus?

Ja, ich stimme zu, dass die Rolle des „Selbstlernens“ oder halbüberwachter Algorithmen von größter Bedeutung ist, um zu verstehen, wie Bewegung und Zirkulation funktionieren. Zunächst einmal lohnt es sich vielleicht, darüber nachzudenken, was man im Zusammenhang mit Algorithmen unter „Selbstlernen“ versteht. Da Algorithmen wie tiefe neuronale Netze und Zufallswälder bei Grenzkontrollen eingesetzt werden, lernen sie in gewisser Weise selbst, weil sie einem Datenkorpus (z. B. über vergangene Reisen) ausgesetzt sind, aus dem sie Cluster gemeinsamer Attribute generieren. Wenn man sagt, dass diese Algorithmen „Muster erkennen”, ist genau das gemeint – dass die Algorithmen die Daten nach dem Vorhandensein oder Fehlen bestimmter Merkmale in den Daten gruppieren.

Bei dem Konzept des „Selbstlernens“ müssen wir jedoch vorsichtig sein, da es keineswegs vollständig autonom ist. Das Lernen umfasst viele andere Interaktionen, beispielsweise mit Menschen, die die Trainingsdaten auswählen oder kennzeichnen, aus denen die Algorithmen lernen, mit anderen, die die Schwelle der Empfindlichkeit des Algorithmus verschieben (durch Neukalibrierung von falsch-positiven und falsch-negativen Ergebnissen an der Grenze), und natürlich auch Interaktionen mit anderen Algorithmen wie biometrischen Modellen.

Ich bin der Meinung, dass die Durchflüsse und Mobilitäten, die an der Grenze stattfinden, außerordentlich wichtige Voraussetzungen für Algorithmen an der Grenze sind. Einfach ausgedrückt gibt es keine festen Kriterien oder Kategorien dafür, wie „normal“ oder „anomal“ aussehen könnte, keine festen Vorstellungen davon, welche Arten von Bewegungen verboten werden sollen. Stattdessen gibt es eine mobile Festlegung von Schwellenwerten für Norm und Anomalie, die immer in Bezug auf die Eingabedaten des Algorithmus erfolgt. Beispielsweise werden Deep-Learning-Algorithmen zunehmend eingesetzt, um Einwanderungsrisiken zu erkennen und Personen vor Erreichen der Grenze festzunehmen (z. B. bei Visumsanträgen). Die Entscheidung über diese Person wird nicht in erster Linie auf der Grundlage ihrer eigenen Daten getroffen, sondern vielmehr in Bezug auf einen Algorithmus, der seine Risikoschwellen durch die Konfrontation mit den Attributen einer Vielzahl unbekannter anderer Personen gelernt hat. Dies hat tiefgreifende Konsequenzen für die Ethik und Politik – der Algorithmus, der eine zukünftige Person festnehmen wird, hat gelernt, diese anhand der Merkmale anderer Personen zu erkennen. Der Hunger nach Datenverkehr, wie Sie es nennen, ist ein Hunger nach Daten, die die Erstellung algorithmischer Modelle für die Grenzkontrolle vorantreiben. Für den Algorithmus spielt es keine Rolle, ob das Ziel Kapital oder der Staat ist.

Die Beziehung zwischen maschinellem Lernen und Kapitalismus ist natürlich interessant. In meinem Buch The Politics of Possibility habe ich beschrieben, wie eine Reihe von Algorithmen, die für kommerzielle Verbrauchermethoden entwickelt wurden, letztendlich zu einer Ressource im sogenannten Krieg gegen den Terror wurden. Tatsächlich wurde das kommerzielle Ziel eines „unbekannten Verbrauchers” (jemand, dem man noch nicht begegnet ist, der aber beispielsweise eine Neigung zu einer bestimmten Art des Einkaufens haben könnte) mit der Vorstellung eines „unbekannten Terroristen” (jemand, dem man noch nicht begegnet ist, der aber eine Neigung haben könnte, eine Bedrohung darzustellen) in Verbindung gebracht.

Für den Algorithmus spielt es keine Rolle, ob das Ziel Kapital oder Staat ist: In diesem Sinne ist er indifferent. Ich glaube, dass sich diese Beziehung zwischen maschinellem Lernen und Kapital weiterhin verschiebt und verändert. Beispielsweise wurden die Algorithmen von Cambridge Analytica im kommerziellen und politischen Bereich eingesetzt, und in beiden Fällen war das Ziel des Algorithmus die Neigung, durch gezielte Medien auf eine bestimmte Weise beeinflusst zu werden. Es gab einen öffentlichen Aufschrei über die Auswirkungen solcher Algorithmen auf den demokratischen Prozess – insbesondere beim Brexit-Referendum und der Wahl von Trump –, aber ähnliche Algorithmen werden täglich eingesetzt, um Städte zu überwachen, Menschen an verschiedenen Grenzen, von Bahnhöfen bis zu Einkaufszentren, anzuhalten oder festzunehmen. Es gab einen öffentlichen Aufschrei über die Auswirkungen solcher Algorithmen auf den demokratischen Prozess – insbesondere beim Brexit-Referendum und der Wahl von Trump –, aber ähnliche Algorithmen werden täglich zur Überwachung von Städten eingesetzt.

Es scheint, als hätten wir es hier mit der Systematisierung des Möglichen zu tun: Das Ziel ist etwas Unbekanntes, das durch Systematisierung zu einer umschriebenen und bestimmten Möglichkeit wird oder vielmehr zu einer Reihe bestimmter Möglichkeiten. Der Einsatz von Algorithmen ist somit „mobil” und „flexibel”, aber aufgrund seiner Ausrichtung auf bestimmte Möglichkeiten nicht so sehr, wie es den Anschein hat; tatsächlich gibt es nur ein bestimmtes und daher begrenztes Spektrum an Möglichkeiten, die algorithmische Modellierung abdecken kann. Ändert sich diese Situation angesichts selbstlernender Algorithmen, die aufgrund ihrer induktiven Fähigkeiten in der Lage sind, halbautonome Assoziationen in einem ständig wachsenden Spektrum von Möglichkeiten zu schaffen?

Die Ausrichtung von Algorithmen auf bestimmte Möglichkeiten ist wichtig, ja. In gewisser Weise stimme ich zu, dass es nur einen begrenzten Bereich von Möglichkeiten gibt. Lassen Sie uns dies anhand eines Beispiels etwas konkreter machen. Eine Gruppe von Algorithmusentwicklern, die ich für meine Forschung beobachtet habe, erklärte mir, wie sie ihr Modell entsprechend der Ausgabe modifizieren. Ihre Algorithmen werden in einer Vielzahl von Anwendungen eingesetzt, von der chirurgischen Robotik über die Gangerkennung bis hin zur Erkennung von Online-Spielsucht. Wenn sie ein Zielergebnis festlegen, handelt es sich in der Tat um ein begrenztes Spektrum an Möglichkeiten – das Ziel muss ein numerisches Ergebnis zwischen 0 und 1 sein. Der Abstand zwischen den tatsächlichen Ausgangssignalen ihrer Algorithmen und dem Zielergebnis stellt jedoch das dar, was ich als Spielraum bezeichne. Tatsächlich beschrieben die Algorithmusentwickler, dass sie mit dem Algorithmus „spielen” oder ihn „abstimmen”, damit das Ergebnis dem Zielergebnis annähert. Hier denke ich, dass tiefes maschinelles Lernen keineswegs durch ein begrenztes Spektrum an Möglichkeiten eingeschränkt ist. Eine winzige Änderung der Gewichte innerhalb einer Schicht des neuronalen Netzes kann die Ausgabe des Algorithmus dramatisch verändern. In einem konvolutionellen neuronalen Netz für die Bilderkennung oder Gesichtserkennung kann dies beispielsweise Millionen von möglichen Parametern bedeuten, weit mehr, als ein Mensch sinnvoll verstehen könnte. Aus diesem Grund bin ich skeptisch gegenüber Behauptungen, man könne die „Black Box“ des Algorithmus öffnen, um eine Art Rechenschaftspflicht zu erreichen. Ich würde stattdessen sagen, dass es im Wirkungsbereich des Algorithmus keine Transparenz oder Rechenschaftspflicht gibt, und dass wir daher stattdessen von den Begriffen Undurchsichtigkeit und Parteilichkeit ausgehen müssen. Es gibt keine Transparenz oder Rechenschaftspflicht im Wirkungsbereich des Algorithmus, und daher müssen wir stattdessen von den Begriffen Undurchsichtigkeit und Parteilichkeit ausgehen.

Wenn die Systematisierung des Möglichen durch selbstlernende Algorithmen irgendwie neu konfiguriert wird, werden dann auch die Fähigkeiten des unbegrenzten Potenzials neu konfiguriert, wenn es darum geht, genau dieser Systematisierung zu entgehen? Mit anderen Worten: Entsteht im Zusammenhang mit KI eine neue, intelligente Systematisierung des unbegrenzten Potenzials?

Sie haben hier wirklich einen entscheidenden Punkt angesprochen. Im letzten Kapitel von Politics of Possibility habe ich dargelegt, dass Potenzialität weiterhin überfließt und die Kapazität zur Berechnung des Möglichen übersteigt. Ich befürchte jedoch, dass auch diese schwer fassbare Potenzialität bedroht sein könnte, und darauf gehe ich in meinem neuen Buch Cloud Ethics ein. Mit dem heutigen Deep Machine Learning gibt es Bestrebungen, das Unberechenbare zu integrieren und Potenziale zu generieren, die niemals vollständig ausgeschöpft werden müssen. Gilles Deleuze schrieb einmal, dass „das Problem die Lösung bekommt, die es verdient“, was bedeutet, dass die besondere Anordnung eines Problems eine Lösung systematisiert. Meiner Meinung nach kehren die heutigen Algorithmen dies um, sodass die Lösung das Problem bekommt, das sie verdient – in dem Sinne, dass die potenziellen Pfade des neuronalen Netzes in Bezug auf eine Lösung unendlich formbar sind. Wir dürfen nicht vergessen, dass wir mit „Lösung“ einen Algorithmus meinen, der über juristische Prozesse, Polizeiarbeit, Sicherheit, Beschäftigung und so weiter entscheiden kann. Die heutigen Algorithmen kehren dies um, sodass die Lösung das Problem bekommt, das sie verdient.

Ein Assoziationsmus, der niemals vollständig erfasst werden kann, ein Leben, das von Assoziationen mit anderen Dingen und Menschen geprägt ist und sich nicht berechnen lässt verändert sich dies nun durch KI? Wird das Potenzial des Assoziierens berechenbar, da KI von einem Assoziationismus lebt, der niemals vollständig erfasst werden kann? Mit anderen Worten: Bedeutet KI eine Veränderung in der Ontologie der Assoziation?

Ein Leben, in dem man mit anderen Dingen und Menschen in Verbindung steht, ist meiner Meinung nach einer der größten Nachteile der KI. Das heißt, für mich liegt eine tiefgreifende Gewalt darin, wie Algorithmen neu definieren, wie wir zusammenleben und Entscheidungen treffen, ohne Gewissheit über die Zukunft zu haben. Sich zusammenzuschließen, politische Forderungen zu stellen, mit anderen in Verbindung zu treten, ohne sich sicher sein zu können, dass man anerkannt wird – all das wird durch die KI bedroht.

Und natürlich hat dies tiefgreifende Konsequenzen. Nach dem Mord an Freddie Gray durch die Polizei von Baltimore im Jahr 2015 waren es beispielsweise Algorithmen des maschinellen Lernens, die „Anzeichen von Unruhen“ unter der afroamerikanischen Bevölkerung „erkannten“ und präventiv gegen das assoziative Leben vorgingen. Schüler wurden daran gehindert, in Busse zu steigen, um sich den Protesten anzuschließen, Menschen wurden wegen ihrer Beiträge in sozialen Medien verhaftet und Gruppen wurden auf der Grundlage von Bilderkennung festgenommen. Das Potenzial, Assoziationen berechenbar zu machen, ist real und findet in der Welt statt. Wenn es eine Verschiebung in der Ontologie der Assoziation mit KI gibt, dann ist dies eine Verschiebung, die die herkömmliche „Assoziationsregel” des alten Data Mining durch so etwas wie eine Assoziation von Attributen ersetzt. Attribute werden nicht auf Individuen abgebildet, sondern auf kleine Fragmente der Daten einer Person, in Verbindung mit kleinen Fragmenten einer anderen Person, aber kalibriert anhand der Merkmalsvektoren des Algorithmus. Für die Demonstranten in Baltimore bedeutete diese Ontologie, dass sie sich nicht an einem öffentlichen Ort versammeln konnten, weil ihre Attribute bereits in einem Risikomodell zusammengefasst waren, das das Unberechenbare in die Tat umsetzen kann. Sich zu versammeln, politische Forderungen in der Welt zu stellen, sich mit anderen zu verbinden, ohne sichere Anerkennung zu haben – all dies wird durch KI bedroht.

Sie haben in Ihrer Arbeit argumentiert, dass wir mit neuen, wenig beachteten Formen algorithmischer Diskriminierung und Vorurteilen konfrontiert sind. Sie stellen fest, dass risikoorientierte Formen der algorithmischen Modellierung nach dem 11. September „vorurteilsbehaftet oder diskriminierend” sind, aber dass sie „ihre Zeilen in einer neuartigen Form schreiben, die andere zukünftige Möglichkeiten nie ganz ausschließt”. Könnten Sie erklären, wie sich diese neuen Formen von älteren Formen technologiebasierter Diskriminierung unterscheiden? Was ist neu an dem Neuen?

In vielerlei Hinsicht verstärken neue Formen der algorithmischen Modellierung die rassistische Ausrichtung auf schwarze und braune Körper, die seit langem den Zugang zur Öffentlichkeit und zur Politik einschränkt.

Wie Safiya Umoja Noble in ihrem Buch Algorithms of Oppression“ anschaulich dokumentiert hat, verstärken Algorithmen Rassismus auf unterschiedliche Weise. Eine meiner Sorgen ist jedoch, dass zunehmend nach verantwortungsbewussteren und ethischeren Algorithmen gefordert wird, als ob Diskriminierung und Voreingenommenheit korrigiert oder beseitigt werden könnten. Tatsächlich benötigen Algorithmen für maschinelles Lernen Annahmen und Voreingenommenheit, um zu funktionieren. Ihre diskriminierenden Praktiken können nicht einfach durch Anpassungen der Trainingsdaten oder des Quellcodes geändert werden.

Für mich besteht der wesentliche Unterschied zwischen dem, was Sie als „ältere Formen“ bezeichnen, und dem neuartigen Deep Learning in der besonderen Beziehung zwischen Individuum und Bevölkerung und darin, wie diese Beziehung zur Steuerung des Lebens genutzt wird. Denken Sie beispielsweise an die rassistischen Profile in Francis Galtons zusammengesetzten Porträts aus dem 19. Jahrhundert oder an Adolphe Quetelets Statistiken zum Durchschnittsmenschen. Was in diesen sozialen Modellen „Variablen“ waren, würde man heute eher als rechnerische Attribute oder Merkmale bezeichnen. Denken Sie beispielsweise an den jungen Mann, der in einer Polizeistation festgehalten wird, weil der Risikoalgorithmus eine hohe Punktzahl für seine Fluchtgefahr ausgibt. Dies geschieht nicht, weil er die statistische Wahrscheinlichkeit oder das festgelegte Profil einer Bedrohung teilt. Vielmehr liegt es daran, dass die Merkmalsvektoren seiner Daten eine Nähe zu Merkmalen aufweisen, die aus Millionen von Parametern der Daten unbekannter anderer Personen abgeleitet wurden. Ja, der Algorithmus handelt in einer Weise, die rassistisch und voreingenommen ist, aber er tut dies in einer Form, die neue ethisch-politische Beziehungen zu uns selbst und zu anderen mit sich bringt.

Sehr häufig habe ich von einem Schreibtischanalysten oder Polizeibeamten gehört, dass „ich den Schwellenwert einfach verschieben kann, wenn ich kein brauchbares Ergebnis finde“. Das Verschieben eines Schwellenwerts in der Berechnung ist das Verschieben einer Beziehung zwischen gesellschaftlichen Normen und gesellschaftlichen Anomalien. Ja, wir haben Diskriminierung und Vorurteile von der Hollerith-Maschine bis zur Glockenkurve gesehen, aber es ist entscheidend, dass wir verstehen, was es bedeutet, ein Merkmal oder eine Eigenschaft zu definieren, einen Schwellenwert zu verschieben oder eine Gewichtung anzupassen.

Führen selbstlernende Algorithmen in diesem Zusammenhang zu einer weiteren Qualität? Oder sind sie lediglich effizienter, wenn es darum geht, unterschiedslos zwischen Subjekten zu unterscheiden?

Effizienz ist eine interessante Formulierung. Das wird oft für algorithmische Systeme an der Grenze oder im Strafrechtssystem behauptet – dass sie einen genaueren und effizienteren Prozess ermöglichen, um das Wesentliche ins Visier zu nehmen.

Tatsächlich gibt es jedoch auch alle möglichen Arten von Ineffizienzen. Wenn beispielsweise die britischen Polizeikräfte automatisierte Gesichtserkennungsalgorithmen einsetzen, um bestimmte Personen in Menschenmengen zu identifizieren, führt die Verbreitung von Fehlalarmen – mit den entsprechenden Kontrollen, Durchsuchungen und Identifizierungen von Personen – zu Ineffizienz und Diskriminierung. Was ist also entscheidend? Ich denke, dass Fehler hier eine interessante Frage sind. Man könnte auf all die vielen Fehler verweisen und sagen: „Hier liegt der Raum für Kritik und mögliche alternative Zukunftsszenarien, hier im Übermaß der Fehler“.

Aber auch hier gilt: Auf der Ebene des Algorithmus ist Fehler gleichbedeutend mit Distanz. Was bedeutet es, wenn man sagt, dass Fehler Distanz ist? Fehler ist lediglich die räumliche Lücke zwischen der Ausgabe und einem Ziel. Und so ist sogar Fehler produktiv, sogar Fehler kann in die generativen Fähigkeiten des maschinellen Lernens integriert werden. Wie kann man anfangen, Diskriminierung mit Gleichgültigkeit zu beurteilen, wenn es die Algorithmen sind, die die Mittel generieren, um in der Welt zu urteilen, um Gut und Böse zu identifizieren, um zu filtern und zu einem optimierten Ergebnis zu verdichten? Ja, vielleicht ist Optimierung und nicht Effizienz das Herzstück davon.

In Ihrer Arbeit gibt es einen Begriff der aktiven Handlungsfähigkeit, der Technologie und Daten zugeschrieben wird. In Bezug auf die Radiofrequenzidentifikation (RFID) sprechen Sie beispielsweise von Umgebungsortbarkeit; und in Bezug auf Sicherheitstechnologie untersuchen Sie, wie diese Technologie die Umgebung sprechen lässt. Wenn man beide Ideen miteinander verbindet, entsteht der Begriff der „Umgebungswirksamkeit“ – ein Begriff, der noch komplexer wird, wenn man sich auf eine Kritik des Anthropozentrismus einlässt und feststellt, dass „das Leben der Spezies unser Denken so sehr dominiert hat, dass die Biopolitik in Bezug auf das Leben von Objekten einen blinden Fleck hat“. Was bedeutet es für Sie, vor diesem Hintergrund die Wirksamkeit des Menschen zu überdenken?

Die Frage, was es bedeutet, Mensch zu sein, ist hier von zentraler Bedeutung. Meiner Ansicht nach verändert sich unsere Beziehung zu uns selbst und zu anderen durch unsere Interaktion mit Algorithmen. Einer der eindrucksvollsten Momente meiner jüngsten Forschung war, als eine erfahrene Chirurgin beschrieb, wie die Verwendung ihres Operationsroboters zur Entfernung von Tumoren ihr Gefühl für die Grenzen ihrer eigenen Handlungsfähigkeit verändert hatte. Sie machte definitiv keinen Unterschied zwischen den chirurgischen Instrumenten des Roboters, den Algorithmen, die die API der Maschine steuern, und ihren menschlichen Fähigkeiten. Für sie waren diese Dinge untrennbar miteinander verbunden. Ich fand diese Erkenntnis sehr interessant.

Ich habe mich mit dem Design von maschinellem Lernen für die Chirurgie beschäftigt, unter anderem weil dieselben Algorithmen auch in autonomen Waffen und autonomen Fahrzeugen zum Einsatz kommen. In Bezug auf die Umgebungserkennung lokalisieren neuronale Netze die Ränder von Tumoren, Territorien, Gesichtern usw. anhand der Daten, mit denen sie im Training konfrontiert wurden. Da Bilderkennung und Sprachverarbeitung Deep Learning nutzen, „spricht“ die Umgebung auf neue Weise. Die RFID- und anderen Geräte, die ich in diesem Buch behandelt habe, sind weiterhin wichtige Dateneingaben, aber in cloudbasierten Systemen sind sie oft nur ein Datenstrom unter vielen. Vor diesem Hintergrund die menschliche Handlungsfähigkeit zu überdenken, bedeutet, die komplexen Formen der Handlungsfähigkeit anzuerkennen, die sich aus unserer Verflechtung mit Algorithmen und Maschinen ergeben. Ich denke, dass dies in Debatten über den „Menschen im Kreislauf”, der den ethischen Bezugspunkt für zusammengesetzte Systeme wie autonome Waffen liefern soll, mehr Beachtung finden sollte. Wer ist dieser Mensch? Wie verändern sich seine verkörperten Beziehungen zur Welt durch seine Zusammenarbeit mit Algorithmen? Die Frage, was es bedeutet, Mensch zu sein, ist hier von größter Bedeutung… Wer ist dieser Mensch? Wie verändern sich seine verkörperten Beziehungen zur Welt durch seine Zusammenarbeit mit Algorithmen?

Wie Sie in The Politics of Possibility argumentieren, geht es bei algorithmischen Modellen, die in erster Linie auf die Wiederherstellung von Handlungsfähigkeit abzielen, darum, neue Handlungs und Interventionsmöglichkeiten in einer Welt der Zirkulation und Bewegung zu schaffen. Sie üben in diesem Zusammenhang Kritik an der Entscheidungsfindung, da diese halbautomatisierten souveränen Handlungen von dem subsumiert werden, was Sie als „actionable analytics“ bezeichnen – gleichgültig gegenüber Fehlern, gleichgültig gegenüber den Menschen, die von den Handlungen betroffen sind, gleichgültig gegenüber den Folgen und dem Leben im Allgemeinen. Es scheint, dass sich Ihre Kritik an dieser neuartigen Form souveräner Handlungsfähigkeit in erster Linie mit der Philosophie der Entscheidungsfindung befasst. Oder gibt es noch andere Aspekte, die Ihnen wichtig sind, wenn es darum geht, politische Handlungsfähigkeit in einer von KI geprägten Welt neu zu denken?

Ich bin mir sicher, dass Sie Recht haben, dass ich mich intensiv mit der Philosophie der Entscheidungsfindung beschäftigt habe, und ich gebe zu, dass ich noch immer viel darüber nachdenke. Um dies in einen Zusammenhang zu bringen: Sehr oft haben öffentliche Untersuchungen, die sich mit den potenziellen Gefahren von Algorithmen befasst haben, Bedenken hinsichtlich der sogenannten „algorithmischen Entscheidungsfindung” geäußert. Einfach ausgedrückt scheint die moralische Panik mit der Vorstellung zusammenzuhängen, dass eine Maschine und nicht ein Mensch entscheidet.

Nun, abgesehen von dem, was ich über alle algorithmischen Entscheidungen gesagt habe, die die Überreste mehrerer anderer menschlicher und maschineller Entscheidungen enthalten, was ist das Besondere an dem Menschen, der entscheidet? Wenn ein menschlicher Richter ohne Bezugnahme auf den Rückfallalgorithmus eine Gefängnisstrafe verhängt oder ein menschlicher Onkologe ohne Rückgriff auf den Algorithmus für optimale Behandlungswege über eine Behandlung entscheidet – ist es dann die „Menschlichkeit“, die wir schätzen? Was ist es an dieser menschlichen Entscheidung, das für uns von Bedeutung ist? Ich finde das interessant, denn natürlich sind Richter, Grenzbeamte und Polizisten fehlbar, und ihre Entscheidungen könnten sich später als falsch herausstellen. Doch gerade diese Erkenntnis, dass die Entscheidung im Dunkeln getroffen wird, im vollständig politischen Bereich der Unentscheidbarkeit, lässt Raum für andere Zukunftsszenarien, für andere Wege, die nicht eingeschlagen wurden. Wir müssen politische Handlungsfähigkeit in einer von KI geprägten Welt neu überdenken, nicht zuletzt, weil die neuronalen Netze in Algorithmen wie denen von Cambridge Analytica die politische Welt neu gestalten.

Eine meiner größten Bedenken hinsichtlich der Ergebnisse eines neuronalen Netzes ist, dass es als Instrument zur „Entscheidungsunterstützung“ beschrieben wird. Es setzt sich nicht mit dem Unentscheidbaren in der Welt auseinander, sondern erhebt den Anspruch, politische Schwierigkeiten zu lösen, und verdichtet dabei Vielfältigkeiten zu einem einzigen Ergebnis.

Um es klar zu sagen: Ich leugne nicht, dass ein Algorithmus für maschinelles Lernen auch kritisch als ethisch-politischer Akteur betrachtet werden könnte. Ich denke, wir müssen folgende Fragen stellen: Welche versteckten Pfade wurden bei der Erstellung dieses Ergebnisses nicht eingeschlagen? Wie hat eine Reihe von kontingenten gewichteten Wahrscheinlichkeiten etwas hervorgebracht, das als automatisierte Entscheidung bezeichnet wird? Können wir diese Gewichte im Algorithmus tatsächlich mit dem vollen Gewicht der politischen Unentscheidbarkeit versehen?

Wir müssen politische Handlungsfähigkeit in einer von KI geprägten Welt neu überdenken, nicht zuletzt, weil die neuronalen Netze in Algorithmen wie denen von Cambridge Analytica die politische Welt neu gestalten. Ein Ansatzpunkt wäre zumindest für mich, auf den Nicht-Abgeschlossenheiten und Momenten der Unentscheidbarkeit zu bestehen, die sich weiterhin im Algorithmus festsetzen.

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.