Anarchistic Decision Making: Eine Exkursion zum Protest-Camp in Deutschlands Cyber Valley

Es fehlt uns derzeit nicht nur an genauen Definitionen, es fehlt uns an Worten, es fehlt eine gemeinsame Sprache, die es uns ermöglicht, kulturelle, politische und soziale Konsequenzen von KI-Technologien und Algorithmic Decision Making (ADM) zu denken. Der Medienkünstler und Technikforscher Christian Heck berichtet von den Protesten gegen das Cyber Valley – einem staatlich gefördertem KI-Labor in Süddeutschland.

*

Herbst 2018: Ich kontaktiere Christoph Marischka (Mari) von der Informationsstelle Militarisierung e.V. und frage ihn, ob er denn Lust und Zeit hätte, uns an einem gemeinsamen Abend seine Standpunkte zu der sich derzeit formierenden nationalen KI-Forschungslandschaft näherzubringen. Er sagte sofort zu. Ich lernte Mari 2016 kennen. Wir setzten uns beide kritisch mit den Methoden des Tötens mittels Kampfdrohnen auseinander und kamen so, ein jeder auf seine Art, von den teilautonomen, hin zu den autonomen technischen Objekten und ihren kulturellen Konsequenzen.

Sein pointierter Blick auf unsichtbar wirkende Fusionen aus Rüstung, Industrie und Wissenschaft war mir also sehr vertraut. Insbesondere, wenn es um das Greifen jener neuen Technologien ging, die eben erst auf den zweiten Blick ihre Nähe zur militärischen Operation durchscheinen ließen, kam ich in meiner tagtäglichen Arbeit oft auf ihn zurück. Meistens immer dann, wenn es darum ging, diese Nähe aus einer hierfür notwendigen Distanz heraus zu betrachten.

So verfolgte ich auch seine Veröffentlichungen und kritischen Analysen um die Entstehung eines sogenannten “Ökosystems für die Entwicklung Künstlicher Intelligenz” zwischen Tübingen und Stuttgart, während unserer Vorbereitungen zu einem KI-Grundlagenseminar für das anstehende Wintersemester.

KI-Forschung: Schnell zur marktfähigen Anwendung

Georg Trogemann und ich, wir planten in unserem Labor für Experimentelle Informatik an der Kunsthochschule für Medien Köln eine Einführung in die subsymbolische KI der Neuronalen Netze. Gemeinsam from scratch coden, den Code verstehen und auf diesem Wege die Möglichkeiten, Grenzen und Gefahren dieser Technologie einschätzen zu lernen. Kritikfähig zu werden, das war unser Ziel. Tief greifende kulturelle Konsequenzen treten nicht erst in Erscheinung, so unser Ansatz, beim konkreten Einsatz von Uploadfiltern im Internet oder intelligenter Videoüberwachung im öffentlichen Raum, auch nicht bei der Ausformulierung neuer Polizeiaufgabengesetze oder bei der Veröffentlichung ethischer Richtlinien zur Regulierung autonomer Waffentechnologien. Sie beginnen bereits, wenn auch noch ganz abstrakt und meist sehr diskret in ihrer jeweiligen Erschaffung, in semi-öffentlich geführten, sehr formalen Diskurslandschaften unter Expertinnen und Experten.

So wurde auch ohne jede öffentliche Diskussion von der Max-Planck-Gesellschaft, der Landesregierung Baden-Württemberg, der Industrie (darunter Amazon, BMW, Daimler, IAV, Porsche, die Robert Bosch GmbH und ZF Friedrichshafen) und den Universitäten Stuttgart und Tübingen, das Neckartal im Jahre 2016 offiziell zum Cyber Valley erklärt. Die derzeit größte KI-Forschungskooperation Europas. Sie wird durch das Land Baden-Württemberg gefördert. Ein Hingucker. Es entstanden bereits zehn neue Forschungsgruppen und zwei neue Universitätslehrstühle. Acht Lehrstühle befinden sich in der Ausschreibung.

Der allgemeine Tenor der KI-Forschung lautet: “Möglichst schnell von der Grundlagenforschung zur marktfähigen Anwendung“. Mit möglichst wenigen Worten tatkräftig voranschreiten. Doch u.a. die Ansiedlung von ZF Friedrichshafen, einem Mitglied der deutschen “Gesellschaft für Wehrtechnik” und dem Lobbyverband “Bundesverband der deutschen Sicherheits- und Verteidigungsindustrie” denen der Daimler Konzern auch zugehörig ist, auch die heraus stechende Präsenz von KUKA im Cyber Valley bringt eine diesen technischen Systemen immanent scheinende Schwierigkeit zutage, nämlich die, über sie zu sprechen.

So erging es beispielsweise Amnesty International bei ihrer Forderung eines generellen Verbots von tödlichen autonomen Waffen vor einer UN-Konferenz in Genf im Mai letzten Jahres: die RegierungsexpertInnen führten eine Grundsatzdebatte, welche Geräte und Systeme überhaupt als autonome Waffen gelten können.

Bündnis gegen das Cyber Valley

Es fehlt uns derzeit nicht nur an genauen Definitionen, es fehlt uns an Worten. Es fehlt eine gemeinsame Sprache, die es uns ermöglicht, kulturelle Konsequenzen dieser neuen Technologie zu denken. Eine Alltagssprache, mit der gesellschaftsrelevante Fragestellungen verständlich und ebenbürtig ausformuliert werden können, und zwar bevor begonnen wird, ethische Richtlinien und Gesetzestexte zu verfassen.

Ein paar Bürgerinnen und Bürger Tübingens nahmen solch unausgesprochene Sorgen und Ängste beim Wort und entgegneten z.B. den Verheißungen von 3500 neuen, gut bezahlten Arbeitsplätzen mit einer Verstärkung, der ohnehin schon „wachsenden Einkommens- und Vermögensungleichheit in Tübingen“. „Das reale Einkommen derjenigen Bürgerinnen und Bürger, die nicht vom Cyber Valley profitieren sinkt, da sie künftig mehr Geld für Mieten und Konsumgüter ausgeben werden müssen.“

Trotz oder vielleicht gerade, weil an dieser Diskussion RepräsentantInnen beteiligt sind, die stetig die Rede von Bürgerinnen und Bürgern beurteilen, scheinbar jedoch nicht ihrem Urteil unterliegen, begannen sich alsbald Proteste in Tübingen gegen das Cyber Valley zu formieren. Aus ihnen heraus entstand im Sommer dann das Bündnis gegen das Cyber Valley.

Auf eine groß angelegte Kundgebung folgten Demonstrationen, zahlreiche öffentliche Diskussionsrunden und Infoveranstaltungen. Der Kupferbau, das größte Hörsaalgebäude der Uni Tübingen wurde von StudentInnen besetzt. Bäume wurden auf Cyber Valley – Bauflächen gepflanzt. Podiumsdiskussionen wurden organisiert. Standpunkte und Forderungen wurden präzise ausformuliert. Das Bündnis schaffte es innerhalb weniger Monate, die Debatte um das Cyber Valley in die Tübinger Öffentlichkeit zu bringen und fordert weiterhin:

1. Eine Offenlegung aller Pläne und Strukturen des Cyber Valley;

2. Eine umfassende Demokratisierung und Grundfinanzierung der Hochschulen statt deren weitere Ökonomisierung;

3. Keine Ansiedelung des Amazon-Konzerns in Tübingen und keinen Verkauf öffentlicher Flächen;

4. Keine schnelle Umsetzung neuer Technologien in die Praxis ohne öffentliche Diskussion, Technikfolgenabschätzung und kritische, sozialwissenschaftliche Begleitforschung;

5. Eine Zivilklausel für den Technologiepark;

6. Eine soziale Stadt für Alle statt den “Kampf um die besten Köpfe” auf dem Wohnungsmarkt;

7. Kurz gesagt: Eine Wissenschaft, die den Menschen dient – nicht Industrie, Überwachung und Krieg!

Wie weiter?

Es ist Winter 2018. Tübingen, der 17. Dezember letzten Jahres, 19 Uhr. Nachdem uns Mari eine freundliche Einführung in die tagtägliche Arbeit der Informationsstelle Militarisierung im IMI-Büro schenkte, führte er uns in einen großen Saal des soziokulturellen Zentrums, dem Sudhaus.

Zwei Frauen hängen gerade ein Banner breitflächig an die Wand, mit dem Schriftzug: „In welcher Welt wollen wir leben?“ Fragestellungen wie diese hört man viel zu selten in diesem Kontext. Ich beginne sogleich mit den Anderen die Stühle von Richtung Podium in eine Kreisform zu rücken. Wir sind uns unausgesprochen einig, dass niemand da oben sitzen will.

KI ist keine Graswurzel-Technologie

19h30. Unser Diskussionsabend beginnt. Zirka 50 Personen nehmen Platz. Es gibt keine große Einleitung. Wir alle wissen, warum wir hier sind. Wir, das heißt die Initiatoren dieses Diskussionsabends stellen sich vor: Mari berichtet von seinen Erlebnissen, die er in den letzten Jahren im Zuge seiner Arbeit zur Drohnen- und KI-Forschung machte.

Jacqueline Andres vertritt an diesem Abend das »Bündnis gegen das Cyber Valley« und erzählt von ihren Erfahrungen während der zahlreichen Aktionen des Bündnisses im Sommer und Herbst 2018. Sie füllt den Raum mit einer These, die diese Diskussion wie ein Mantel umhüllen wird, nämlich „dass KI keine Graswurzeltechnologie ist!“.

Ich stelle uns vor und wie wir uns im Kontext einer Kunsthochschule dem Diskurs um die Künstlichen Intelligenzen nähern. Die Diskussion beginnt bereits während unserer Vorstellungsrunde. Die Stimmung ist ein wenig aufgeladen.

Begrifflichkeiten, wie Technologieneutralität scheinen wieder im Kommen. Der Vergleich von „Feuer, welches als Fackel Blockhütten anzünden könne, jedoch auch als eine Feuerstelle zur Nahrungszubereitung dient“, galt Cyber Valley RepräsentantInnen bereits im Vorfeld als eine angemessene Metapher um darauf aufmerksam zu machen, dass ein „Einbringen deutscher und europäischer Werte in Forschung und Entwicklung“ den Risiken dieser Technologie entgegen wirken könne.

Keine Möglichkeit KI transparent zu gestalten

In unserer Runde des heutigen Abends sitzen drei bis vier BesetzerInnen des Kupferbaus, einige EinwohnerInnen Tübingens und ein externer Sachverständiger der Enquete-Kommission KI. Etwa 7-12 StudentInnen aus technischen, natur- und geisteswissenschaftlichen Fakultäten der Uni Tübingen sitzen in der Runde, ein Vertreter des »Forums InformatikerInnen für Frieden und gesellschaftliche Verantwortung«. Wir, eine Gruppe von 12 Personen aus unserem KI-Grundlagenseminar und weitere Mitglieder der IMI und des nocybervalley-Bündnisses.

Ein Diskussionsteilnehmer bemerkt, dass „es uns auf Grund der Struktur der Lernalgorithmen in Künstlichen neuronalen Netzen, derzeit nicht möglich ist, in sie hineinzublicken“, also auch nicht den Forschern und den Programmierern selbst. Es gibt derzeit noch keine Möglichkeit, selbst wenn man es wollte, diese Technologie transparent zu gestalten, geschweige denn ihre Entscheidungsfindungsprozesse öffentlich zu diskutieren.

Und gerade eben diese Erkenntnis, die mit steigendem öffentlichen Interesse wahrgenommen wird, die Erkenntnis des derzeitigen Nicht-Erkennen-Könnens bringt vor allem die Eliten und ExpertInnen und all diejenigen, die vorgeben die ethischen Debatten selbst zu führen, in Erklärungsnot.

Die nächste Generation

Die nächste Generation KI wurde hierfür bereits eingeläutet: XAI, Explainable Artificial Intelligences, in denen Maschinen den Kontext und die Umgebung, in der sie arbeiten verstehen lernen, um im Laufe der Zeit Erklärungsmodelle (Explainable Models) aufzubauen. In Echtzeit soll daraufhin über Erklärungsschnittstellen (Explanation Interfaces) ein standardisierter Wissensaustausch vollzogen werden.

Diese Explaination Interfaces werden derzeit noch für diejenigen konzipiert, die für uns Diskurse zu führen angeben. Das heißt, von-ExpertInnen für-ExpertInnen. Erklärt werden wird also -wie auch immer- irgendwann denjenigen, die derzeit schon entscheiden, inwieweit algorithmische Entscheidungsfindungsprozesse unseren Entscheidungen Werte zuordnen werden. Werte, die früher oder später zu unseren Werten werden.

Erklärbare KI

So forscht das Max-Planck-Institut seit einigen Jahren gemeinsam mit der Berkeley Universität in Kalifornien an „building models that can justify their decisions“. Das Delta Lab (eine Fusion aus der Robert Bosch GmbH und der Universität Amsterdam) betreibt seit 2017 sogenannte „Industrielle Grundlagenforschung“ mit Fokus auf XAI.

Dies sind nur zwei Beispiele dafür, dass sich die „internationalen Keyplayer“ des Cyber Valley mit der »Gesellschaft für Informatik« ziemlich einig sind, die jüngst die KI-Strategie Deutschlands wie folgt kommentierte: „Ein europäischer Beitrag zu KI muss darin bestehen, die Erklärbarkeit algorithmischer Entscheidungssysteme- insbesondere eine erklärbare Künstliche Intelligenz („Explainable AI) zu schaffen, die Diskriminierung vermeidet.“

„Warum wird gerade im tagespolitischen Diskurs um Delegationen von Handlungsmacht auf eben diese technischen Objekte, die unsere Verhaltensweisen vorhersagen, die menschliche Entscheidungskraft kontinuierlich infrage gestellt?“, so eine Bemerkung aus der Runde.

Sind es nicht unsere Entscheidungen, aus denen Handlungsmacht entspringt, frage ich mich im Stillen? Sind es nicht unsere Entscheidungen, die uns zu denen machen, die wir sind? Die uns hinaus aus den Möglichkeitsräumen und hinein in die Wirklichkeit verhelfen?

Hinaus aus dem was denkbar ist, aus den Räumlichkeiten der Imagination, in den Alltag hinein und zu unseren konkreten Handlungen? Aus Veröffentlichungen in den letzten Jahren von investigativen Journalisten und Whistleblowern ging unter anderem hervor, wie im Drohnenkrieg aus menschlichen Entscheidungen, durch fehlerhafte SIGINT‘s (z.b. Software zur Spracherkennung, zur Gesichtserkennung u.s.w.) sogenannte Kollateralschäden entstanden.

Fehlerhafte und unausgereifte Überwachungssysteme in Kampfdrohnen wurden aus Kosten und Zeitgründen in militärischen Operationen eingesetzt und auf diese Weise auch ganz bewusst Menschenleben gefordert.

Ein Bewusstsein für diese „operational glitches“ lag jedoch meist auf Seiten der jeweiligen Entscheidungsträger, nicht auf der eines drone- bzw. eines sensor operators. Es waren Expertinnen und Experten, die entschieden. Und es waren, wenn auch gut ausgebildete, aber es waren Anwender, die diese jeweiligen technischen Handlungen vollzogen. In diesem Falle eben Soldaten, die als human in the loop fungieren mußten, um in Folge dessen als Fehlerquelle Mensch bezeichnet zu werden. Es waren „militärisch- forschungsindustrielle Komplexe“, wie auch das Cyber Valley einen darstellt, die diese Anwendungen erforschten und patentieren ließen.

Rosige Aussichten

Frühling 2019, Köln. Ich lese die letzten Zeilen unseres Exkursionsberichts Korrektur. Auf meinem zweiten Bildschirm läuft nebenbei der NRW-Liveticker:

Auf Grundlage des neuen Polizeigesetzes NRW verordnete ein Richter des Amtsgerichts Erkelenz einen „vorläufigen Gewahrsam“ von fünf Tagen gegen drei UmweltaktivistInnen, die für ein paar Stunden einen Braunkohlebagger im RWE-Tagebau Garzweiler besetzten. Sie klebten sich dabei die Fingerkuppen zu. Laut Sprecher des Gerichts Erkelenz „eine gezielte Vorbereitungshandlung. Daraus ergibt sich, dass in Zukunft weitere Straftaten unter dem Deckmantel der Anonymität erfolgen können“.

Der Richter Peter Königsfeld verhängte im Kerpener Amtsgericht zum zweiten Mal eine 9-monatige Haftstrafe mit „generalpräventivem Charakter“ wie er sie bezeichnet. Diesmal traf es die junge Hambach-Aktivistin Eule.

Aufgrund eines Outputs des predictive-policing-tools SKALA hält die Polizei in weiten Stadtteilen Bonns „Personen auch ohne einen konkreten Verdacht an, um ihre Personalien festzustellen“. Die „strategische Fahndung“, verankert im neuen Polizeigesetz gibt hierfür die rechtliche Grundlage.

Die Bundespolizei speichert ihre Bodycam-Aufnahmen in den Cloud-Diensten bei Amazon. Bis Ende 2019 sollen 2300 Bundespolizisten mit Bodycams ausgestattet sein. Amazons Gesichtserkennungssoftware die der Konzern an die US-Polizei verkaufte…

Ich sitze an meinem Schreibtisch und fühle mich für einen kurzen Moment gedankenlos.

Anm. d. Red.: Lesen Sie mehr über das Thema politische Handlungsfähigkeit in Zeiten künstlicher Intelligenz auf der Dokuseite des BG Jahresprojekts 2018 Ambient Revolts. Das Foto oben stammt von x1klima und steht unter einer CC-Lizenz.

Ein Kommentar zu “Anarchistic Decision Making: Eine Exkursion zum Protest-Camp in Deutschlands Cyber Valley

  1. Danke für den großartigen Text!

    Ich hebe nochmals die für mich wichtigsten Gedanken hervor:

    „dass KI keine Graswurzeltechnologie ist!“

    – Wie könnte es denn eine werden? Cockshott/ Cotrells “Alternativen aus dem Rechner” weisen eine Richtung (zuletzt in: Jan Philipp Dapprich: Cybersozialismus als konkrete Utopie)

    “Erklärt werden wird also -wie auch immer- irgendwann denjenigen, die derzeit schon entscheiden, inwieweit algorithmische Entscheidungsfindungsprozesse unseren Entscheidungen Werte zuordnen werden. Werte, die früher oder später zu unseren Werten werden.”

    – Zu unseren Werten, die unters Wertgesetz des Cyber Valleys fallen müssen, befürchte ist. Lässt sich KI dergestalt überhaupt noch im Sinne des Gebrauchswerts denken?

    „Warum wird gerade im tagespolitischen Diskurs um Delegationen von Handlungsmacht auf eben diese technischen Objekte, die unsere Verhaltensweisen vorhersagen, die menschliche Entscheidungskraft kontinuierlich infrage gestellt?“

    “Sind es nicht unsere Entscheidungen, aus denen Handlungsmacht entspringt, frage ich mich im Stillen?”

    – Ja und wie eine self-fulfilling prophecy schreiben sich diese Entscheidungen ein. Wenn da mal nicht die Agency der KI missbraucht/ fetischisiert wird, um den Silicon Valley Entrepreneur-Kapitalismus als beste aller Welten zu verkaufen – um es am Ende als Rechenleistung aus einer XAI Unit ertönen zu lassen (was zu beweisen war).

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.