Die Bilanz der Afghanistanintervention ist verheerend: Am Ende des teuersten Militäreinsatzes in seiner Geschichte, muss sich der Westen eingestehen, dass praktisch keines der interventionspolitischen Ziele erreicht worden ist. Außerdem wird der Westen die Verantwortung für die hohe Anzahl der Todesopfer und das erschütternde Ausmaß der hinterlassenen Zerstörung übernehmen müssen. Kritische Medien haben all das bereits zur Sprache gebracht. Bislang unberücksichtigt geblieben ist der technopolitische Aspekt dieser Katastrophe. Der Medienwissenschaftler und Berliner Gazette-Autor Christian Heck kommentiert.
*
Es zeichnet sich ab, dass die Koalitionär*innen die Bewaffnung von Bundeswehrdrohnen in ihrem Koalitionsvertrag aufnehmen werden. Die FDP ist schon lange dafür: „Aus Sicht der Freien Demokraten braucht Deutschland bewaffnete Drohnen, um unsere Freiheit zu schützen und vor allem den Schutz unserer Truppe zu gewährleisten“, so Christian Lindner am 21. September auf abgeordnetenwatch.de. Auch Bündnis 90/Die Grünen haben sich in ihrem Wahlprogramm zur Bundestagswahl im September darauf festgelegt, die Beschaffung von bewaffneten Drohnen für die Bundeswehr grundsätzlich zu ermöglichen. Die SPD scheint von ihrem bisherigen Nein abzurücken.
Insbesondere vor dem Hintergrund des derzeitigen Bundeswehreinsatzes in Mali und des Faktes, dass eine fundierte Aufarbeitung des Militäreinsatzes in Afghanistan quasi nicht stattfindet, geschweige denn öffentlich eine ernsthafte Diskussion seitens der Parteien angestrebt wird, ist es für uns als Zivilgesellschaft um so wichtiger, klare Fragestellungen zum Afghanistaneinsatz gemeinschaftlich auszuformulieren.
Wo beginnt und wo endet die Kampfzone?
Am 15. August 2021 hatten die militant-islamistischen Taliban praktisch kampflos die afghanische Hauptstadt Kabul eingenommen. Niemand hat damit gerechnet, so Heiko Maas, Bundesminister des Auswärtigen, “das war offensichtlich eine Fehleinschätzung, die die komplette internationale Gemeinschaft, auch ich und die Bundesregierung hatten”.
Wichtige Grundlage dieser Fehlentscheidungen bildeten die Logiken des US-Militärs, der Sicherheitsapparate und Geheimdienste der NATO- Mitgliedsstaaten, insbesondere jene, die sich in diesem Jahrtausend in neuen Technologien niederschrieben und Teil unseres Lebensalltags wurden. Technologien, die unsere kognitiven Fähigkeiten erweitern und unsere Gesellschaft grundlegend verändert haben. Sie schrieben sich durch ihren Gebrauch, bewusst oder unbewusst in unsere Erfahrungswerte ein und wurden somit Teil westlicher Wertegemeinschaften. Teil, der bisher geführten semi-öffentlichen Debatten um disruptivtechnologische Kriegstechnologien, sowie auch ihrer Trial-and-Errors im zivilen Raum, in Combat Zones und im Krieg, insbesondere den High-Tech Kriegen wie in Afghanistan.
Denn, so wie in Combat Zones Krieg und Frieden einen gemeinsamen, meist sehr diskreten Raum bilden, so werden auch die Combats in diesen Zones mit Technologien des Krieges und des Friedens geführt.
“Marketing or death by drone, it’s the same math, … You could easily turn Facebook into that. You don’t have to change the programming, just the purpose of why you have the system.”, so Chelsea Manning in einem Interview 2018, “There’s no difference between the private sector and the military”.
Bildtechnologien (Computer Vision) verschmolzen im Afghanistankrieg mit Assistenzsystemen für Kampfpiloten. Big Data mit algorithmischen Entscheidungsfindungen zur gezielten Tötung (Targeted Killing). Cloud-Dienste mit Zielerkennungs- und Identifikationssoftware. An öffentlichen Forschungseinrichtungen wurden und werden Modelle Künstlicher Intelligenz zur Erstellung von Lebensmustern (Life Patterns) entwickelt, auf deren Grundlage prospektive Handlungen potentieller Terroristen errechnet werden sollen.
“Menschen, Dinge, Ereignisse werden zu “programmierbaren Daten”: es geht um “Input” und “Output”, Variable, Prozentzahlen, Prozesse und dergleichen, bis jeglicher Zusammenhang mir konkreten Dingen wegabstahiert ist und nur noch abstrakte Graphen, Zahlenkolonnen und Ausdrucke übrigbleiben.”, so der Technologie- und Gesellschaftskritiker Joseph Weizenbaum.
Automatisierung der Kriegsführung
Es fällt uns schwer in diesem Jahrtausend, unser Denken, unser Sehen, unser Zuhören, unsere Kommunikation, unsere Dialoge, unsere Argumente und Gegenargumente, unsere Reaktionen und unsere Aktionen, den politischen Dialog, aus diesem technischen Wirk- und Handlungsraum heraus, von außen zu begreifen. Insbesondere im Sinne von intellegere, von ‘einsehen’, von ‘erkennen’. Unsere durch Technik, von Menschen gemachte, künstliche Welt, sie zu sehen ohne die Hilfe von Sehmaschinen, unseren Denkwerkzeugen, den epistemologischen Apparaturen und maschinellen kognitiven Systemen.
Denn natürlich, ist es Wahnsinn, zu glauben, dass der technologische Vorsprung westlicher Staaten keinen Einfluss auf die Autonomisierung der Technologien westlicher Streitkräfte ausübt. Und natürlich ist es einfach nur ein Wahnsinn, dass Dual Use schleichend ein nicht wegzudenkender Teil unserer Wirklichkeit geworden ist.
Und eben genau diese Natürlichkeit, die in der Erkenntnis liegt, dass unsere geistigen Gewohnheiten, untrennbar von der von uns errichteten Ding-Welt sind, und unsere sozio-technischen Systeme, untrennbar von den derzeit eingesetzten Kriegstechnologien sind, eben genau dieser Natürlichkeit liegt er inne, dieser Wahnsinn. Nicht etwa aus einem Verlust an Rationalität, nein, ein zutiefst logischer Wahnsinn.
Die Kriegsmaschine hacken?
Und dass es eben gerade jene Technologien sind, die uns helfen als Gemeinschaft zu leben, uns zu organisieren und uns zu vernetzen, das gerade diese Technologien Funktionen prozessieren, die die Pluralität von Menschen in einer Art und Weise auseinander schneiden, durch die sie nicht mehr als eine Solche zusammengesetzt werden können, dass gerade diese Technologien, Mitmenschen bald automatisiert töten sollen dürfen, das ist einfach Wahnsinn. Ein „militärischer Wahnsinn“, so Weizenbaum.
Diesem Wahnsinn entgegenzutreten, und auch das sahen wir in diesem neuen Jahrtausend, ist möglich. Und dieser Schritt ist zutiefst anarchisch: Gegangen von mutigen Journalist*innen, Arbeitnehmer*innen und spontanen Arbeiterbewegungen, von Bürgerinnen und Bürgern, die sich die Gewissensfrage stellen.
Whistleblower*innen wie Chelsea Manning, Edward Snowden oder Daniel Hale, der bei seiner Verurteilung zu fast vier Jahren Haft am 27. Juli 2021 sagte, er glaube, es sei “notwendig, die Lüge zu zerstreuen, dass Drohnenkriege uns schützen, dass unser Leben mehr wert ist als ihres”. Hale leakte Regierungsdokumente, die das Innenleben und die schweren zivilen Kosten des US-Drohnenprogramms aufgedeckt haben. „Bei der Drohnenkriegsführung sind manchmal neun von zehn Getöteten unschuldig“, sagte Hale am Dienstag. “Du musst einen Teil deines Gewissens töten, um deinen Job zu machen.”, so Hale vor Gericht.
Anarchische Schritte, auch gegangen von engagierten Forscher*innen, die es schafften, zumindest temporär, die mächtigsten IT-Giganten unserer Welt in die Knie zu zwingen. Von Hackervereinigungen die technopolitische Sprengkraft in noch nie da gewesenem Maße entfalten, und Graswurzelbewegungen die nicht aufhören, in (Kultur-)Techniken eingeschriebene Machtverhältnisse zu offenbaren.
Zu ihnen zählen u.a. die Online Plattform Wikileaks und The Intercept. Im deutschsprachigen Raum, die Drohnen-Kampagne, das Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF) e.V., die Informationsstelle Militarisierung e.V. (IMI), das friedenspolitische Mittelungsblatt Luftpost und noch viele weitere. The Bureau of Investigative Journalism und Drone Wars UK in Großbritannien. ACLU (American Civil Liberties Union) und Corpswatch in den USA. Das European Forum on Armed Drones in Europa, sowie international das ICRAC (International Committee for Robot Arms Control) und the Campaign to Stop Killer Robots. Auch die „traditionelleren“ Medien wie beispielsweise Der Spiegel, die Washington Post, die New York Times oder der bristische Guardian trugen in den letzten zwei Jahrzehnten dazu bei, „Gewissensmaterialien“ wie Leaks, als eine zivilgesellschaftliche Basis zur ebenbürtigen Debattenkultur über den Einsatz disruptiver Kriegstechnologien in unserer Gesellschaft, zu fördern.
Bedeutende Schritte hinaus aus dem Wahnsinn. Einem Wahnsinn, der wohl spätestens seid den Snowden-Leaks in unsere bewusst wahrgenommene Alltagsnormalität überging.
Cyberwaffen töten auf Umwegen
Gerade der Trend hin zur Erstellung und Bearbeitung von Datenbanken, die u.a. Dank der Courage von Edward Snowden an die Öffentlichkeit kamen, wie z.B. die US- Terrorism Screening Database (TSDB), auch bekannt geworden als die „Watchlist“, gerade jener Trend hin zu ihrer Erstellung und Bearbeitung durch Data-Driven Algorithm Design, also maschinell lernende Systeme, deren Grundlage diese Datensätze zu großen Teilen sogar bilden, rückt bezüglich des Afghanistaneinsatzes der NATO- und US-Truppen, die Frage in den Vordergrund, in welchem soziokulturellen Kontext, Werte der afghanischen Gesellschaft eingebettet liegen, und wie diese von westlichen Militärs und Geheimdiensten erkannt, errechnet, und in Datenbanken eingeschrieben wurden?
Datenbanken, als Grundlage zur Generierung von Abnormitäten in Netzwerken und bei Einzelpersonen. Analytische Tools, wie z.B. die Social Network Analysis, erstellen durch sie Bewegungsprofile und SIGINT’s zur Überwachung und Identifikation. Sie lesen Mobilfunktelefonnummern, GPS-Daten und viele weitere Daten aus, um mit Hilfe von statistischen Modellen und Machine Learning, Lebensmuster und zukünftige Verhaltensweisen zu errechnen.
Erinnern wir uns an den 2016 öffentlich gewordenen Fall von SKYNET, und wie der Lernalgorithmus den Al Jazeera-Journalisten Ahmad Muaffaq Zaidan als al-Quaida Mitglied errechnete. SKYNET ist ein Programm der NSA, zur Erkennung von Mustern in Millionen von Telefon-Metadaten, in erster Linie in Pakistan, um daraufhin mit Hilfe von Machine Learning Techniken wie dem Random Decision Forest-Algorithmus zukünftige Terroranschläge zu errechnen.
Ein Wahnsinn in dem der Zufall zu einem Mittel wird, um Ziele zu klassifizieren. Ein maschineller Klassifizierer, der über Leben und Tod entscheidet.
Es ist also nicht einzig die Dual Use-Problematik, also die Untrennbarkeit von disruptiven zivilen-, den Sicherheits- und den Kriegstechnologien, die uns vor teils unsagbare Herausforderungen stellt. Herausforderungen, im Versuch über diese zu sprechen und gesetzliche Rahmenbedingungen zu schaffen. Nein, es ist die Notwendigkeit, Handlungsvorgänge als “technische Handlungen” begreifen zu lernen, um als Mensch, durch, und mit Technologie Entscheidungen zu treffen. Durch Technologie beobachtbar gemachte Handlungen, also als solche Handlungen zu verstehen, die auf Wiederholbarkeit unter wechselnden Bedingungen beruhen. Meist völlig losgelöst vom konkreten Gegenstand.
Wohl spätestens seit dem Wissen um die Nutzung der hochumstrittenen Spähsoftware Pegasus von deutschen Behörden, werden Datenbank- und Überwachungssysteme auch in den Mainstream-Medien offiziell als “Cyberwaffen” bezeichnet, so z.B. Zeit Online: „Die Affäre um die israelische Spähsoftware Pegasus weitet sich aus: Nicht nur das BKA, auch der BND arbeitet mit der Cyberwaffe – mit Wissen des Kanzleramtes.“.
Nun ist die Gattung dieser Waffentechnologien, wie wir ja mit unseren eigenen Augen sehen können, eine gänzlich andere als bei den “direkten” Waffen. Cyberwaffen töten auf Umwegen.
Die Bewaffnung von Drohnen birgt die Gefahr, diese beiden Gattungen in Kampfhandlungen vollautomatisiert zu vereinen, d.h. ohne jeglichen gemeinsamen Wissensabgleich mit der jeweiligen Einsatzzentrale (Distributed Common Ground System) und weiteren menschlichen Entscheidungsträgern. „Der wissenschaftlich-technologische Stand ist mittlerweile so weit fortgeschritten, dass jede moderne ferngelenkte bewaffnete Drohne nur ein Software-Update von einer vollautonomen tödlichen Waffe entfernt ist, ohne dass dies nachgewiesen werden kann!“.
3 Kommentare zu “Nach der Afghanistanintervention des Westens: Technopolitische Fehleinschätzungen verhindern”