Mythos „Targeted Killing“: Gegen die Rationalisierung von Krieg

Harun Farocki: „War at a Distance“ (2003). Bildlizenz: Public Domain
Harun Farocki: „War at a Distance“ (2003). Bildlizenz: Public Domain

Die technologische Rationalisierung des Krieges durch automatisierte Datenanalyse und Entscheidungsfindung zu kritisieren, ist eine Herausforderung, die nicht zuletzt durch die Auswertung von Informationen aus dem War on Terror sowie investigativer Recherchen zur aktuellen Kriegsführung im Nahen Osten bewältigt werden kann. Der AK gegen bewaffnete Drohnen, die Informationsstelle Militarisierung und das Forum Informatiker*innen für Frieden und gesellschaftliche Verantwortung stellen sich dieser Herausforderung und zeigen, warum Praktiken der „gezielten Tötung“ (targeted killing) mit Systemen wie Lavender als Kriegsverbrechen geächtet werden sollten.

*

Menschen, Dinge und Ereignisse werden zu „programmierbaren Daten“. Es geht um ‘Input’ und ‘Output’, Variable, Prozentzahlen, Prozesse und dergleichen, bis jeglicher Zusammenhang mit konkreten Dingen wegabstrahiert ist und nur noch abstrakte Graphen, Zahlenkolonnen und Ausdrucke übrigbleiben.“ Joseph Weizenbaum

Zahlreiche Artikel in den letzten Tagen berichteten über das KI-basierte System Lavender, das die israelischen Streitkräfte (IDF) einsetzen, u.a. um Hamas-Offiziere zu identifizieren und als menschliche Ziele (human targets) zu markieren. Die Markierungen werden an die jeweiligen IDF-Einheiten weitergegeben und ein weiteres System, Where’s Daddy?, wird daraufhin aktiviert, um die Zielpersonen zu verfolgen. Sobald sie ihre jeweiligen Wohnhäuser betreten haben, werden sie bombardiert. Meist nachts und in Anwesenheit ihrer Familien.

Die Medien hierzulande, wie der Spiegel, heise.de, die taz, Zeit online, der Freitag, die Berliner Morgenpost oder auch sehr ausführlich nd-aktuell, bezogen sich auf die investigative Recherche des israelischen Journalisten und Filmemacher Yuval Abraham. Er veröffentlichte diese im israelisch-palästinensischen Magazin +972 in Zusammenarbeit mit der unabhängigen, auf hebräisch erscheinenden Nachrichtenseite Local Call.

Bereits im November 2023 machte Abraham ein KI-gestütztes Befehls-, Kontroll- und Entscheidungsunterstützungssystem der IDF publik, dessen Einsatzzweck an der Markierung von Gebäuden und Strukturen, aus denen heraus militante Hamas-Kämpfer operieren sollen, ausgerichtet war: The Gospel. Lavender hingegen markiert laut Zeugenaussagen Menschen. Es stellt keine Koordinaten von Stützpunkten, sondern von Wohnhäusern zur Verfügung. Es erstellt eine Liste von Personen, die getötet werden sollen. Eine Kill list.

Nicht wenige Formulierungen, die Yuval Abraham und die interviewten Soldaten benutzen, verweisen uns in Gedanken unweigerlich zurück zu der Hoch-Zeit des „Global War on Terror“ der US nach dem elften September. Das Töten von Familien als Kollateralschäden – maschinell generierte Todeslisten – die Senkung der Bewertungsschwelle bei der Definition eines Militanten oder Terroristen – die militärisch und technisch erzeugte psychische Distanz zu den potenziellen Opfern in den Köpfen der Soldaten – die Farce des targeted killings, dass ausgereiftere Technologien gezieltere Tötungen mit weniger zivilen Opfern ermöglichen sollen; es liest sich fast wie ein Upgrade des von den US geführten Drohnenkrieges. Aber irgendwie auch wiederum nicht. Die massive Fehleranfälligkeit komplexer informationsverarbeitender Systeme zur Überwachung, Identifizierung und zur Erfassung von Individuen konnte seither nicht behoben werden. Und das, obwohl die KI-Forschung und -Entwicklung in den letzten fünfzehn Jahren Quantensprünge machte. Lavender ist solch ein repräsentatives und zugleich prägnantes Upgrade, das aus jenen Trial&Error Zonen (s.u.) entsprang, die im War on Terror errichtet wurden, um Kriegstechnologien zu erforschen – in Afghanistan, im Jemen, in Somalia und vielen weiteren zivilen Räumen der Welt, die als Kriegsgebiete oder als Combat Zones ausgewiesen wurden.

High Tech Krieg

So ist auch Lavender den verfügbaren Informationen zufolge eines jener militärischen Systeme, die Machine Learning nutzen, eben jenen Teilbereich der KI, der algorithmisch bzw. mit statistischen Methoden Daten analysiert, um Muster in ihnen zu erkennen. Diese Muster dienen als Basis für automatisierte Empfehlungen an Führungs- und Einsatzkräfte, um sie auf verschiedenen Ebenen der Befehlskette bei der Lösung halbstrukturierter und unstrukturierter Entscheidungsprozesse zu unterstützen. Aus diesem Grund spricht man bei dieser Technologie auch von einer datengetriebenen: data driven. Zusammen mit Systemen wie Gospel und seinen Begleitsystemen Fire Factory, das durch Zeitplan- und Priorisierungsfunktionen Angriffe vorbereitet, mit Depth of Wisdom, das das Tunnelnetz von Gaza kartiert, The Alchemist, das Warnungen vor möglichen Bedrohungen in Echtzeit an die Tablets der befehlshabenden Offiziere sendet, zeigt diese weitere Publikmachung von Lavender auch ein weiteres Mal, dass die Hemmschwelle, sich bei militärischen Operationen auf komplexe informationsverarbeitende Systeme zu verlassen, drastisch gesunken ist.

Die aktive und groß angelegte Entwicklungsphase bei diesem Ansatz zur Erfassung und Identifikation von Personen begann kurz nach der Jahrtausendwende im Zuge der Reaktionen auf die Terroranschläge am 11. September 2001, bei denen laut offiziellen Angaben 2996 Menschen in New York City und in Washington starben. Angesichts der gänzlich neuen Formen von Terroranschlägen und Attentaten wurden zahlreiche sicherheitsrelevante Förderprogramme vom Pentagon erlassen, u.a. im Bereich der rechnergestützten sozialen Netzwerkanalyse, bzw. den Computational Social Science (CSS) und dem Natural Language Processing (NLP), der komputativen Verarbeitung natürlicher Sprache. Datenanalyse-Unternehmen wie Palantir Technologies Inc., die auch im Jemen, im Irak, in Syrien, in der Ukraine, in Gaza und vielen weiteren Kriegen und Konflikten derzeit eine bedeutende Rolle spielen, begannen damals ihre kleinen, aber nicht zu unterschätzenden Imperien aufzubauen. Es waren eben jene IT-Unternehmen, die sich schnell auf die Überwachung von Individuen und die Analyse und Zusammenführung eigentlich getrennter Datenbestände spezialisierten, die in diesem Jahrtausend zu bedeutenden Playern wurden. Der weltweite Einsatz von Drohnen (UAVs) als technische Objekte ist somit seit Beginn des Jahrtausends nicht mehr trennbar von den technischen Systemen zur Überwachung, Aufklärung und für Kampfhandlungen, wie bspw. der Ausführung von signature strikes.

War on error

Spätestens im Juni 2011, als der damalige US-Präsident Barack Obama ankündigte, seine Truppen schrittweise aus Afghanistan abzuziehen, begann sie, die militärische Ära von Identifizierungen und gezielten Tötungen (Targeted Killings) von Feinden mittels Drohnen. Sie wurden zur Waffe der Wahl, zu einem zentralen Element des High Tech Krieges. Ohne Afghanistan, Jemen, Somalia u.v.w. Ländern, die im War on Terror zu Combat Zones mutierten, die quasi als sicherheitsbehördlich forcierter Nebeneffekt als Trial&Error Zone dienten, wäre diese Waffengattung heute in ihrer erweiterten und weit ausgereifteren Form nicht denkbar gewesen. Systeme und Forschungsprojekte wie Project Maven, SKYNET, Gorgon Stare im Drohnenkrieg, Palantirs MetaConstellation in der Ukraine oder die Artificial Intelligence Platform AIP for Defense, welche mit großer Wahrscheinlichkeit derzeit auch in Gaza zum Einsatz kommt, zeigen der zivilen Öffentlichkeit den Weg auf, den Staaten und Technologieunternehmen im War on Terror einschlugen.

Der afghanische Journalist Emran Feroz sagte in einem Interview im Jahr 2021 mit Democracy Now!: „We see how the war on terror in Afghanistan started and how it is ending now: It’s with drones and civilian casualties“. Bereits der allererste Angriff am 7. Oktober 2001 traf nicht Taliban-Chef Mullah Omar, sondern namenlose Afghanen (Namen der Opfer von Drohnenangriffen wurden in der Regel geheimgehalten), so Feroz weiter. „Dieses Szenario hat sich stets wiederholt. Bis heute.“ Dies sagte er kurz nachdem publik wurde, dass die Opfer des letzten US-Drohnenschlags im Afghanistankrieg vom 29. August 2021 nahe des Kabuler Flughafens keine IS-K Kämpfer waren, wie vom US-Geheimdienst vermutet, sondern Zemari Ahmadi, langjähriger Mitarbeiter einer US-Hilfsgruppe, drei seiner Kinder, Zamir (20), Faisal (16) und Farzad (10), Ahmadis Cousin Naser (30), drei Kinder von Ahmadis Bruder Romal, Arwin (7), Benyamin (6) und Hayat (2) und zwei 3-jährige Mädchen, Malika und Somaya.

Multi Domain Operationen

Der Drohnenkrieg geht weiter, in einer unaufhörlichen Dynamik. Auch die Bundeswehr rüstet in Sachen unbemenschter Systeme auf. Unter Ausschluss der Zivilgesellschaft wurde die Vereinbarung im Koalitionsvertrag 2021, dass Drohnen der Bundeswehr nur “unter verbindlichen und transparenten Bedingungen und unter Berücksichtigung ethischer und sicherheitspolitischer Aspekte” (Koal.Vertr. S. 118) bewaffnet werden können, missachtet. Der Haushaltsausschuss des Bundestags genehmigte am 6. April 2022 die Beschaffung von Präzisionsraketen aus Israel, die noch in diesem Jahr an die Bundeswehr für die HeronTP Drohnen geliefert werden sollen. Auch zur Abwehr von Drohnenschwärmen werden derzeit Systeme mit Machine Learning Komponenten bei der Bundeswehr entwickelt. Ziel von GhostPlay bspw., einem Simulationssystem zur „KI-basierten Entscheidungsfindung in Maschinengeschwindigkeit“, ist es, während des Gefechts so schnell Daten aufarbeiten zu können, dass Soldatinnen und Soldaten mehr Zeit bekommen, „ethische und informierte Entscheidungen zu treffen“ – so zumindest die militärische Vision von Gary Schaal, dem Leiter des BW-Forschungsprojekts.

Wie Lavender reiht sich auch Ghostplay in diesen Forschungs- und Entwicklungsstrang von sicherheitstechnologischen bzw. militärischen Systemen zum Man Machine Teaming (MMT) ein: komplexe informationsverarbeitende Systeme zur Navigation, Durchführung und zur effektiveren Entscheidungsfindung in multidimensionalen Einsatzgebieten. Diese Einsatzgebiete werden von der Bundeswehr als gläserne Gefechtsfelder bezeichnet, von den US und der NATO als Transparent Battlefields, und die dort notwendige Operationspraxis als Multi Domain Operations (MDO). Auf diesem Konzept, MDO, baut auch die am 4. April 2024 vorgestellte Strukturreform der Bundeswehr auf: auf komplexe militärische Operationen zu Land, zu Wasser, in der Luft, im Weltraum und im Cyberspace. Das Planungsamt der Bundeswehr beschreibt ihren Umbruch mit folgenden Worten: „Mit Multi-Domain Operations verbinden sich neben der Technik mehrere mindestens genauso wichtige nicht-technische Aspekte: Fragen zur Führungsphilosophie, angepasste Führungsverfahren und -prozesse, Ausbildung und die Einstellung der Menschen (mindset).“

Mindsets

Lavender spielte den Recherchen von +972 zufolge insbesondere in den ersten Wochen nach dem Überfall der Hamas auf Israel am 7. Oktober 2023, bei dem, u.a. auch durch intelligente Waffensysteme und Kamikazedrohnen, 1200 Männer, Frauen und Kinder ermordet und rund 240 Menschen entführt und als Geiseln genommen wurden, eine zentrale Rolle für die israelischen Streitkräfte. Die IDF setzte offenbar großes Vertrauen in die möglichst fehlerfreie und zielgerichtete Finalität, die Lavender eingeschrieben zu sein schien. Doch so wie auch im US-amerikanischen Drohnenprogramm, in dem technische Fehler zu unzähligen zivilen Todesopfern im Laufe der Jahre führten, so war laut den von Yuval Abraham zitierten Zeugen ein Wissen um diese faktische Fehleranfälligkeit, zumindest in Geheimdienstkreisen und der militärischen Führungselite, auch bei den Einsätzen mit Lavender vorhanden. Israelische Geheimdienstmitarbeiter:innen überprüften den Zeugen zufolge direkt nach dem 7. Oktober die Genauigkeit von Lavender. Sie führten manuelle Zufallsstichproben von jeweils mehreren hundert Zielen durch, die von dem Programm markiert wurden.

Die methodische Umsetzung und die völkerrechtlichen Maßstäbe dieser stichprobenhaften händischen Überprüfung sind jedoch unbekannt, sodass aus der Recherche heraus nicht mehr zu schließen ist, als dass die 90%ige Treffergenauigkeit, die sich aus den Testdurchläufen ergeben hat, nach den eigenen Maßstäben der IDF als tolerierbar erachtet wurde. Mit anderen Worten: 10 Prozent der zur gezielten Tötung unter Inkaufnahme weiterer ziviler Opfer vorgesehenen menschlichen Ziele waren keine Kämpfer des militärischen Flügels der Hamas. Insbesondere Verwandte, Nachbarn, Zivilschutzbeamte und Polizisten wurden fälschlicherweise von Lavender markiert, da ihre Verhaltens- und Kommunikationsmuster jenen bekannter Hamas-nahen Militanten glichen. Auch Personen, die zufällig denselben Namen oder Spitznamen trugen oder ein Mobilfunktelefon benutzten, das zuvor einem Hamas-Kämpfer gehörte, wurden häufig falsch markiert. Mit der Zeit wurden auch jene, die rangniedrigeren Hamas-Mitgliedern glichen, markiert, da die israelische Armee ihre Trainings-Datenbank zum maschinellen Lernen sehr schnell mit Datensätzen nicht-befehlshabender Hamas-Kämpfer und Mitarbeiter der Zivilverwaltung erweiterte. Auf diese Weise gerieten Abertausende per default in den Kreis der Verdächtigen. Laut +972 an manchen Tagen bis zu 37.000.

Collateral Murder

Den interviewten Soldaten zufolge entschied die Armee in den ersten Kriegswochen, dass bei jedem, der als niedrigrangiger Hamas markiert worden war, 5–20 zivile Todesopfer toleriert werden können, wobei die konkrete Zahl der tatsächlich anwesenden und getöteten Zivilist:innen während eines Angriffs in der Praxis mit ziemlicher Sicherheit kaum überprüft und erfasst wurde. Bei ranghohen, bspw. einem Bataillons- oder Brigadekommandeur, sollen laut Bericht in +972 sogar mehr als 100 zivile Opfer zulässig gewesen sein. Diese Rechnung auf 37.000 Personen anzuwenden mit einer Fehlerquelle von 10% erscheint grausam. Doch nach den Berichten wurde diese Abwägung gemacht und in Teilen der israelischen Armee wurde demnach eine hohe Zahl zivile Opfer billigend in Kauf genommen. Eine der erschreckenden Erkenntnisse, wenn man diese Rechnung aus dem abstrakten Rechenraum ins Konkrete überführt, ist, dass „die meisten Menschen, die sie getötet haben, Frauen und Kinder waren“. Denn markierte Personen wurden in der Regel nachts und in ihren Wohnhäusern durch signature strikes angegriffen, während auch die gesamte Familie anwesend war. Dies geschah angeblich aus dem einfachen Grund, dass die Ziele auf diese Weise leichter zu lokalisieren waren.

Daniel Hale, ein ehemaliger Geheimdienstanalyst der US Air Force, der am 27. Juli 2021 zu 45 Monaten Gefängnis verurteilt wurde, nachdem er sich schuldig bekannt hatte, Regierungsdokumente durchgesickert zu haben, die das Innenleben und die schweren zivilen Kosten des US-Drohnenprogramms in den angegriffenen Gebieten aufgedeckt haben, sagte vor Gericht, er glaube, es sei „notwendig, die Lüge zu zerstreuen, dass Drohnenkriege uns schützen und dass unser Leben mehr wert ist als ihres.“ Er führte weiter aus, dass „bei der Drohnenkriegsführung manchmal neun von zehn Getöteten unschuldig“ seien: „Du musst einen Teil deines Gewissens töten, um deinen Job zu machen.“

Offenbar wird bei Soldatinnen und Soldaten aktiv versucht (nicht nur in High Tech Kriegen), es ihnen unmöglich zu machen, sich mit der Arendt’schen inneren Frage zu konfrontieren: „Kann ich mit dem, was ich getan habe, noch weiterleben?“. Chelsea Manning, Edward Snowden, Brandon Bryant, Daniel Hale und viele weitere Soldatinnen, Soldaten und Geheimdienstmitarbeiter:innen, die zu Deserteuren oder Whistleblowern wurden, schafften es dennoch.

Denn diese Erkenntnis ist nicht wegzuleugnen: Eine psychologische Distanz zu den potentiellen zivilen Opfern muss Soldatinnen und Soldaten nicht nur antrainiert werden, sie muss auch kontinuierlich aufrechterhalten bleiben, um strategisch solch unverhältnismäßig hohe Zahlen an unschuldigen Opfern mit einzuberechnen und diese taktisch in Militärschläge einbauen zu können. Die Zivilgesellschaft lernte u.a. von Whistleblowern wie dem ehemaligen US-Drohnenpiloten Brandon Bryant: Auch ein Töten auf abstrakter Ebene und mit räumlicher Distanz lässt einen nicht einfach kalt – niemanden. Maschinen jedoch haben kein Herz. Sie sind kalt. Sie lösen die Verantwortung vom Menschen, der in seinem Herzen Mitleid empfindet, selbst wenn es voll Trauer und hasserfüllt ist. So die Aussage eines Soldaten im Gespräch mit +972: „Der statistische Ansatz hat etwas an sich, das Soldaten an eine bestimmte Norm und einen bestimmten Standard festlegt. Bei diesen Operationen kam es zu einer unlogischen Anzahl von Bombenangriffen. Das ist in meiner Erinnerung beispiellos. Und ich habe mehr Vertrauen in einen statistischen Mechanismus als in einen Soldaten, der vor zwei Tagen einen Freund verloren hat. Alle dort, mich eingeschlossen, haben am 7. Oktober Menschen verloren. Die Maschine hat es kaltherzig gemacht. Und das hat es einfacher gemacht.“

Maschinenmoral?

Dieser Gedankengang führt uns unweigerlich zu jenen Ansätzen in der Maschinenethik, die davon überzeugt sind, dass Künstliche Intelligenzen nicht nur Soldatinnen und Soldaten zu ethischen Entscheidungen in multidimensionalen Gefechtsfeldern verhelfen können, sondern dass unbemenschte KI-Systeme auch selbst dazu in der Lage seien, „auf dem Schlachtfeld in ethischerer Weise zu handeln als menschliche Soldaten (…). Sie werden sich in schwierigen Umständen menschlicher verhalten können als menschliche Wesen“, so der bekannte Robotiker und Pentagonberater Ronald C. Arkin.

Künstliche Intelligenz hat kein Gewissen. Für Drohnenpilot:innen oder Soldat:innen in den Einsatzzentralen wiederum, die sich auf sie verlassen müssen, ist es vermutlich nur schwer mit dem eigenen Gewissen vereinbar, sich oft ausschließlich auf die Auswertungs(un)genauigkeit solcher komplexer informationsverarbeitender Systeme verlassen zu müssen und auf die vorhergehenden formalen Befehls- und Ereignisketten angewiesen zu sein, während (Un-)Fälle, wie die von Zabet Amanullah, ihren Kamerad:innen tagtäglich passieren. Amanullah war ein im Wahlkampf stehender Zivilist, der im Jahr 2011 durch eine US-Drohne „versehentlich“ getötet wurde, da die Drohnenpilot:innen „keinen Namen gejagt haben, sondern auf ein Mobiltelefon zielten“, dessen Telefonnummer unter einem wichtigen Taliban-Anführer verzeichnet war.

Ein Wissen um die hohe Fehleranfälligkeit von datengetriebenen technischen Systemen zur Erfassung und Identifizierung von Personen ist ihr stetiger Begleiter. Auf der anderen Seite sind sie mit dem Fakt konfrontiert, ständig sinnlich und geistig bei der Analyse von unsagbaren Massen an Informationen an ihre Grenzen zu stoßen. Nicht selten mit tödlichen Folgen: „Als bei einem Hubschrauberangriff im Februar 2011 dreiundzwanzig Gäste einer afghanischen Hochzeit getötet wurden, konnten die in Nevada auf Knöpfe drückenden Bediener der Aufklärungsdrohne die Schuld für ihren Irrtum auf die Informationsüberflutung schieben und sich darauf berufen, daß ihre Bildschirme mit Daten »vollgerotzt« würden – sie verloren den Überblick, gerade weil sie auf die Bildschirme schauten. Zu den Opfern des Bombardements gehörten auch Kinder, aber das Bedienpersonal »hatte sie inmitten des Strudels von Daten übersehen« – »wie ein Büroangestellter, dem in den täglichen Mailfluten eine dringliche Nachricht entgeht«. Und dem niemand vorwerfen könnte, daß er sich damit unmoralisch verhalten habe…“(Z. Bauman, D. Lyon, und F. Jakubzik, „Daten, Drohnen, Disziplin: Ein Gespräch über flüchtige Überwachung“ (Berlin: Suhrkamp Verlag, 2013))

„Die Bilder, die sich von jedem Aspekt des Lebens abgetrennt haben, verschmelzen in einem gemeinsamen Lauf, in dem die Einheit dieses Lebens nicht wiederhergestellt werden kann.“
Guy Debord

Was tun?

Wir sehen: Genauso wenig wie Drohnen sind auch Systeme wie Lavender nicht einfach nur Werkzeuge, um etwas zu tun, sondern ihnen steht eine Finalität eingeschrieben. Eine Finalität, die sich jedoch erst durch technische, zweckgerichtete, in diesem Falle durch militärische Handlungen in Welt manifestiert. Dieser Zweck steht oft jenseits des Herstellungsprozesses der technischen Systeme selbst, was die Kontrolle über die Forschung, Entwicklung und Verbreitung dieser Technologien erschwert, bisweilen gar unmöglich macht. Bereits Max Weber, der Begründer der Soziologie als Wissenschaft, die in Verbindung mit den Computerwissenschaften Bereiche wie die Computational Social Science erst denkbar und Systeme wie Lavender somit auch erst entwerfbar machte, wies bereits vor 100 Jahren darauf hin, dass wir in der westlichen Welt meist nicht wissen, wie unsere moderne technische Lebenswelt funktioniert. Es sei denn, wir sind Designer:innen, Programmierer:innen oder Ingenieur:innen, die sie entwerfen, oder eben Fachkräfte, die sie gestalten. Ansonsten, im Berufs- und Alltagsleben wissen wir meist ausschließlich, wie wir unser jeweiliges Verhalten anpassen müssen, damit unsere technischen Objekte ihre jeweiligen Funktionen erfüllen können. Ob nun eine militärische Handlung im gläsernen Gefechtsfeld, oder eine zivile Handlung in sozialen Netzwerken: „Marketing or death by drone, it’s the same math … You could easily turn Facebook into that. You don’t have to change the programming, just the purpose of why you have the system“ (Chelsea Manning). Bei Deep Learning, (also jenen KI-Forschungs- und Anwendungsbereich von dem wir heute in erster Linie sprechen, sprechen wir von Künstlicher Intelligenz) jedoch können sich nicht einmal mehr die Fachkräfte selbst die inneren Funktionsweisen erklären bzw. wie die KI sich beim Lernen verhält.

Die Lehren, die die Zivilgesellschaft aus solch einer weiteren Veröffentlichung wie der von +972 zu Lavender ziehen kann, ist die, dass die technischen Fehler trotz Quantensprüngen in der technologischen Entwicklung noch stets dieselben tödlichen Fehler sind wie vor 15 Jahren. Was sich jedoch in den High Tech Kriegen unserer Zeit bedeutend weiterentwickelt und manifestiert hat, ist der Glaube, in einer technisch erzeugten Kriegswirklichkeit unabhängig von ihren Erzeugungstechnologien autonome, informierte und auch ethische Entscheidungen treffen zu können.

Systeme wie Lavender funktionieren letztendlich nicht anders als eine große ungenaue Bombe. In diesem Wissen können Soldat:innen die Verantwortung für ihre Tötungsentscheidungen nicht an Maschinen und Systeme delegieren. Das muss auch technologiebegeisterten Militärs und Politiker:innen und der Zivilgesellschaft bewusst sein. Insofern treffen diese eine grundlegende ethische Entscheidung, nämlich den Befehl zum Einsatz der Systeme, wissend um die Folgen und Konsequenzen ihrer Handlungen.

Daher wäre der naheliegende und dringende nächste Schritt die völkerrechtliche Ächtung von Praktiken des Targeted Killing mit unterstützenden KI-Systemen wie Lavender als Kriegsverbrechen.

Anm.d.Red.: Diese Stellungnahme wurde von den oben aufgeführten Friedensbewegungen und Forschungsinstituten erarbeitet. Sie werden vertreten von Susanne Grabenhorst (Arbeitskreis gegen bewaffnete Drohnen), Christian Heck (Ground Zero), Christoph Marischka (Informationsstelle Militarisierung) und Rainer Rehak (Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung).

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.