Wenn wir den künftigen Einsatz von KI in der Kriegsführung betrachten, dürfen wir unsere Hoffnungen nicht auf Verbesserungen hinsichtlich Genauigkeit, Zuverlässigkeit oder verantwortungsvoller Nutzung setzen. Um eine Wiederholung der im Gaza-Krieg zu beobachtenden, technologisch optimierten, systematischen und groß angelegten Tötungen von Zivilist*innen zu verhindern, müssen wir – wie Jens Hälterlein argumentiert – internationalen Druck aufbauen, die Täter zur Rechenschaft ziehen und eine international verbindliche Regulierung des militärischen Einsatzes von KI anstreben.
*
Der aktuelle Gaza-Krieg in all seinen schrecklichen Facetten sollte auf vielen Ebenen zu einem Umdenken führen. Eine dieser Ebenen betrifft die Frage, welche Auswirkungen Künstliche Intelligenz (KI) auf die Kriegsführung hat. Denn im Gegensatz zu den Versprechen der Befürworter*innen militärischer KI, hat deren Einsatz durch das israelische Militär, die Israeli Defence Forces (IDF), uns vor Augen geführt, dass diese Technologie statt präziserer Angriffe vor allem eines bewirkt: das Töten zu beschleunigen. Damit setzt sich eine Entwicklung fort, die mit dem Drohnenkrieg des US Militärs begonnen hatte. Ohne den Einsatz von KI-basierten Computerprogrammen wie Lavender, The Gospel und Where’s Daddy?, die Ziele identifizieren und markieren sowie den Zeitpunkt von Bombardierungen festlegen, wäre eine der tödlichsten und zerstörerischten militärischen Kampagnen der neueren Geschichte nicht möglich gewesen – vom Einsatz atomarer Waffen, der aus unterschiedlichen Gründen keine Option darstellte, abgesehen.
„The Human-Machine Team“
The Gospel, Lavender und Where’s Daddy? sind Eigenentwicklungen der IDF-Einheit 8200, die u.a. für elektronische Aufklärung und Cyber-Spionage zuständig ist. Diese Einheit wurde seit Beginn 2021 von Brigadegeneral Yossi Sariel geleitet, der in einem, im selben Jahr unter einem Pseudonym publizierten Buch mit dem Titel „The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence“ dafür plädiert, KI in Kriegszeiten dafür zu nutzen, die durch die menschliche Komponente entstehende Verzögerung bei der Ziel- und Entscheidungsfindung zu überwinden. Bevor The Gospel dabei geholfen habe, die menschlichen Geschwindigkeitsbegrenzungen zu durchbrechen, habe die Produktion von 50 Zielen ein Jahr gedauert. Nun sei es möglich, 100 pro Tag zu generieren.
Insbesondere in den ersten Wochen der Operation Swords of Iron nahm KI eine so zentrale Rolle ein, dass die IDF bereits am 11. November 2023 verkünden konnte, 11.000 Ziele in Gaza bombardiert zu haben. Während das von Rüstungsindustrie und Militärs immer wieder artikulierte Versprechen, KI ermögliche eine Beschleunigung von Analyse-Prozessen und somit eine Erhöhung der militärischen Durchschlagskraft, somit ohne Zweifel eingelöst wurde, verkommt ein anderes häufig artikuliertes Versprechen zur Farce: dass mit dem Einsatz von KI auch die Präzision von Angriffen erhöht und somit die Zahl ziviler Todesopfer, die so genannte Kollateralschäden, reduziert werden könne.
Dieses Versprechen hat angesichts zunehmender Vorwürfe, Israel würde in Gaza systematisch Kriegsverbrechen oder sogar einen Genozid verüben, eine nicht zu unterschätzende Funktion. Denn laut Völkerrecht, dürfen militärische Operationen nicht einfach unter Einsatz aller vorhandenen Zerstörungs-Mittel ausgeführt werden. Stattdessen müssen hinreichende Vorsichtsmaßnahmen ergriffen werden, um Zivilist*innen so weit wie möglich zu verschonen. Und als eine solche Vorsichtsmaßnahme lässt sich der Einsatz von KI präsentieren. Dieses Versprechen erhöhter Präzision hat nicht nur gegenüber der Weltöffentlichkeit, sondern auch gegenüber den eher liberal eingestellten Teilen der eigenen Bevölkerung und der IDF eine wichtige legitimatorische, im Endeffekt psychologische Funktion. Dementsprechend verweist der IDF regelmäßig auf die verbesserte Genauigkeit militärischer Informationsverarbeitung durch KI und die sich daraus ergebenden Minimierung von Kollateralschäden.
Keine unbeabsichtigten Nebeneffekte
Die nackten Zahlen sprechen jedoch eine andere Sprache. Der Anteil der zivilen Todesopfer lag im Mai 2025 laut Angaben des IDF bei ca. 83%. Und auf Basis von Satelliten-Aufnahmen wurde berechnet, dass bereits im Januar 2024 etwa 69% aller Gebäude im Gaza-Streifen zerstört wurden. Dass die KI-unterstützten Angriffe zu diesem außergewöhnlich hohen Anteil an zivilen Opfern und einer flächendeckenden Zerstörung von Lebensraum geführt haben, ist keineswegs das Ergebnis fehlerhafter Daten, technischer Fehler bei deren automatisierten Analyse oder menschlichen Versagens im Umgang mit diesen Analysen. Es handelt sich nicht um unbeabsichtigte Nebenwirkungen fehlerhafter oder falsch eingesetzter Technologie.
Vielmehr sind sie Ausdruck davon, dass für die IDF maximale Lethalität wichtiger ist als Sorgfältigkeit bei der Zielauswahl. Zwar müssen die von den KI-Programmen generierten Outputs kontrolliert und bestätigt werden, bevor sie in Angriffe umgesetzt werden. Doch zum einen wurde in Anbetracht der schieren Masse an zu kontrollierenden Zielen von einem 4-Augen-Prinzip abgesehen und die Entscheidung einer einzelnen, häufig hierfür nur unzureichend ausgebildeten Person überlassen. Zum anderen weisen Aussagen von Soldat*innen, die für diese Aufgabe zuständig waren, darauf hin, dass angesichts der KI-bedingten Beschleunigung der Generierung von Zielen nun auch die Kontrolle dieser Ziele einem ungeheuren Zeitdruck unterlag, was eine sorgfältige Prüfung, wie sie noch vor dem 7. Oktober stattgefunden habe, zu einem Hemmschuh machte. Nach dem 7. Oktober standen pro ‚Prüfung‘ nur noch etwa 20 Sekunden zur Verfügung.
Daher ist es nur konsequent, dass trotz einer bekannten Fehlerquote von ca. 10% durch die menschlichen Operateure lediglich überprüft wurde, ob es sich bei einer von Lavender als Ziel markierten Person wahrscheinlich um einen Mann handelte. Ein weiterer Aspekt dieser Haltung beim IDF ist die Integration von Völkerrechts-Expert*innen in militärische Operationen, die konsequent die Legalität von Befehlen zu Bombardierungen bestätigt haben – trotz absehbarer hoher Kollateralschäden.
Prinzip der ‚Verhältnismäßigkeit‘
In diesem Fall muss laut Völkerrecht zu folge eigentlich eine Einschätzung und Abwägung der ‚Verhältnismäßigkeit‘ von erwartbarem militärischem Nutzen einerseits und möglichen zivilen Opfern andererseits stattfinden. Zu Beginn des Krieges wurden jedoch die internen Vorgaben des IDF hinsichtlich der akzeptablen Anzahl an zivilen Todesopfern bei Angriffen auf Hamas-Kämpfer niederen Ranges zeitweise pauschal auf 15 bis 20 und bei hochrangingen Hamas-Kämpfern auf über 100 hochgesetzt, ohne dass eine zeitraubende, fallspezifische Analyse der militärischen Bedeutung des Ziels erforderlich war.
In der Praxis war das völkerrechtliche Proportionalitätsprinzip also inexistent. Auch an dieser Stelle der Entscheidungskette wurde der menschliche Faktor dem Geschwindigkeitsdiktat der Technologie untergeordnet. Die Anwendung rechtlicher Expertise darf der Beschleunigung der ‚Kill-Chain‘ durch KI nicht im Wege stehen und verkommt so zur bloßen Legitimitätsbeschaffung für das massenhafte Töten von Zivilist*innen. Letzten Endes ermöglichte es KI, das völkerrechtliche Prinzip, nur militärische Ziele ins Visier nehmen zu dürfen, mit der Absicht, maximalen Zerstörung in Gaza zu bewirken, in Einklang zu bringen.
Dass KI in Gaza als Massenvernichtungswaffe eingesetzt wurde, kann zweifellos als Reaktion auf die Massaker vom 7. Oktober verstanden werden. In einer Vielzahl von Aussagen hochrangiger Militärs und Politiker*innen verbinden sich Schmerz und der Wunsch nach Rache mit der Forderung nach einer massenhaften Tötung von Palästinenser*innen ohne Rücksicht auf deren zivilen Status. In diesen Aussagen kommt eine Dehumanisierung palästinensischen Lebens zu Ausdruck, die für bestimmte Ausprägungen des Zionismus, das israelische Apartheitsregime und die moralischen Überzeugungen eines Teils der jüdischen Bevölkerung Israels schon lange vor dem 7. Oktober kennzeichnend war. In der Reduktion von menschlichen Angriffszielen auf statistische Datenkorrelate durch Programme wie Lavender findet diese Dehumanisierung ihre technologische Entsprechung.
Die Dahiya-Doktrin
Der Einsatz von KI als Massenvernichtungswaffe ist aber zugleich konsequenter Ausdruck der militärischen Strategie sowie des ‚ethischen‘ Codes des IDF. Beide wurden wiederum lange vor dem 7. Oktober entwickelt. Gemäß der Dahiya-Doktrin soll das IDF mit einer massiven, unverhältnismäßigen Zerstörung auf feindliche Aggressionen reagieren, um eine Abschreckung zu erwirken und zu verhindern, dass es zu einem Abnutzungskrieg kommt. Dabei werden zivile Gebäude und Infrastruktur, aber auch ganze Dörfer und sogar Städte als militärische Ziele behandelt, sofern von diesen eine Gefahr für Israel ausgehe.
Diese Doktrin der asymmetrischen Kriegsführung wurde 2008 verkündet und in der Folge in Strategie-Papieren entwickelt. Auch wenn sie keine offizielle Doktrin des IDF ist, entsprach das Vorgehen bei dessen militärischen Operationen in Gaza seit 2008 dem in der Dahiya-Doktrin skizzierten Vorgehen. Zudem basiert sie auf Prämissen, die im ethischen Code des IDF formuliert werden. Dort wird das Leben nicht-israelischer Zivilist*innen als weniger Wert als das von israelischen Soldat*inne betrachtet, weshalb es im Zweifelsfall vertretbar sei, erstere zu töten, wenn eine Gefahr für letztere bestehe.
Auch die als Momentum Plan betitelte Modernisierungsstrategie des IDF von 2020 greift die Dahiya-Doktrin auf, indem sie die schnelle Zerstörung feindlicher Kapazitäten, die sich in urbanen Umgebungen hinter ‚menschlichen Schutzschildern‘ verstecken würden, als Ziel ausgibt. Zugleich sollen eigene Verluste auf ein Minimum reduziert werden. Für das Erreichen dieser Ziele würde es u. a. darauf ankommen, die Bereiche in den Fokus zu stellen, in denen die IDF ihren Gegnern überlegen sind: Luftwaffe, militärischer Geheimdienst und Technologie. Mittels KI und Big Data könne die Identifikation feindlicher Ziele verbessert werden, um so viele dieser Ziele so schnell wie möglich aus der Luft anzugreifen.
Jenseits verbindlicher Regulierung?
Die Anwendung von KI als Massenvernichtungswaffe ist also kein ‚Versehen‘ und auch keine Tat im Affekt, sondern das Ergebnis des Zusammenspiels von militärstrategischen Imperativen, neuen technologischen Möglichkeiten und einer Dehumanisierung der Opfer. In öffentlichen ebenso wie in akademischen Debatten wird KI häufig als politisch neutrale, zwar fehlerhafte, aber ethisch und rechtlich gestalt- und regulierbare Technologie betrachtet. Doch ihr Einsatz im Gaza-Krieg zeigt: sie ist Teil einer Logik der Abschreckung durch maximale Zerstörung ohne Rücksicht auf zivile Verluste. Diese Logik ist nicht aus dem Ruder gelaufen, sondern hat in KI ihren konsequenten technologischen Ausdruck gefunden. Technologischer Fortschritt dient hier nicht einer sauberen oder humaneren Kriegsführung, sondern der Exekution von nekropolitischer Macht über Leben und Tot.
Daher sollten wir mit Blick auf den zukünftigen Einsatz von KI in Kriegen, ob nun durch die IDF oder andere Armeen, ebenso wenig auf eine Verbesserung ihrer Genauigkeit und Verlässlichkeit wie auf einen verantwortungsvollen Umgang mit ihr vertrauen. Die einzige Möglichkeit, die Wiederholung einer derartigen technologisch optimierten, systematischen und massenhaften Tötung von Zivilist*innen zu vermeiden, besteht darin, internationalen Druck aufzubauen, Verantwortliche konsequent zur Rechenschaft zu ziehen und eine international verbindliche Regulierung des militärischen Einsatzes von KI zu erwirken. Dies mag derzeit utopisch klingen, zumal neben Israel zahlreiche weitere Staaten eine solche Regulierung im Rahmen der UN-Waffenkonvention bislang ablehnen. Bei anderen Massenvernichtungswaffen wurde dieses utopische Ziel allerdings erreicht und es gibt keinen Grund anzunehmen, dass dies nicht auch im Falle von KI möglich ist.