Absolutierte Prävention: Big Data, KI und ‚die Zukunft als Bedrohung‘

David Cronenberg: „Stereo“ (1969). Bildlizenz: Emergent Films
David Cronenberg: „Stereo“ (1969). Bildlizenz: Emergent Films

Sicherheitspolitische Konzepte – wie das der Präemption – erfordern Technologien, die die Zukunft möglichst präzise vorhersagen. Hierbei sind datengetriebene Prognoseverfahren von zentraler Bedeutung. Hierzu gehören Big Data und KI als Instrumente zur Antizipation und proaktiven Prävention zukünftiger Krisen, Konflikte, Kriminalität und terroristischer Bedrohungen. Auch weitergehenden militärischen und sicherheitspolitischen Trends zur Kontrolle und Stabilisierung der Zukunft wird hierbei eine tragende Rolle zugeschrieben. Vor diesem Hintergrund fordert Christian Heck eine Neubewertung der ethischen und rechtlichen Grundlagen solcher Maßnahmen und verweist auf deren Auswirkungen auf Rechtsstaatlichkeit, Völkerrecht und Menschenrechte. Er argumentiert, dass ein Verständnis der kulturellen und sozialen Folgen und Grenzen dieser präemptiven Systeme unabdingbar ist, um gesellschaftliche Freiheit und Teilhabe an demokratischen Prozessen aufrecht zu erhalten.

*

Seit anderthalb Jahren wird die Zivilbevölkerung im Gazastreifen auf mehreren Ebenen entmenschlicht. Eine davon ist die algorithmische. Unter anderem durch den Einsatz künstlich intelligenter Entscheidungsunterstützungssysteme (KI-DSS) im operativen Einsatz der israelischen Armee, hat dieser Krieg eine Dimension der Grausamkeit angenommen, die für die Weltöffentlichkeit weder vorstellbar noch nachvollziehbar ist. Nachdem der Filmemacher und Journalist Yuval Abraham das KI-System Lavender publik gemacht hatte, veröffentlichte er vor etwa sieben Wochen einen Bericht über die Praxis des datengetriebenen gezielten Tötens mittels großer vortrainierter Sprachmodelle (LLM) in Chatbot-ähnlichen Systemen á la Chat-GPT.

Die ‚Künstlichkeit‘ dieser Art von Mensch-Maschine-Interaktion, die durch ‚intelligente‘ Systeme zur Tötung von Menschen erzeugt wird, wirft völlig neue völkerrechtliche und ethische Fragen auf, mit denen wir uns als Zivilgesellschaft auseinandersetzen müssen. Dieser Trend setzte nur wenige Monate nach der Veröffentlichung des ChatGPT-Programms von OpenAI ein. Die Armeen begannen sehr schnell, damit zu experimentieren. Das US-amerikanische Datenanalyse-Unternehmen Palantir Inc. war das erste, das mit ‚AIP for Defence‘ im April 2023 ein solches System speziell für militärische Zwecke auf den Markt brachte. AIP unterstützt militärische Einsätze, indem es u.a. feindliche Stellungen erkennt, durch eine Chatfunktion Gegenmaßnahmen vorschlägt und gegebenenfalls auch autonom ausführt – wie z.B. das Starten einer Aufklärungsdrohne ins Zielgebiet.

Bereits wenige Wochen später unterzeichnete das erste Unternehmen in Zusammenarbeit mit der UK Defence & National Security einen Vertrag mit Palantir. Inzwischen ist Meta Inc. mit ‚Defense Llama‘ gefolgt, und Anfang März diesen Jahres startete das Pentagon in Zusammenarbeit mit Scale AI (in Verbund mit META), Anduril und Microsoft (in Verbund mit OpenAI) das Programm ‚Thunderforge‘, das darauf abzielt, modernste Sprachmodelle, KI-gesteuerte Simulationen und Wargaming-Tools für die militärische Entscheidungsfindung in machine speed zu nutzen.

Fiction as function as fact

Seit 2013 können wir beobachten, dass Palantir Inc. neben Meta, Google, OpenAI, Amazon, Microsoft und vielen anderen großen Tech-Unternehmen eine zunehmend entscheidende Rolle in der datengetriebenen Kriegsführung spielt. Die deutschlandweite Einführung der Softwareprodukte von Palantir für vorausschauende Polizeiarbeit (Predictive Policing) kann daher nicht losgelöst vom derzeitigen Kriegsgeschehen betrachtet werden, da mit diesen Systemen und Waffen auch Zivilist*innen in Gaza und in der Ukraine getötet werden. Im Jahr 2023 wurde am Beispiel der Predictive Policing Einsätze in Bayern (VeRA), Nordrhein-Westfalen (DAR) und Hessen (hessenDATA) die Einführung von Palantir-Produkten zur bundesweiten Datenanalyse erstmals diskutiert.

Der hessische Innenminister Peter Beuth plädierte damals im hessischen Landtag für die flächendeckende Einführung des Softwaresystems hessenDATA, um terroristische Anschläge in Deutschland und Europa besser vorhersagen und antizipieren zu können: „Mit hessenDATA haben wir die Polizeiarbeit in ein neues digitales Zeitalter gehoben. Während Ermittler in anderen Bundesländern über Tage und Wochen Akten wälzen und mögliche Querverbindungen aufwendig mit Textmarkern hervorheben, gibt es in Hessen bereits seit mehreren Jahren eine moderne Software, welche die Ermittlungen erheblich beschleunigt, qualitativ deutlich verbessert und zum festen Bestandteil der Arbeit unserer Ermittlerinnen und Ermittler geworden ist.“, so Beuth.

Diese Software-Systeme, in denen u.a. das Software-System ‚Gotham‘ implementiert wurde, tragen ihre Wurzeln im US-amerikanischen Global War on Terror nach dem 11. September 2001. Sie kombinieren digitale Verhaltensdaten aus dem Internet und sozialen Medien mit Einträgen aus verschiedenen polizeilichen Datenbanken, Verbindungsdaten aus der Telefonüberwachung und vielem mehr, um potenzielle Straftaten und Täter zu identifizieren. ‚Gotham‘ wurde zuerst von der Joint Improvised-Threat Defeat Organization (JIEDDO) getestet, einer Einheit des US-Verteidigungsministeriums (DoD), die gegründet wurde, um den neuen asymmetrischen Kriegstaktiken der Taliban und al-Qaida zu begegnen. CIA, NSA und FBI wurden schnell Kunden von Palantir. Auch die europäische Polizeibehörde EUROPOL nutzt inzwischen ihre Produkte zur Datenauswertung.

In Deutschland hat die Debatte um die bundesweite Einführung der Palantir-Software nun auch eine entscheidende Wendung genommen. Nachdem der Vorstoß zuvor auf breite Skepsis gestoßen war, hat der Bundesrat vor wenigen Wochen einem Antrag der Länder Bayern und Sachsen-Anhalt zugestimmt, in dem die Bundesregierung aufgefordert wird, „zeitnah eine zentral betriebene, digital souveräne, wirtschaftlich tragbare und rechtlich zulässige automatisierte Datenanalyseplattform für alle Polizeien des Bundes und der Länder bereitzustellen.“ Dass es sich dabei um Palantir handelt, ist kein Geheimnis, zumal der Pilotbetrieb von VeRA in Bayern im Dezember 2024 endete und nun erfolgreich in den Echtbetrieb übergegangen ist.

Die von Peter Beuth im Jahr 2023 hervorgehobene ‚qualitative Verbesserung‘ der polizeilichen Nutzung von Palantir-Produkten lässt sich jedoch weder für VeRA noch für hessenDATA empirisch eindeutig nachweisen. Denn beim Predictive Policing geht es in der Regel um die Erkennung von Anschlägen und anderen Straftaten, die in der Zukunft liegen. Damit sind Straftaten gemeint, die noch nicht stattgefunden haben und durch präventives Einschreiten verhindert werden sollen. Ebenso Straftaten, die ohne präventive Maßnahmen möglicherweise nicht stattgefunden hätten. Infolgedessen bleibt die Abstraktion der aufgezeichneten Bewegungen, Posts und Straftaten in symbolische Repräsentationen, hin zu medialen Phänomenen und schließlich zu konkreten Straftaten weitgehend im Bereich der Spekulation.

Systeme wie hessenDATA zu entwickeln und in der vorausschauenden Polizeiarbeit einzusetzen, bedeutet in gewisser Weise, Fiktionen 1. in technische Systeme, 2. aber auch in den beruflichen Alltag von Sicherheitsbeamt*innen einzuschreiben. Fiktionen als Funktionen, die versuchen, aus individuell beobachteten Vorgängen, Spuren und äußeren Handlungen möglichst konkret auf zukünftige Ereignisse, z.B. einen geplanten Anschlag, zu schließen: Fictions as Functions as Fact.

Der ‚Gefährder‘ als personifiziertes Statut präemptiver Sicherheitspolitik

Was wirklich ganz konkret und im Hier und Jetzt aber in Erscheinung tritt, ist neben dem antizipierten Verbrechen der vorhergesagte Verbrecher. Dieser wird mit dem vagen polizei-fachlichen Begriff des ‚Gefährders‘ bezeichnet. Ein ‚Gefährder‘ ist jemand, der abstrakte Gefahrenlagen personifiziert, die durch Systeme wie hessenDATA oder auch Risikobewertungsinstrumente wie RADAR-iTE konkretisiert werden. Zum Beispiel, wenn die errechneten Verhaltensmuster einer Person aufgrund ihres ‚kriminellen Potenzials‘ eine abstrakte Gefahr darstellen, aus der sich eine zukünftige konkrete Gefahr ableiten lässt. Verstärkt wird dieses ‚Potential‘ etwa, wenn es sich um eine*n Migrant*in in Deutschland handelt, denn gerade nach Anschlägen in Deutschland durch Personen mit Migrationshintergrund wird der Ruf nach präemptiven Systemen für polizeiliche Ermittlungen immer wieder laut. Oder wenn jemand psychisch instabil ist oder sich in einer psychosozialen Krise befindet.

Zu diesem Zweck haben die Bundesländer u.a. vorgeschlagen, dass Palantir auf Daten von Gesundheits- und Ausländerbehörden zugreifen darf. Es ist aber auch möglich, und ein Gedanke von Simone Ruf von der Gesellschaft für Freiheitsrechte (GFF) ist gar nicht so abwegig, dass eine Person, nur weil sie im Baumarkt „Kleber kauft“, von einer Polizeisoftware erfasst wird, da Kleber auch für Zwecke des zivilen Ungehorsams von Klimaaktivist*innen genutzt werden könnte.

So hört und liest man derzeit in Politiker*innenreden nicht nur von Aktivistinnen und Aktivisten der letzten Generation, sondern seit Juni 2024 auch vermehrt vom personifizierten Status präventiver Sicherheitspolitik, dem ‚Gefährder‘, in einem Satz mit Straftäter*innen. Seit dem islamistisch motivierten Messerangriff im letzten Sommer in Mannheim, der fünf Demonstrant*innen schwer verletzte und den zu Hilfe eilenden Polizist*innen Rouven Lauer tötete, fordern viele Politiker*innen, dass Personen wie der Angreifer Sulaiman Ataee verhaftet und abgeschoben werden müssen, noch bevor sie zur Tat schreiten können. Am 20. August 2024, kurz nachdem Olaf Scholz im Bundestag gesagt hatte „Schwerstkriminelle und terroristische Gefährder haben hier nichts verloren. (…) Solche Straftäter gehören abgeschoben“, startete vom Leipziger Flughafen ein Flugzeug mit 28 Menschen aus Afghanistan an Bord zur Abschiebung. Einige von ihnen sollen auch ‚Gefährder‘ gewesen sein.

Es zeigt sich, dass Konzepte wie die präemptive Sicherheitspolitik nicht nur Technologien voraussetzen, die die Zukunft möglichst präzise antizipieren, sondern dass solche Politiken auch nur Mehrheit finden, wenn sie dem Konzept der Prävention einen finalen Charakter verleihen. Daher sind sowohl die ‚kollektive Akzeptanz der Zukunft als Bedrohung‘ als auch die damit verbundenen negativen Folgen für die Gesellschaft Voraussetzungen für die Durchsetzbarkeit präemptiver Maßnahmen.

Ein Kommentar zu “Absolutierte Prävention: Big Data, KI und ‚die Zukunft als Bedrohung‘

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..