Wer sind wir in Zeiten des Krieges? Plädoyer für eine gesellschaftliche Auseinandersetzung

Wer verfolgt noch den Krieg, den das Putin-Regime der Ukraine erklärt hat? Wer beschäftigt sich mit den Ursachen und Hintergründen? Wer ist bereit die Auseinandersetzung nicht allein vom Eigennutz abhängig zu machen und die Auswirkungen nicht allein an persönlichem Schaden zu bemessen? Diesen Fragen liegt nicht zuletzt die Frage nach dem gesellschaftlichen Wir zu Grunde, wie der Medientheoretiker Christian Heck in seinem Plädoyer für eine Auseinandersetzung mit Sprache und Technik argumentiert.

*

20 Jahre Afghanistankrieg sollten mit dem praktisch kampflosen Einzug der militant-islamistischen Taliban in Kabul und einem abrupten Abzug westlicher Streitkräfte ihr Ende nehmen. Doch der Krieg in Afghanistan geht weiter. Mit extralegalen Hinrichtungen mittels US-Kampfdrohnen. Drohungen, Verhaftungen, Misshandlungen, Folter und Tötungen von Frauen und Männern, insbesondere jenen, die sich für Frauen- und Menschenrechte einsetzen. Seit über einem Jahr drängen die Taliban afghanische Frauen aus dem öffentlichen, sozialen und politischem Leben. Sie dürfen sich in vielen Teilen des Landes kaum eigenständig auf den Straßen bewegen. Dürfen nur noch bis zur 7. Klasse die Schule besuchen. Studentinnen nur noch mit Hidschab in Universitäten gehen. Zahlreiche Bewegungen aus der Zivilgesellschaft zogen daraufhin disruptiv-technologische Bilanzen. In der Hoffnung unterstützend zukünftigen techno-politischen und militärischen “Fehleinschätzungen” (Heiko Maas, ehem. Bundesminister des Auswärtigen) entgegenwirken zu können.

Fehleinschätzungen liegen sicherlich auch Russlands Invasion der Ukraine zu Grunde. Auf allen Seiten. In den Medien: Überall Wortmeldungen. Doch wer ist tatsächlich bereit darüber zu reden?

Mehr noch: Wer findet Worte für das Bombardieren von Wohnhäusern? In Butscha. Charkiw. Kiew. Saporischschja. Krementschuk. Winnyzja. Tschernihiw. Kramatorsk. Cherson. Mariupol und unzähligen weiteren Städten und Dörfern. Das Bombardieren von Schulen, in denen Familien Unterschlupf suchen. Von Krankenhäusern, in denen Frauen ihre Kinder gebären. In denen Menschenleben gerettet werden. Während Sirenen laut heulen. Tag für Tag. Stunde für Stunde. Minute für Minute. Menschen. Leben. Retten. Bomben auf Gefängnisse. Evakuierungsbusse. Auf Fluchtrouten, auf denen Familien versuchen den Grausamkeiten des Krieges zu entfliehen. Sie werden gezielt bombardiert. Bahnhöfe. Einkaufszentren. Raketenkrater in den Innenhöfen von Wohnkomplexen in denen es keine einzige militärische Einrichtung gibt. Hinrichtungen. Massengräber in Charkiw. In Isjum.

“Grammatik des Krieges”

Zivile Opfer liegen im Kalkül des russischen Angriffskriegs. In Zeiten des Krieges sind all unsere Worte in “die alles betreffende Buchhaltung des Krieges mit eingerechnet”. “Ob wir den Krieg befürworten. Ob wir um Frieden kämpfen. Wir sind in der Logik des Krieges verzichtbar gemacht.” (Streeruwitz). Wir. Wer sind wir in Zeiten des Krieges? Während seine Schrecken in Echtzeit aus den Interfaces sprudeln. In mechanischer Zeit. Maschinenzeit. Waffen. Gewehre. KI. Maschinen. In Echtzeit, in die wir uns ein jedes Mal hineinbegeben, und in der wir uns bewegen. Wider die Totzeit. Wenn wir Kriegsnachrichten sehen. Lesen. Twitter. TikTok. Telegram. Schreiben. Der Spiegel. taz. Die Süddeutsche. Lesen.

Wieder einmal versuche ich heute zu schreiben, während “die Herrschaft des Krieges uns ihre Grammatik aufzwingt” (Streeruwitz).

Keine Worte finden. Worte für den Frieden. In Kriegssyntax schreiben. Auf Kriegssyntax bauen.

Die Grammatik des Krieges, sie steht vielen Technologien eingeschrieben, die uns tagtäglich begleiten. Sie sind uns sehr vertraut, wurden Teil unseres Alltagslebens und gestalten diesen aktiv mit. In den häufigsten Fällen wissen wir nicht, ob Teile unserer kleinen Devices in unseren Pockets auch zum Kriegseinsatz kommen. Welche Technologien sich Kriegs-, und welche sich den zivilen Technologien zuordnen lassen. Der Begriff des DUAL USE verlor sich in der öffentlichen Wahrnehmung, dafür kann er heute, insbesondere in der öffentlichen Förderungsterminologie unter dem Begriff der “Sicherheitstechnologie” wiedergefunden werden. Wir lernen solch neue Wörter, indem wir uns unterhalten, indem wir mit unseren Mitmenschen sprechen, die Wörter also “gebrauchen” um es in Wittgensteins Worten auszudrücken: Die Bedeutung eines Begriffs ist “die Art, wie dieser Gebrauch in das Leben eingreift” (Wittgenstein, 65)). Zuvor sind es wortlose Worte.

Worte, die nicht entstanden sind aus einem gesellschaftlichen Miteinander heraus. Aus einem Miteinandersprechen. Zuvor sind es künstliche Wörter, doch Wörter zugleich die wir gemeinsam gebrauchen. Wir gestalten unseren Lebensalltag durch sie. Diese Wörter, diese wortlosen Worte, sie entstehen an einem Ort wo wir im Sprechen keine Worte finden werden. In kognitiven Systemen. Systeme, denen Kriegsgrammatiken eingeschrieben stehen. “Marketing or death by drone, it’s the same math, … You could easily turn Facebook into that. You don’t have to change the programming, just the purpose of why you have the system.”, so Chelsea Manning in einemInterview mit dem Guardian in 2018, “There’s no difference between the private sector and the military.”

Maschinen des Krieges

Wer sich an die Debatten rund um Project Maven erinnert, dem oder derjenigen sagt eventuell der Begriff “Tensorflow” noch etwas. Im Jahr 2017 ging hierfür der IT-Konzern Google eine Partnerschaft mit dem Projekt Maven des Pentagons ein, das auch als “Algorithmic Warfare Team” bekannt ist. Der gemeinsame Auftrag lautete, eine Technologie zu entwickeln, die das Videomaterial von US-Überwachungsdrohnen aufzeichnet und effizienter als bisher nach militärisch bedeutungsvollen Objekten indexiert. Google gewährte dem US-Verteidigungsministerium zur Entwicklung von Machine Learning Objekterkennungsalgorithmen damals Zugriff auf ihr Software-Framework “Tensorflow”. Ohne solche Frameworks, die es Entwickler*innen ermöglichen Künstliche Intelligenzen in Form von Graphen und Datenflussdiagrammen zu programmieren, wäre die Erforschung hin zur neuronalen Netzwerkarchitektur “Transformer” wohl kaum denkbar gewesen.

Seit das Google Research Team zusammen mit einigen Google Brain Autoren ihre Studie “Attention Is All You Need” veröffentlichten, entstand ein Wettlauf unter den großen IT-Unternehmen, der sich häufiger an der Quantität der jeweiligen Datensätze und Modelle maß, als an ihrer Qualität und der Abwägung kultureller Konsequenzen, während diese in Gesellschaft beginnen zu wirken. Der Trend zu immer größeren Modellen und immer mehr Trainingsdaten führt derzeit dazu, dass nicht nur massiv Ressourcen wie Strom für riesige Serverfarmen verbraucht würden, sondern auch, dass KI-Modelle und Applikationen in denen diese eingebettet liegen, immer schlechter kontrollierbar werden.

Heute müssen während des Trainings solcher KI’s teils über 175 Milliarden Parameter und weitere mathematische Operationen ausgelesen, angepasst und erweitert werden. Die wenigsten universitären und öffentlichen Einrichtungen haben hierfür Kapazitäten. Weder verfügen sie über die Rechnerleistung zum trainieren und unabhängigen erforschen dieser Modelle, noch haben sie Zugang zu den immensen Datensätzen die als Grundlage zum Training von Transformern dienen. Unternehmen wie Google, Facebook oder OpenAI, die u.a. mit Microsoft kooperieren profitieren aus bekannten Gründen hiervon und treiben einen rasanten Fortschritt voran. Ein Fortschritt, unbestreitbar, der staunen lässt. Das transformerbasierte Sprachmodell GPT-3 von OpenAI und Microsoft bspw. übersetzt Sprachen, zumindest die meistgesprochensten, schreibt Zeitungsartikel, Essays und Gedichte und wird als Chatbot in Twitter, Reddit, Telegram, etc. genutzt.

Fast überall dort wo aus strukturierten Daten kontextbasierte, natürliche Sprache, bzw. leserfreundliche Texte erzeugt werden sollen, löste der Aufmerksamkeitsmechanismus (Attention) von Transformer-Architekturen, die bis dato verwendeten rekurrenten Modelle wie bspw. LSTM (Long Short Term Memory) ab. Die interaktive Besonderheit von GPT-Modellen (Generative Pretrained Transformer) ist jedoch nicht einzig für Social Media, sondern allgemein für Assistenzsysteme jeglicher Couleur interessant, z.B. zum militärisch genutzten Man-Machine-Teaming, Robotics und weiteren Mensch-Maschine-Interaktionen auf natürlichsprachlicher Basis.

Doch diesen Machine-Learning Verfahren stehen Rassismen, wenn auch nicht explizit, auch nicht vorsätzlich eingeschrieben. Sie generieren in ihrem Gebrauch schwer vorhersehbare Äußerungen, die von subtiler Alltagsdiskriminierung bis über Hetze im Netz reichen und tragen somit auch vermehrt zu rassistischen Gewalttaten im öffentlichen Raum bei.

Sie erzeugen Minderheiten und gesellschaftliche Gruppen werden verstärkt durch diese Systeme marginalisiert. Meistens, ganz ohne dass es den Entwickler- sowie auch Anwender*innen bewusst ist (Vgl. Gebru et. al.) .

Wessen Handlungsmacht?

Seit einigen Monaten nun, werden lautstarke Debatten über kulturelle Konsequenzen von transformerbasierten Text-zu-Bild Maschinen geführt. Künstlich intelligente Sprachmodelle, die Texteingaben (Prompts) in eine Anordnung von Pixeln transferrieren. Die bekanntesten von ihnen sind DALL-E 2, Imagen, Midjourney und Stable Diffusion. Sie generieren Bilder, die wie Fotografien, Zeichnungen oder Malereien aussehen können. Auf diese derzeitig technischen und populären Erfolge, bauen just veröffentlichte Modelle zur Text-zu-Video Generierung auf. Make-A-Video von Meta AI und Imagen Video, sowie Phenaki von Google Brain nehmen einen Prompt auf und geben daraufhin ein Video aus, das sich auf diese Eingabe bezieht.

Solch Text- bzw. Bild, und Videogenerierungen wirken seit längerem schon in TikTok, in Discord, Telegram und weiteren medialen Kanälen. Teils spielerisch wird dort mit ihnen umgegangen, häufig auch marktwirtschaftlich- strategisch. In manchem Fällen werden sie auch ganz konkret für staatliche, bzw. Kriegspropaganda genutzt.

Wir stehen heute also wieder einmal vor einer uns vertraut scheinenden, überaus gesellschaftsrelevanten Frage, nämlich der, wie wir sprachlich, bewertend, analytisch und interpretierend mit den jüngst entwickelten disruptiven Technologien umgehen? Über was für einen Wortschatz wir hierfür verfügen? Welch sprachlichen Mittel uns zur Verfügung stehen, um diese Technologien in unsere Gesellschaft zu integrieren? Sind wir, als Gesellschaft derzeit überhaupt noch in der Lage, die kulturellen Folgen dieser Technologien zu bewältigen?

Wohl spätestens seit den 2010ern, delegieren wir mehr und mehr Handlungsmacht an die neuen, meist disruptiven Technologien. Technologien, in denen „Menschen, Dinge, Ereignisse zu ’programmierbaren Daten’ werden: es geht um ’Input’ und ’Output’, Variable, Prozentzahlen, Prozesse und dergleichen, bis jeglicher Zusammenhang mir konkreten Dingen wegabstrahiert ist und nur noch abstrakte Graphen, Zahlenkolonnen und Ausdrucke übrigbleiben.“, so einst der Technologie- und Gesellschaftskritiker Joseph Weizenbaum. Je tiefer wir also unseren Sprachgebrauch und unsere alltägliche Lebenswelt in diese Technologien verstricken, desto exakter sind wir in „die alles betreffende Buchhaltung des Krieges mit eingerechnet.“ (Streeruwitz).

Ein Kommentar zu “Wer sind wir in Zeiten des Krieges? Plädoyer für eine gesellschaftliche Auseinandersetzung

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.