‚Ich produziere Sprache, also bin ich‘: Bildung im KI-Kapitalismus neu denken

Liquid Graduation by Colnate Group, 2025 (cc by nc)

Während die bisherigen digitalen Medien die Welt schrittweise aus der Gleichung herausgenommen und durch technisch erzeugte Simulationen ersetzt haben, geht KI einen Schritt weiter und nimmt den Menschen ganz aus der Gleichung heraus: Der Mensch ist für die Produktion von Sprache und Text nicht mehr notwendig. Welche Rolle spielt Bildung in diesem Kontext? Katrin Becker denkt über unsere Möglichkeiten nach.

*

An den Universitäten werden gegenwärtig die Flure dominiert von Diskussionen um die Frage, ob und bis zu welchem Grad es den Studierenden erlaubt sein sollte, beim Verfassen der aufgegebenen Hausarbeiten Künstliche Intelligenz einzusetzen. Denn es lässt sich nicht länger leugnen: Die Hoffnung, dass die eingereichten Arbeiten tatsächlich Eigenproduktionen der StudentInnen sind, ist in immer selteneren Fällen begründet. Und jeder, der sich mit den unterschiedlichen KI-Modellen beschäftigt und sieht, welche beeindruckenden Ergebnisse sie inzwischen bei entsprechend formulierten Prompts liefern können, kennt vermutlich auch den eigenen inneren Sirenengesang: ‚Oder soll ich nicht doch kurz nachsehen, was ChatGPT, Claude, Deepseek… vorschlagen? Vielleicht ist es ja doch besser, kreativer, eleganter als das, was ich hier zurechtstümpere?‘

Zugleich scheint angesichts des Vordringens der Künstlichen Intelligenz in so ziemlich alle Gesellschaftsbereiche nachvollziehbar, dass sich insbesondere die Geisteswissenschaften mit der Frage konfrontiert sehen, welche Fähigkeiten man den Studierenden an der Uni überhaupt vermitteln sollte. Bis vor kurzem war das noch relativ unproblematisch: Es ging darum, sie den kritisch rezipierenden Umgang mit und das Verfassen von Texten zu lehren, um ihnen so den Zugang zu jenen Berufen zu eröffnen, in denen diese Kompetenzen gefordert sind. Doch diese Argumentation scheint nun hinfällig: Denn warum vermitteln, was im KI-geprägten Berufsleben doch nicht mehr notwendig sein wird? Und so werden jene Stimmen immer lauter, die fragen, ob Ziel der Geisteswissenschaften nicht vor allem sein sollte, den Anschluss an den technischen Fortschritt nicht zu verlieren, anders gesagt, den Studierenden die Fähigkeit des gezielten und effizienten Umgangs mit den gängigen KI-Tools zu vermitteln.

Demokratisches Potenzial oder Untergang des Westens

Und hier nun scheiden sich die Geister: Die einen verweisen auf frühere Medienwandel und plädieren dafür, nicht in den während solcher Umbrüche stets anklingenden und letztlich sich doch als unbegründet erweisenden Untergangsgesang einzustimmen – schließlich werde auch hier noch mit Texten gearbeitet. Es handle sich lediglich um eine neue Art der Textarbeit, und zwar im Zweifel eine effizientere und zugleich demokratischere: Denn schließlich biete die KI Zugriff auf ein in seinem Umfang bislang ungekanntes Text- und Datenarchiv. Auf diese Weise könne nicht nur das Lernen auf die Bedürfnisse und Geschwindigkeiten des Einzelnen abgestimmt werden; sondern zugleich werde es möglich, Denk- und Repräsentationsmuster aufzudecken, die unsere Kulturen prägen und bislang im Verborgenen lagen. Man erlange also die Möglichkeit, den großen Dritten, d.h. die Instanz, die den Gemeinsinn der Gesellschaft, die geschriebenen und ungeschriebenen Regeln, ihre Werte und Vorstellungen verkörpert, in wenigen Schritten statistisch zu errechnen, statt ihn in langwierigen Interpretationsprozessen zu ermitteln und zu etablieren.

Und auch der Einsatz von KI für das Verfassen von Texten sei letztlich so problematisch nun nicht. Denn auch hier seien ja zunächst Kenntnisse im Textverfassen vonnöten. Anders ließen sich erst gar nicht jene Prompts formulieren, mit denen wirklich verwertbare Ergebnisse entstehen. Und ist die Prompt-Formulierung nicht vielleicht einfach die neue textverfasserische Kunst, auf die es nunmehr ankommen wird? Nicht zuletzt ließe sich auch insofern hierin ein demokratischer Gewinn erkennen, als es nunmehr jedem möglich sei, durch den Rückgriff auf KI mögliche Schreib- und Leseschwächen zu überwinden, d.h. elegante Texte zu verfassen.

Andere, kritischere Stimmen wiederum sehen mit solchen Anwendungsszenarien unweigerlich den Untergang zentraler Kompetenzen (und mit ihnen womöglich auch den des Abendlands) eingeläutet. Denn allein der direkte, zeitintensive und hilfsmittellose Umgang mit Texten bringe jene „kognitive Raffinesse und spekulative[n] Fähigkeiten“ hervor, aus denen kritisches Denken und Autonomie entstehen. Und genau hier werde auch der Unterschied dieses Medienwandels zu vorherigen deutlich: Denn die nunmehr von der Technik übernommenen Fähigkeiten seien in erster Linie intellektuelle Fähigkeiten, d.h. sie betreffen das Erfassen, Strukturieren und kritische Hinterfragen von komplexen Zusammenhängen. Und tatsächlich scheint dieser Ansatz nicht ganz falsch, wenn man auf jene Forschungsergebnisse blickt, die nachweisen, dass der Rückgriff auf Tutor-Chatbots negative Folgen für die Lernkompetenzen nach sich zieht.

An dieser Stelle wäre meines Erachtens nun zu überlegen, ob die hier genannten Argumente nicht – statt als ‚entweder-oder‘- oder ‚und‘-Optionen – vielmehr als ‚wenn-dann‘-Optionen zu begreifen sein müssten (scheinbar ganz im Sinne des algorithmischen Paradigmas, das unsere Welt momentan so stark beherrscht). Und zwar im folgenden Sinne: Erst wenn die souveräne Handhabung und das kritische Verständnis, d.h. das Rezipieren und Verfassen von Texten erlernt wurde, dann kann und muss der kompetente Einsatz von KI erlernt werden.

In der Natur verborgene Algorithmen?

Um das weitergehend zu begründen, gilt es zu erkennen, dass unser aktuelles gesellschaftliches und individuelles Dasein von zwei verschiedenen Welten geprägt ist – der virtuellen, datenbasierten (und scheinbar dematerialisierten) Sphäre einerseits, und andererseits der physischen, an Materialität und Körper gebundenen Sphäre, den sogenannten ‚meat space‘, wie es in Blockchain-Kreisen heißt. Die virtuelle Sphäre wird konstituiert durch Daten, Algorithmen, Zahlen, die gesammelt werden, um die materielle Welt auszuwerten, zu berechnen und – soweit möglich durch die entsprechenden Technologien – zu programmieren.

PhilosophInnen wie Jean Baudrillard, Vilém Flusser und Rosi Braidotti legen dar, inwiefern diese beiden Sphären zunehmend unlösbar verflochten sind. Eine Verflechtung, die es zunehmend schwer macht, die virtuelle Sphäre als das zu begreifen, was sie ist: ein Nachprodukt, eine ‚Imitation‘ der Sphäre des Physischen, des Materiellen, des Verschriftlichten, die über ihr ‚eigenes kausales Regime‘ verfügt. Zu stark prägt sie inzwischen unsere Denkweise und Wahrnehmung des Materiellen, Physischen, Biologischen. Doch soll genau dieser Punkt hier in den Fokus gerückt werden. Denn inzwischen scheint sich die Annahme durchgesetzt zu haben, dass der virtuellen Welt der Vorrang einzuräumen ist: Immer häufiger wird sie als Modell bzw. Ausgangsbasis für das Verständnis bzw. die Gestaltung der materiellen Welt herangezogen.

Das schlägt sich grundlegend nieder in der Idee, die unser kollektives Imaginäres beherrscht – und zwar, dass in der Natur selbst die Algorithmen verborgen liegen, die es nur herauszuarbeiten gelte, um sie anschließend zu beherrschen; aber auch in der Idee der Entstehung einer empfindungsfähigen AGI, die den Menschen nicht nur übertrifft, sondern ihn auch zu optimieren und alle Probleme – Klimawandel inklusive – zu lösen in der Lage sein wird. Diese Denkweise in ein praktisches Modell umzusetzen, bemüht sich seit einer Weile auch die Blockchain-Technologie, indem sie letztlich eine Loslösung der virtuellen von der materiellen Welt anstrebt: Hier wird daran gearbeitet, die virtuelle Welt über das Lex Cryptographia zu verrechtlichen, den Blockchain-Code als neue Institution zu etablieren und so die Loslösung von der Bürde der Materialität und staatlichen Institutionalität zu ermöglichen.

Der Karren vor den Ochsen gespannt

Dass hier der Karren vor den Ochsen gespannt wird, wird deutlich, wenn man zwei Tatsachen bedenkt: Erstens, dass sich das menschliche, das gesellschaftliche, das biologische Leben niemals letztgültig in eine berechenbare Formel übersetzen lassen wird. Und zweitens, dass die virtuelle Sphäre notwendig in der Position des Sekundären verbleiben muss, anders gesagt: dass sie zu ihrer Funktionstüchtigkeit fundamental auf den Input und die Unterstützung der physischen Welt angewiesen ist. Ich erläutere im Folgenden beide Punkte.

Zum ersten Punkt: Anders als es gegenwärtig scheint, ist, so betonen Jean Lassègue und Giuseppe Longo unter Verweis auf Denker wie Alan Turing oder Kurt Gödel, sämtlichen „biologischen, kognitiven oder sozialen Phänomenen“ eine unüberwindbar unvorhersehbare, nicht berechenbare Dimension inhärent. In ähnlichem Sinne legen PhilosophInnen wie Alain Supiot, Pierre Musso oder Antoinette Rouvroy dar, dass eine Gesellschaft nie allein die Summe ihrer errechenbaren und dokumentierten Einzelteile ist. Ihr Sein, ihre Funktionsweise basiert stets auf mehr als auf dem Versprachlichten und Expliziten. Die Werte und Narrative, über die ein Kollektiv zu einer gesellschaftlichen Einheit wird, entstehen im sprachlichen, körperlichen, ästhetischen Austausch.

Dieser impliziert stets auch die Dimension des Unsprechbaren, des Unvollständigen, wie des Erinnerten und Erhofften. Und hier spielen Texte, spielt die Sprache eine zentrale Rolle: Sie gewährleisten den kontinuierlichen Austausch zwischen dem/der Einzelnen und den in Texten und Diskursen festgehaltenen Narrativen, die eine Gesellschaft konstituieren und ihren Zusammenhalt sichern. Denn das Verhältnis zwischen Text und Sprechenden, Lesenden, Schreibenden ist niemals eine unidirektionale, sondern eine Relation der Verflechtung: Die Texte einer Gesellschaft, die Sprache prägen mich; doch im Schreiben, im Sprechen, in der Interpretation nutze ich die Sprache, die Schrift nicht nur als Werkzeug, sondern wirke auf sie ein, entwickle sie fort, durch Metaphern, neue Ideen, Wortschöpfungen etc.

Wenn nun behauptet wird, dass KI-generierte Texte dieselbe Funktion wie diese Texte erfüllen bzw. dies sogar auf eine bessere Weise tun, da sie den Einzelnen Zugriff auf die gesamte textuelle Grundlage der Kultur bietet, so werden hier verschiedene Dinge ausgeblendet: Zum einen beschränken sich die Daten, auf die dieses Tool zurückgreift, auf alles Dokumentierte, Explizite und vor allem Digitalisierte. Darüber hinaus bieten KIs stets nur einen mittelbaren Zugriff auf Texte bzw. vielmehr auf die statistisch ermittelten Mittelwerte der Texte. Das bedeutet zum einen, dass die Lesenden niemals in direktem Austausch mit dem Text stehen: Der Begegnung mit dem Text ist stets schon eine Ebene der Abstraktion dazwischengeschaltet. Und anders als oftmals im Gerede von der Datenneutralität ausgeblendet, liegen dieser Abstraktion notwendig wertende Entscheidungen zugrunde. Selbst wenn diese nicht gezielt politisch motiviert sind – was sie vielen Fällen jedoch sind – hat selbst die scheinbar neutrale Programmierung, ‚Textsequenzen basierend auf Häufigkeit vorherzusagen‘, unweigerlich politische Konsequenzen. Denn dies führt unweigerlich dazu, dass ‚Mehrheitsnarrative‘ stärker berücksichtigt werden und so eine „Homogenisierung historischer und wissenschaftlicher Darstellungen“ ausgelöst wird.

Kommen wir zum zweiten Punkt, d.h. dass der Versuch der Priorisierung der virtuellen über bzw. ihrer Loslösung von der physischen Welt unweigerlich scheitern muss. Hier gilt es zu sehen, dass die KI notwendig auf Input aus der materiellen Sphäre angewiesen ist. Zum einen strukturell, um überhaupt zu funktionieren: Hier ist an die technologischen Infrastrukturen zu denken, die zur Aufrechterhaltung der KI notwendig sind und die einen stetig wachsenden Mensch- und Energie-Einsatz verlangen. So decken gegenwärtig immer vielzähligere Forschungsarbeiten die Ausbeutung von Heerscharen an Daten- bzw. Klickarbeitern auf, die die Präzision der KI-generierten Ergebnisse sicherstellen.

Aber auch inhaltlich ist sie darauf angewiesen, dass ihr kontinuierlich neuer Input zugeführt wird: So wurde kürzlich nachgewiesen, dass sich das bereits jetzt abzeichnende Szenario, in dem KI-produzierte Texte sich aus KI-produzierten Texten speisen, unweigerlich einen Autophagie-Prozess auslöst: Das unvermeidliche Resultat einer Situation, in der Large Generative Models rekursiv auf ihre eigenen Ausgaben feinabgestimmt werden, sei die ‚Reduktion in lexikalischem und topischer Vielfalt‘ und letztlich der ‚Modell-Kollaps‘.

Entstehen eines ubiquitären ‚KI-Sprechs‘

Richten wir nun den Blick zurück auf die eingangs gestellte Frage, ob und inwiefern Studierende im Rahmen ihrer Studienarbeiten KI nutzen dürfen sollten. Wie also lässt sich vor dem Hintergrund dieser Argumentation der wenn-dann-Ansatz begründen? Anders gefragt: Warum sollten Studierende der Geisteswissenschaften zunächst den zeitintensiven, oftmals mühsamen und scheinbar zweckfreien Umgang mit – und zwar das Lesen wie auch das Verfassen von – Texten erlernen, bevor sie die Anwendung der KI hinzuziehen?

In erster Linie, weil nur so der Welt des Physischen die ihr zustehende – und für den gesellschaftlichen Zusammenhalt wie seine Fortentwicklung unerlässliche – Priorität eingeräumt wird. Denn allein in der stets individuellen und ungewissen Interpretation, in der Rezeption unterschiedlicher, auch unerwarteter oder sperriger Texte, in der Begegnung mit unterschiedlichen Schreib- und Denkstilen lernt der/die Lesende, sich im Raum der Kultur zu verorten, mobilisiert er/sie die “Horizontverschmelzung” (Gadamer) – kommt also mit dem Text und dessen historischem Horizont, d.h. letztlich mit dem Text der Kultur, ins Gespräch. In anderen Worten: Nur auf diese Weise ist es möglich, zu den vielfältigen ideengeschichtlichen, textuellen, medialen Grundlagen und Dynamiken der Kultur – und anderer Kulturen – vor- und sie kritisch zu durchdringen – d.h. letztlich: jene Kompetenzen zu erwerben, die die Geisteswissenschaften auszeichnen.

Natürlich kann auch im Umgang mit KI-Texten das Nachdenken darüber angestoßen werden, warum überhaupt die KI unsere Gesellschaften derart dominiert und zumeist unhinterfragt zum Maßstab für alle gesellschaftlichen Prozesse erhoben wird; inwiefern sie als Produkt der westlichen Schreib- und Denktradition zu begreifen ist; inwieweit die allwissend aus dem Off bzw. aus der Cloud zu sprechen scheinende KI auf einer umfassenden Ausbeutung von Natur und Mensch basiert und in konkrete geopolitische Strategien eingebunden ist.

Doch sind die hier initiierten Reflexionen immer schon gefärbt durch die erwähnte dazwischengeschaltete Abstraktionsebene: Nicht nur begegnet man hier unweigerlich homogenisierten Inhalten, sondern zugleich auch einer homogenisierten Sprache. Und dies hat – zumindest bei regelmäßiger Nutzung der KI-Tools – die erwartbaren Auswirkungen auf die Denkvorgänge und Sprachpraxis der Rezipierenden: Schon jetzt lässt sich in den studentischen Arbeiten eine Vereinheitlichung vor Formulierungen, d.h. das Entstehen eines ubiquitären ‚KI-Sprechs‘ konstatieren – mit den erwähnten Folgen einer Verarmung ‚lexikalischer und topischer Vielfalt‘.

Eine ‚lebendige Kraft‘

Genau aus diesem Grund sollten wir auch den Einsatz von KI für das Glätten des Stils nicht zulassen – so angenehm es auch für DozentInnen ist, plötzlich nur noch elegant formulierte und fehlerfreie Texte zu lesen. Doch erst aus dem sorgfältigen Umgang mit der Schrift, mit der Sprache entspringt die Verflechtung zwischen Subjekt und Text, die Identifikation mit sowie die Verantwortung für den Text. Erst hier entsteht der unüberwindbar individuelle Stil, jenes “absolut freie Band zwischen der Sprache und ihrem leiblichen Doppel”, das nicht nur die Entwicklung individueller intellektueller Fähigkeiten ermöglicht, sondern das – als ‚lebendige Kraft‘ – zugleich die Wandelbarkeit der Sprache sichert und nährt. Das Dazwischenschalten einer algorithmischen Instanz, die mehr oder minder große Teile des Schreibprozesses übernimmt, eröffnet eine Kluft zwischen Text und AutorIn, die nicht nur die Verantwortung für den einzelnen Text fraglich macht. Zugleich höhlt sie die Bindung an und damit das Fundament und die Wandelbarkeit des Gesellschaftstexts aus.

Und genau hier liegt meines Erachtens auch der Grund dafür, warum sich dieser Medienwandel durchaus von den vorherigen unterscheidet: Medien sind nicht nur Informationsvermittler zwischen Sender*innen und Empfänger*innen, sondern sie prägen auch das Weltverständnis. Sie vermitteln – mit der Sprache als Kernmedium – das Verhältnis zwischen dem Menschen und seiner sinnhaften Welt. Während die bisherigen digitalen Medien – im Sinne Vilém Flussers oder Jean Baudrillards – zunehmend die Welt durch technisch erzeugte Simulationen ersetzt haben, wird mit der KI nun zudem der Mensch aus der Gleichung gestrichen: Für die Sprach- und Textproduktion ist der Mensch nicht mehr notwendig erforderlich. Natürlich gibt es nach wie vor Welt und Mensch. Und natürlich obliegt es dem Menschen, verantwortungsvoll mit den KI-Texten umzugehen und sie in den Bedeutungsraum zu überführen. Doch genau deshalb ist es von zentraler Bedeutung, dass zunächst erlernt wird, worin diese Verantwortung besteht, was einen Text, was die Lektüre ausmacht – um so sicherzustellen, dass der Mensch weiterhin die Hauptrolle in der Sinnproduktion und Sinnverflechtung der Gesellschaft spielt.

Die Leben der Studierenden sind – entsprechend den vorherrschenden Ideologien – immer stärker geprägt von der virtuellen Welt. Immer wieder zeigt sich, wie schnell Kinder und Jugendliche in die neuen technologischen Bedingungen der Welt hineinwachsen und den Umgang mit den entsprechenden Tools lernen. Und es ist zweifellos sinnvoll und notwendig, sie darin so zu begleiten, dass sie die KI souverän und zu wissenschaftlichen Zwecken einsetzen können. Doch sollte dies nicht die vorrangige Sorge der Geisteswissenschaften sein. Zunächst sollte es darum gehen, in den Universitäten den Fokus auf die körperliche, materielle Dimension unseres gesellschaftlichen und kulturellen Lebens zu richten und Räume für die „Anverwandlung des Wissens“ zu schaffen – dies nicht im Sinne einer fortschrittsfeindlichen Gegenbewegung, sondern um so das Fundament zu etablieren, auf dem die KI dann wirklich einen bereichernden Mehrwert erzeugen kann.

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..