Quantifizierung verlernen: Der grausame Optimismus der KI im Bildungswesen

Arbeiterinnen in einer Datenspeicherfabrik im Code-Regen. Artwork: Colnate Group, 2025 (CC BY-NC). Basierend auf einem Foto von Robert Scoble (CC BY 2.0).
Arbeiterinnen in einer Datenspeicherfabrik im Code-Regen. Artwork: Colnate Group, 2025 (cc by nc).

Der Einsatz von Algorithmen der künstlichen Intelligenz (KI) im Bildungswesen ist eine politische Entscheidung. Diese weitreichende Maßnahme entprofessionalisiert Pädagoginnen und Pädagogen, überwacht und dequalifiziert alle Beteiligten. Wie bei der Anwendung dieser Algorithmen in anderen Bereichen ist das Ziel, den Lernprozess streng zu kontrollieren und zu überwachen, um die Köpfe und Körper aller Beteiligten zu zähmen und zu domestizieren. Alexandra Ștefănescu diskutiert Möglichkeiten des Verlernens im KI-Kapitalismus.

*

„Grausamer Optimismus“ ist ein von Lauren Berlant geprägter Begriff, der unsere Tendenz beschreibt, an neoliberalen Fantasien wie sozialem Aufstieg und Arbeitsplatzsicherheit für alle festzuhalten, obwohl diese Ideale nicht mehr erreichbar sind. Dieses Streben schadet uns und hindert uns daran, ein ‚gutes Leben‘ zu verwirklichen. Dennoch halten wir daran fest. Dieses Phänomen manifestiert sich auch im KI-Kapitalismus: Es herrscht ein tiefes Gefühl grausamen Optimismus, dass Technologien, die uns an den Rand des planetarischen Zusammenbruchs gebracht haben, durch ausreichende Anpassungen und gesetzliche Durchsetzung ethisch gemacht werden können.

In der Europäischen Union hat die KI-Gesetzesverordnung die kollektiven Forderungen nach dem Schutz grundlegender Menschenrechte nicht erfüllt. Durch die intensive Lobbyarbeit der Big-Tech-Unternehmen wurde eine Gesetzgebung verabschiedet, die sich auf die Selbstbewertung der Unternehmen stützt. Zudem wurde den staatlichen Institutionen die Aufgabe auferlegt, KI-Technologie-Know-how aufzubauen, um den Markt wirksam regulieren zu können. In einer letzten Verbeugung vor der Rückkopplungsschleife aus Kontrolle und Überwachung ist der Einsatz von KI-Technologien in Fragen der ‚nationalen Sicherheit‘ von der Kontrolle durch diese Gesetzgebung ausgenommen.

Dan McQuillan konzentriert sich, wenn es darum geht, sich gegen KI zu wehren, auf „Decomputing“ als Widerstandsstrategie. Er betont, wie entscheidend es ist, zu erkennen, dass generative KI-Technologie rechtsextreme Politik fördert und dies auf den ideologischen Fokus auf ewiges Wachstum zurückzuführen ist, der zu unserer aktuellen Situation geführt hat. Das Ziel ist es daher, Degrowth mit Decomputing zu verbinden.

Dies ist ein gesellschaftliches Projekt, das ohne tiefgreifende Veränderungen auf Makroebene – einschließlich groß angelegter Umschulungsinitiativen – nicht realisierbar sein wird. Doch wie soll das in einer Zeit gelingen, in der Bildung zunehmend prekär ist und einem permanenten Wachstums- und Produktivitätsdruck ausgesetzt ist? Es ist eine Zeit, in der die Förderung generativer KI im Bildungswesen als neue neoliberale Fantasie aufgetaucht ist – eine Form des grausamen Optimismus, die letztlich entmenschlichende Auswirkungen hat.

Arbeit bis zum Abwinken

Bildung ist in all ihren Facetten Arbeit. Wir begreifen sie als solche, wenn wir an Lehrkräfte denken, die ihren Unterricht vorbereiten und durchführen. Wir erkennen diese Arbeit auch bei akademischer Forschung, Veröffentlichungen, Rezensionen und der Zusammenarbeit an Projekten. Doch auch die emotionale Arbeit von Schüler*innen und Studierenden, ihre Konzentration und Beteiligung, ihr gemeinsames Lernen und ihre gemeinsame Problemlösung sind Teil der Bildungsarbeit.

Der Erfolg einer kapitalistischen, marktorientierten Wirtschaft hängt davon ab, dass Menschen von ihrer Arbeit entfremdet werden. Dequalifizierung, Überwachung und Gewerkschaftsfeindlichkeit sind notwendig, um sicherzustellen, dass prekär Beschäftigten mehr Arbeit zu geringeren Kosten abgepresst werden kann. Es überrascht nicht, dass die Informatik in dieser Dynamik eine Rolle spielt.

In „Origin Stories: Plantations, Computers, and Industrial Control“ stellt Meredith Whittaker die Ursprünge der modernen digitalen Datenverarbeitung in einen Kontext und nimmt dabei kein Blatt vor den Mund. Charles Babbage, einer der Konstrukteure des mechanischen Computers, sah die Demokratie als unvereinbar mit dem Kapitalismus an. Die Datenverarbeitung war für ihn ein Werkzeug zur Kontrolle und Steuerung der menschlichen Arbeit.

Dank der Geschwindigkeit und Zuverlässigkeit der digitalen Datenverarbeitung wird Arbeit heute durch Algorithmen erfasst, bewertet und optimiert. Die Geschichte, die wir über ‚die Arbeiterin‘ erzählen, ist nicht mehr die einer Frau, die ihr Handwerk beherrscht, sondern die einer Frau, deren Arbeit außerhalb ihres Körpers definiert und gemessen wird. Die Vergütung für Arbeit wird folglich extern festgelegt und steht stets unter dem Druck, mit weniger mehr zu leisten.

Generative KI wird in Schulen und Universitäten als Technologie für personalisierte, maßgeschneiderte Bildung angepriesen. Ähnlich wie Babbages mechanischer Computer entwickeln sich die Algorithmen der generativen KI mit dem Ziel, die Arbeit in der Bildung effizienter zu gestalten. Indem sie entscheidet, welche Inhalte Schüler*innen erhalten und wie ihre Leistungen bewertet werden, funktioniert generative KI wie ein Mechanismus zur Optimierung der Fabrikhalle, der ständig darauf abzielt, mit weniger mehr zu erreichen.

Diese Optimierung basiert jedoch auf der Reduzierung von Arbeitnehmer*innen und Prozessen auf quantifizierbare Daten. Die aktuelle generative KI-Technologie wurde durch Hardware und Software ermöglicht, die mehr Daten schneller als je zuvor verarbeiten können. Oft hinterfragen wir die ethischen Grundlagen, auf denen Daten für das Training großer Sprachmodelle gewonnen werden, oder die rechtlichen Grundlagen, wenn wir uns auf das Urheberrecht berufen. Wir hinterfragen möglicherweise sogar die Verarbeitung dieser Daten und kritisieren die nicht deterministische Funktionsweise dieser Modelle. Wenn es jedoch um die Optimierung von Arbeit geht, werden Daten häufig als akzeptabler Ersatz für verkörperte menschliche Erfahrung verwendet – und diese Substitution entzieht sich oft unserer Kontrolle.

In ihrem Buch „Discriminating Data“ zeichnet Wendy Chun im ersten Teil den Übergang von der Suche nach Kausalität zur Korrelation bei der Bewertung menschlichen Verhaltens und menschlicher Entscheidungen nach. Korrelation erklärt oder offenbart nichts über die menschliche Erfahrung und setzt kein verkörpertes Wissen voraus. Chun stellt die Vorstellung infrage, Korrelation in Daten sei ein Ersatz für Wissen. Sie argumentiert, dass die Behandlung von Menschen auf der Grundlage dieser Korrelationen das entsprechende Verhalten erzeugt und nicht umgekehrt.

Die ständige Überwachung der Arbeit ist in vielen Bereichen unseres kollektiven Bewusstseins zur Normalität geworden. Dies reicht von der Verpflichtung der Mitarbeitenden, in einem Büro zu arbeiten, in dem ihr Körper und ihre Leistung unter Beobachtung stehen, über die weit verbreitete Videoüberwachung in privaten und öffentlichen Räumen bis hin zu Software, die unsere Online-Aktivitäten verfolgt. So werden Daten über uns zu einer ‚ausreichend guten‘ Repräsentation unserer Person.

Personalisierte Lernerfahrungen beruhen auf derselben Substitution. Das Gleiche gilt für maßgeschneiderte Rückmeldungen und Ratschläge. Die Ideologie, die diese Substitution stützt, ist die der Produktivität und des permanenten Wachstums.

Der ideologische Weg, der nicht eingeschlagen wurde

In „AI and the techno-utopian path not taken“ beschreibt Evgeny Morozov einen historischen Moment, in dem zwei gegensätzliche Visionen von KI zwei mögliche Zukunftsszenarien entwarfen. In den späten 1960er Jahren suchten Forscher am MIT nach Möglichkeiten, logisches Denken und Problemlösen zu implementieren. Zu diesem Zweck entwickelten sie Algorithmen, die die Essenz dieser menschlichen Prozesse erfassen sollten. Zur gleichen Zeit vertrat Warren Brodey im Environmental Ecology Lab die Ansicht, dass logisches Denken ein verkörperter Prozess ist, der aus der Interaktion zwischen Menschen und ihrer Umwelt entsteht. Sein Ziel war es, die menschlichen Fähigkeiten durch in der Umwelt zum Ausdruck kommende Technologie zu verbessern. Während der Ansatz des MIT auf mehr Produktivität und Effizienz abzielte, verfolgte das Environmental Ecology Lab Technologien, die uns helfen sollten, unsere Wahrnehmungsfähigkeiten zu erweitern.

Die ideologischen Hinterlassenschaften der Arbeitsoptimierung und der Entwicklung von Algorithmen, die menschliche Tätigkeiten ersetzen, münden in der Praxis der Dequalifizierung. Aus dieser Perspektive strebte die entwickelte Technologie danach, den Arbeitsertrag (sei er kreativ, körperlich, kognitiv usw.) zu maximieren und den Ressourcenbedarf zu minimieren.

Insbesondere KI-Technologien löschen die subjektive Erfahrung der Arbeit und stellen sicher, dass die Leistung quantifizierbar ist. Die Nachahmung ‚menschlicher Intelligenz‘ durch ‚künstliche‘ Algorithmen ist nur möglich, wenn wir akzeptieren, dass die Ergebnisse unserer ‚intelligenten‘ Handlungen gemessen, quantifiziert und automatisch reproduziert werden können.

Das schwindende Gefühl, ihr Handwerk zu beherrschen und Eigentum daran zu haben, verringert die Möglichkeiten der Arbeitnehmerinnen, Solidarität mit ihren Kolleginnen zu empfinden. Gewerkschaftsbildung, kollektive Aktionen und Streiks erfordern Vertrauen und ein Gemeinschaftsgefühl. Betrachten Arbeitnehmerinnen ihr Handwerk jedoch durch die Brille der Quantifizierung, werden sie eher zum Vergleichen als zum Mitfühlen angeregt. Wenn unsere Geschichten mit Zahlen und Statistiken erzählt werden, verschwindet unser verkörpertes Arbeitsgefühl ebenso wie das Verständnis, dass wir alle im selben Boot sitzen.

Rückbesinnung auf das Klassenzimmer

Das neoliberale Streben nach Wachstum hat die Regulierung öffentlicher Interessen ebenso geschwächt wie die Quantifizierung menschlicher Erfahrungen die Organisation gemeinsamer Interessen. Um eine Technologieentwicklung weg von einer auf Datenpersonen basierenden zu erreichen, müssen wir zunächst mehr füreinander sein als nur Daten. Audre Lorde warnte uns: „Die Werkzeuge des Herrn werden niemals das Haus des Herrn zerstören.“ Doch wo sollen wir anfangen?

Dr. Alina Utrata von der Universität Oxford hat beispielsweise einen Leitfaden für Studierende und Lehrende mit dem Titel „The Anti-Dystopian’s Guide to GenAI for students & educators“ veröffentlicht. Diese Ressource befasst sich auf praktische Weise mit den wichtigsten Fragen generativer KI-Technologien und zeigt Wege auf, wie man sich ihnen widersetzen und ihre Vereinnahmung von Bildungseinrichtungen verhindern kann.

Auf einer abstrakteren Ebene kann der Widerstand gegen die derzeitige, von entmenschlichender Technologie geprägte Sichtweise – derzeit verkörpert durch generative KI – zur Entwicklung menschlicher Technologien und zu einer neuen Wertschätzung der Menschheit führen. Darüber hinaus müssen wir uns neue Zukunftsperspektiven vorstellen und auf diese hinarbeiten. Die ‚Renaturierung‘ von Räumen für Lernen und Wissensaustausch wie Klassenzimmer, Lesekreise und Bibliotheken ermöglicht es uns, unsere Rolle als Subjekte von Algorithmen zu überwinden und füreinander zu Subjekten zu werden.

Evgeny Morozov paraphrasiert das Gedankenexperiment des Philosophen Evald Ilyenkov: „KI zu entwickeln, ist, als würde man eine riesige, kostspielige Fabrik bauen, um künstlichen Sand inmitten einer Wüste herzustellen. Selbst wenn die Fabrik perfekt funktionieren würde, warum sollte man nicht einfach den reichlich vorhandenen natürlichen Sand nutzen, also die menschliche Intelligenz?“ Ersetzt man den Begriff ‚Intelligenz‘ durch den dialektischen Prozess des gegenseitigen Lehrens und Lernens, wird auch der ökologische Aspekt dieser Argumentation deutlich: Bildung wird notwendig, um die Quantifizierung des menschlichen und nichtmenschlichen Lebens zu verlernen – und noch mutiger – um neu zu lernen, wie wir einander sowie andere Spezies und Lebensformen sehen.

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.