Ende des Fachwissens: Warum eine Ausbildung machen, wenn ich ein System-Upgrade bekommen kann?

İlker Çatak: „Das Lehrerzimmer“ (2023). Bildlizenz: Alamode Film
İlker Çatak: „Das Lehrerzimmer“ (2023). Bildlizenz: Alamode Film

Es ist eine weit verbreitete Ansicht, dass ‚die Menschheit den Planeten unwiderruflich ruiniert hat‘ und dass es an der Zeit ist, dass eine andere, höhere Form der Intelligenz das Ruder übernimmt. Die KI-Industrie bietet die rettende Erlösung, indem sie menschliches Wissen durch KI-Wissen ersetzt. Helen Beetham wendet sich gegen dieses Evangelium des Techno-Solutionismus, entlarvt seine vielen blinden Flecken und präsentiert Ideen für eine zukünftige Politik des Fachwissens und der Bildung.

*

Wie Giorgi Vachnatze schreibt, ist die so genannte ‚künstliche Intelligenz‘ Teil eines langfristigen kapitalistischen Automatisierungsprojekts, das „nicht nur die Produktion optimiert, sondern die Arbeitnehmer dazu diszipliniert, ihre marginalisierten Rollen innerhalb eines breiteren kybernetischen Regimes zu akzeptieren.“

Kulturelle und intellektuelle Arbeitskräfte – Hochschulabsolvent*innen – sind die Hauptzielgruppen der derzeitigen ‚Optimierungswelle‘. Man würde daher eine kohärente Antwort des Hochschulsektors erwarten. Wie haben die Universitäten auf die ‚Marginalisierung‘ von Akademiker*innen reagiert, während KI-Funktionen in ihre täglichen Arbeitsabläufe integriert werden, und auf die Verschrottung wissenschaftlicher Inhalte in kybernetischen Architekturen, um sie dann zu exorbitanten Mieten weiterzuverkaufen? Wie haben sie darauf reagiert, dass Student*innen als Nutzer*innen generativer KI angepriesen werden, die sofortiges Fachwissen anstelle der harten Arbeit des Lernens verspricht? Kaum, so scheint es.

Vereinnahmung von Fachwissen

Strukturell gesehen repräsentieren große Sprachmodelle (LLMs) Expertenwissen als Daten und Expertenpraktiken als Formen der Datenarbeit. Beim Training werden Texte als Datenarchitekturen abgebildet – Hunderte von Milliarden von Parametern, die jeweils eine Instanz der ‚leeren Relation‘ der Nähe zwischen datenbezogenen Teilen oder Token darstellen. Was diese Architekturen für neue Produktionsakte (‚Inferenz‘) nutzbar macht, ist zum einen die bedeutungsgenerierende Arbeit der Endnutzer*innen und zum anderen die verborgene Arbeit der ‚Verfeinerung‘: das Kommentieren und Klassifizieren der Modellausgaben, das Schreiben von Beispielantworten, das Entwickeln von Systemaufforderungen. Auch dies ist epistemische Arbeit, aber sie ist fragmentiert, untergeordnet und unsichtbar gemacht, gemäß dem, was Harry Braverman das „Babbage-Prinzip“ nennt, nämlich „den Arbeitsprozess von den Fähigkeiten des Arbeiters zu trennen“. Damit werden natürlich auch die Arbeiter*innen voneinander getrennt.

Datenarbeit ist in der Regel prekär und schlecht bezahlt. In einigen Bereichen ist jedoch zumindest ein Hochschulabschluss erforderlich, zumal Datenmodelle in zunehmend spezialisierten und spezialisierten Kontexten verwendet werden. Unternehmen, die Daten auslagern, sind häufig auf bestimmte Branchen spezialisiert, und auch allgemeine Datenplattformen bevorzugen Arbeitskräfte mit spezifischen Fachkenntnissen. Ein Großteil dieser Datenarbeit wird derzeit von den Modellentwickler*innen bezahlt und stellt einen erheblichen Kostenfaktor dar. Da es jedoch keine Anzeichen dafür gibt, dass die erkenntnistheoretischen Beschränkungen ihrer Produkte auf andere Weise überwunden werden können, sind sie sehr daran interessiert, diese Kosten auf ihre Kunden abzuwälzen.

Die Nutzer*innen werden nun aufgefordert, ihr eigenes Wissen in Form von erweiterten Eingabeaufforderungen und verknüpften Datensätzen hochzuladen. Unternehmen werden aufgefordert, sich ‚KI-fähig‘ zu machen, indem sie ihr internes Fachwissen in Form von Daten zur Verfügung stellen, damit die ‚KI‘ ‚arbeiten‘ kann (sogenannte ‚Retrieval Augmentation‘). Wie bei früheren Wellen der Datafizierung bedeutet dies, dass Fachkräfte mehr und nicht weniger Routinearbeit mit Daten verrichten, dass ihre Arbeit weniger lohnend und einträglich wird und dass IT-Systeme einen immer größeren Teil des durch die Arbeit geschaffenen Werts absorbieren.

‚Die Welt braucht weniger Expert*innen‘

Selbst wenn es theoretisch möglich – und wirtschaftlich machbar – wäre, das gesamte verfügbare Expert*innenwissen in einem Datensystem zu erfassen, gibt es immer noch außergewöhnliche Szenarien und sich rasch beschleunigende Krisen, die eine Antwort von Expert*innen erfordern. Das von der KI vorgeschlagene Wissensmodell ist das gleiche wie das von Babbage: ‚Talent‘ und ‚Innovation‘ sind einem winzigen Teil der Menschheit vorbehalten, während der Rest Arbeit an der Maschine verrichtet. Es besteht kein Bedarf an einer hoch gebildeten Mittelschicht, solange das ‚neueste‘ Wissen durch das System verbreitet wird. Es besteht kein Bedarf an intellektueller und kultureller Partizipation der Massen, solange die ‚besten‘ Ausdrucksformen unseres gemeinsamen Menschseins – per Abo – für alle zugänglich sind.

Im Hochschulbereich selbst werden wir immer wieder mit der Vision von Universitäten konfrontiert, in denen nur noch die ‚besten Professor*innen ihres Fachs‘ tatsächlich lehren dürfen (über MOOCs, TED-Talks oder Online-Masterclasses). Der Rest ist mit der ‚Betreuung der Studierenden‘ beschäftigt, eine Rolle, die zunehmend von KI-Agenten und Überwachungsinstrumenten übernommen wird. Wir sollten diese Visionen von Bildung ernst nehmen, nicht weil KI sie liefert, sondern weil sie ernst gemeint sind. Die KI-Industrie will nichts Gutes für die Hochschulbildung. Und sie will die Hochschulbildung nicht zu einem Projekt der Massenintellektualität und des Massenwissens umstrukturieren. Die offensten ihrer Vertreter*innen sind zumindest bereit, dies laut auszusprechen. KI fordert Investitionen in private Technologien, nicht in öffentliche Bildung. Sie bietet an, geteiltes Wissen und eine qualifizierte Mittelschicht durch proprietäre Daten und ‚intelligente‘ Erweiterungen zu ersetzen. KI wird die Qualität der Ergebnisse nicht verbessern, ganz zu schweigen von der Qualität des Arbeitslebens der Pädagogen. Wenn KI zugelassen wird, werden die meisten KI-Ergebnisse akzeptiert und sie werden als ‚Menschen in einer Schleife‘ fungieren, wenn Schülerüberwachungssysteme ein Problem anzeigen.

Eine verschobene Revolution

Was aber, wenn KI die Produktivkraft von Wissen revolutionieren könnte? Was wäre, wenn sie die Krebsdiagnose, die Entdeckung von Medikamenten oder die Klimamodellierung verbessern könnte? Bei diesen oft zitierten Beispielen handelt es sich um spezielle Anwendungen des maschinellen Lernens und nicht um allgemeine Sprachmodelle, und selbst hier sind die Beweise für bessere Ergebnisse begrenzt und umstritten. Die Vorhersage von Geoffrey Hinton aus dem Jahr 2016, dass Radiolog*innen bald überflüssig sein würden, war eine enorme Überschätzung der Fähigkeiten des maschinellen Lernens, selbst in einem paradigmatischen Anwendungsfall, in den seit Jahrzehnten investiert wird. Mit Blick auf die Gesamtwirtschaft prognostiziert der Wirtschaftswissenschaftler Daron Acemoglu, dass die Produktivitätssteigerungen durch generative KI in den nächsten zehn Jahren weniger als 0,55 % betragen könnten und dass viele KI-bezogene Effizienzsteigerungen einen ‚negativen sozialen Wert‘ haben könnten. In „Ironies of Generative AI“ stellen die Autoren fest: „eine Verschiebung der Rolle der Nutzer*innen von der Produktion zur Bewertung, eine wenig hilfreiche Umstrukturierung der Arbeitsabläufe, Unterbrechungen und eine Tendenz zur Automatisierung, die leichte Aufgaben leichter und schwere Aufgaben schwerer macht“.

Expert*innen können, so scheint es, generative Modelle für einige Routineaufgaben nutzen, indem sie beurteilen, was Routine ist, welche Abkürzungen sinnvoll sind, wie Fehler erkannt werden können und wann ein Ergebnis ‚gut genug‘ ist. Aber nichts davon macht die Arbeit von Expert*innen einfacher, besser oder befriedigender, nichts davon macht Expert*innenwissen insgesamt produktiver, und all das erfordert… Expert*innenwissen. Für den Nichtexpert*innen kann die plausible Schein-Expertise von Sprachmodellen aktiv behindernd wirken, mit Folgen wie kognitiver Abhängigkeit, Dequalifizierung, vermindertem Lernen und geringerer persönlicher Handlungsfähigkeit. Schließlich werden in der Hochschulbildung und in der beruflichen Bildung Inhalte nicht produziert, um produktiv zu sein, sondern um eine Praxis zu entwickeln und sich durch die Praxis weiterzuentwickeln. Expertise ist eine Qualifikation des ganzen Selbst, eine Reihe von Werten, ein Repertoire von Situationen, eine Rolle in einer Gemeinschaft mit einem gemeinsamen Verständnis. Es mag Abkürzungen geben, um wie ein Experte zu klingen, aber es gibt keine wirklich guten Abkürzungen, um ein Experte zu sein.

Der Ouroboros der datengestützten Inhalte

Alistair Alexander schrieb kürzlich über die Risiken, die die algorithmische Produktion kultureller und intellektueller Inhalte für Wissenssysteme mit sich bringt. Mehr als jeder andere Sektor sind die Universitäten von diesen epistemischen Schäden bedroht. Wir erleben den Verlust offener Wissensprojekte an KI-Crawler, die Überflutung öffentlicher Wissensräume durch KI, die Verschlechterung von Suchmaschinen, eine Epidemie wissenschaftlicher Fälschungen, die Korrumpierung des Peer-Review-Verfahrens, die Bedrohung wissenschaftlicher Archive und vor allem die Bedrohung durch wissenschaftliche Verlage, die ihre vergangenen und zukünftigen Kataloge ‚zum Training von KI‘ anbieten.

Diese degenerativen Effekte sind aber nur möglich, weil die Automatisierung bereits weit fortgeschritten ist. Wissenschaftliche Karrieren hängen bereits von Daten ab: wie viele Publikationen, wie oft zitiert, wie gerankt, wie indexiert usw. Meta-Reviews und datenbasierte Methoden dominieren selbst in den Geisteswissenschaften und kritischen Sozialwissenschaften. Lehren, Lernen und Evaluieren erfordern, dass akademische Inhalte durch verschiedene Datensysteme geleitet werden, von Lernmanagementsystemen (LMS) bis zur Plagiatserkennung und von der automatischen Benotung bis zu Fortschrittsanzeigern. Dank ‚KI-fähiger‘ LMS können Lehrende jetzt ihre Vorlesungsfolien und Aufgaben ‚automatisch‘ generieren. Andere Systeme bieten plausibles Feedback. Kein Wunder, dass sich Studierende den Ergebnissen generativer Systeme zuwenden, weil sie befürchten, hinter ihren KI-gestützten Kommilitonen zurückzubleiben.

Dies wurde als Krise des ‚Schummelns‘ bezeichnet, ist aber sicherlich eine Krise der universitären Ausbildung insgesamt. Wenn der von uns entworfene Lehrplan mit plausiblen Faksimiles von Expert*inneninhalten ‚bestanden‘ werden kann, helfen wir den Studierenden nicht, selbst zu Expert*innen zu werden, und motivieren sie auch nicht dazu.

Stattdessen werden KI-Anwendungen an Schüler*innen und Studierende für die KI-Produktion und an Lehrer*innen für die KI-Erkennung vermarktet – ein Wettrüsten, das keine Seite gewinnen kann. Die KI-Industrie verdient an beiden Seiten – tatsächlich sind Schüler*innenaufsätze einer der wenigen profitablen Anwendungsfälle – und akademische Inhalte sind Teil des Deals, werden überwacht und monetarisiert, um ‚Verbesserungen‘ im System zu erzielen. In diesem Ouroboros der Daten- und Kapitalzirkulation ist der eigentliche Inhalt nur eine momentane Konfiguration des Datenflusses in einer für Menschen lesbaren Form. Wie lange wird es dauern, bis dieses Produktivitäts- und Geschwindigkeitshindernis beseitigt ist und die Systeme von Studierenden und Lehrenden sich gegenseitig lesen können, ohne dass es einer menschlichen Schnittstelle bedarf? Warum studieren, wenn man sich für das nächste Upgrade registrieren kann?

Was die Universitäten (anders) machen könnten

Die Universitäten müssen sich mit ‚Künstlicher Intelligenz‘ als einem umstrittenen Bedeutungsfeld und als einem politisch-wirtschaftlichen Projekt, das sie beeinflussen können, auseinandersetzen, anstatt die Studierenden einfach nur auf eine Zukunft vorzubereiten, in der ‚KI-Fähigkeiten‘ das einzige Know-how sind, das zählt. In meinem Blog gehe ich auf eine Reihe möglicher Antworten ein, hier sind nur einige davon.

1. Expert*innen mit eigener Expertise und Praxis weiterentwickeln. Selbst wenn es der ‚KI‘, wie versprochen, gelingen sollte, Wissen vielfältiger, situierter und nutzbarer zu kodieren, wird sich der Einsatz dieser Systeme (in jeder Hinsicht) nur dann lohnen, wenn Menschen selbst Expert*innen ist.

2. Wissenschaftliche Archive und Repositorien gegen generierte Inhalte zu verteidigen und Wissenspraktiken aufrechtzuerhalten, die nicht durch generative Datenarchitekturen laufen. Dies könnte autonome Geräte und Server, Räume für analoges Schreiben, Produktion und Analyse, mündliche Präsentation von Ideen und authentische (situierte) Projekte umfassen. Die Aufrechterhaltung dieser Räume wird technischen und epistemischen Einfallsreichtum erfordern – genau die Art von Fähigkeiten, die in einer ‚KI-Zukunft‘ erforderlich sein werden.

3. Regulierung von KI für das Wohlergehen von Mitarbeiter*innen und Lernenden. So wie Schulen und Universitäten begonnen haben, einen verantwortungsvollen Umgang mit sozialen Medien zu kultivieren, sollten sie auch die unfairen und toxischen Auswirkungen von KI-Agenten auf die intellektuelle und epistemische Entfaltung erkennen. Ein klarer Regulierungsansatz wird es den Universitäten ermöglichen, nicht nur ihre grundlegenden Praktiken und Werte zu verteidigen, sondern auch ihre Mitarbeiter zu schützen.

4. Einen neuen Vertrag mit den Studierenden aushandeln, der den Prozess über die Leistung stellt, die Vielfalt der Ausdrucksformen wertschätzt und die Zukunft von Wissen und Expertise offen hinterfragt. Modelle für die Arbeitsbelastung in der Lehre müssen die Zeit und Sorgfalt berücksichtigen, die notwendig ist, um sich mit den Ideen der Studierenden auseinanderzusetzen. Möglicherweise muss das Tempo verlangsamt werden. Ein Vorteil der Krise besteht darin, dass neue Lehr- und Bewertungsansätze erprobt werden, die jedoch alle eine Investition in die Lehre als intellektuell anspruchsvolle, zeitintensive und wertebasierte Form der Expert*innenpraxis erfordern.

Universitäten sind keine hilflosen Zuschauer*innen bei der Datafizierung von Expert*innenwissen, sondern wichtige Akteur*innen. Die universitäre Ausbildung soll die Studierenden befähigen, ihre Zukunft zu gestalten, einschließlich der Frage, wie sie mit den verschiedenen technisch-sozialen Konfigurationen von Arbeit umgehen. Und die Universitäten haben eine Verantwortung, die über die Ausbildung einer neuen Generation von Fachkräften hinausgeht – eine Verantwortung für Gerechtigkeit, Gleichheit, das Streben nach Wissen und einen lebenswerten Planeten –, die eine kritische Bewertung der Art und Weise erfordert, wie diese Technologien das Wissen verändern und welchen Schaden sie anrichten könnten.

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..