Nach dem Fortschritt: Degeneriert Generative Künstliche Intelligenz das menschliche Wissen?

Ökologien des Wissens. Collage: Colnate-Gruppe (cc by nc)
Ökologien des Wissens. Collage: Colnate-Gruppe (cc by nc)

Wir erleben die erste Generation von Studierenden, die vollen Zugang zu generativer KI hat (z.B. um Hausarbeiten zu schreiben) und gleichzeitig die erste Generation von Lehrenden, die mit Angeboten zur Nutzung von KI-Tools bombardiert wird (z.B. um Hausarbeiten zu korrigieren oder zu benoten). Führt dies zu einer kreativen Zerstörung von Wissensökologien? Erleben wir das Ende der kollektiven Ermächtigung durch Bildung? Alistar Alexander sucht nach Antworten.

*

KI-getriebene Large Language Models, kurz LLMs, können fast alles, was Menschen mit Sprache können. Bis auf das eine, wofür Sprache eigentlich da ist: Bedeutung zu vermitteln. LLMs erzeugen Sprache, die frei von Bedeutung ist. Sie können sich der Bedeutung annähern – manchmal sehr gut. Aber natürlich sind ihre Antworten in Wirklichkeit bedeutungslos.

Dies wurde kürzlich in einem Artikel diskutiert: „Wenn man eine Person fragt ‚Welches Land liegt südlich von Ruanda‘ und sie antwortet ‚Burundi‘, dann teilt sie eine Tatsache mit, von der sie glaubt, dass sie in der Außenwelt wahr ist. Stellt man diese Frage einem linguistischen Modell, so lautet die eigentliche Frage: ‚Welche Wörter folgen am wahrscheinlichsten auf die Sequenz ‚Welches Land liegt südlich von Ruanda?‘, wenn man die statistische Verteilung der Wörter in dem riesigen öffentlichen Textkorpus betrachtet. Selbst wenn das System mit dem Wort ‘Burundi’ antwortet, ist dies eine andere Art von Aussage mit einem anderen Bezug zur Realität als die Antwort eines Menschen.

Ökologien des Wissens

In dem Maße, in dem sich LLMs verbessern und ihre Antworten den menschlichen Antworten ähnlicher werden, verschärft sich das Problem; es steigt die Wahrscheinlichkeit, dass eine LLM-Antwort mit einer sinnvollen Antwort verwechselt wird. In dem Maße, in dem der Unterschied zwischen diesen beiden Antworttypen immer subtiler wird, werden die Auswirkungen immer tiefgreifender – auf die gesamte menschliche Wissensökologie.

In diesem Zusammenhang bezieht sich ‚Wissensökologie‘ auf alle Systeme und Verbindungen, die Menschen zur Verfügung stehen, um Wissen aufzubauen und zu teilen. In dem Maße, in dem LLM-generierte Antworten unser kollektives Wissen weiter durchdringen, werden wir immer weniger in der Lage sein, zwischen menschlicher Sprache und KI-Sprache zu unterscheiden, d.h. welche Sprache sinnvoll ist – oder zumindest sein sollte – und welche Sprache definitiv bedeutungslos ist. Denn wie oft haben Sie sich in letzter Zeit gefragt: Hat das eine KI geschrieben? Und wie oft waren Sie sich nicht sicher?

Kontamination durch KI

In den frühen 2000er Jahren waren gentechnisch veränderte Lebensmittel sehr umstritten, und es gab viele der gleichen Befürchtungen wie heute in Bezug auf KI: unausgereifte Technologien mit ungewissen Auswirkungen, Marktabschottung durch Großkonzerne und so weiter. Damals befürchteten die Wissenschaftler*innen vor allem, dass unbewiesene gentechnisch veränderte Nutzpflanzenstämme in die Ökosysteme gelangen und sich unkontrolliert mit anderen Stämmen kreuzen könnten. Dieses Risiko wurde als ‚Kontamination‘ bezeichnet, und heute, da gentechnisch veränderte Nutzpflanzen allgegenwärtig sind, können wir feststellen, dass diese Befürchtung berechtigt war.

Mit der zunehmenden Verbreitung von KI-Inhalten wird auch unsere Wissensökologie kontaminiert. Bald könnte es fast unmöglich sein, irgendeinen Teil unserer Wissensökologie als nicht von KI kontaminiert zu betrachten. Google-Forscher*innen warnten kürzlich davor, dass KI „das kollektive Verständnis der sozio-politischen Realität oder den wissenschaftlichen Konsens verzerren“ könnte.

Dieser Prozess ist besonders im Bildungssektor zu beobachten. Öffentliche Bibliotheken füllen sich beispielsweise mit KI-generierten Büchern. Wir wissen auch, dass eine große Zahl akademischer Arbeiten zumindest teilweise mit Hilfe von KI verfasst wird. Es ist daher wahrscheinlich, dass in naher Zukunft selbst Forscher*innen, die sich entschieden haben, ihre Arbeiten ohne KI zu verfassen, unbeabsichtigt KI-Quellen zitieren werden; ähnlich wie bei gentechnisch veränderten Pflanzen wird es bald unmöglich sein, eine wissenschaftliche Arbeit als wirklich KI-frei zu bezeichnen.

Epistemischer Zusammenbruch

Doch die Auswirkungen der KI auf das Wissen gehen weit über die Kontamination hinaus. Es gibt eine weitere ernsthafte Bedrohung durch KI: den epistemischen Zusammenbruch oder Wissenskollaps. Mit anderen Worten: KI wird unsere menschliche Wissensgesellschaft grundlegend und katastrophal zerstören. Wir können bereits sehen, dass sich dies auf verschiedene Weise manifestiert.

Am deutlichsten wird dies vielleicht im Bildungsbereich. Die Nutzung von KI-Lernmethoden scheint unter Schüler*innen allgegenwärtig zu sein – manchmal ist dies für Lehrer*innen leicht zu erkennen, manchmal nicht. Eine kürzlich durchgeführte Studie hat gezeigt, dass dies dazu geführt hat, dass Schüler*innen weniger in der Lage sind, ihre eigenen Ideen zu entwickeln. Um dieser Entwicklung entgegenzuwirken, aber auch um von ihr zu profitieren, fördern Universitäten jetzt aktiv KI-Lernwerkzeuge.

Gleichzeitig gibt es eine boomende Industrie – und (zumindest seitens der Hochschulen) eine boomende Nachfrage – nach KI-Tools, die den Lehrkräften bei der Bewältigung ihrer Arbeitsbelastung helfen sollen. Diese Werkzeuge sollen den Lehrkräften bei der Verwaltung, der Unterrichtsvorbereitung und der Benotung helfen. Diese Werkzeuge werden auch im Unterricht eingesetzt. Die Vorteile liegen auf der Hand: maßgeschneiderter Unterricht, der auf die unterschiedlichen Bedürfnisse der Schüler eingeht, intensive Unterstützung ohne zusätzlichen Aufwand usw.

Generative KI = degenerative KI

Diese Tools sind häufig in Plattformen integriert, die nicht nur die Erfolgsquoten und den Durchsatz der Schüler*innen, sondern auch der Lehrer*innen überwachen können. Diese Tools werden bereits eingesetzt, um die Lernergebnisse und die Produktivität der Lehrer*innen zu ‚optimieren‘; wie Uber-Fahrer*innen könnten sich auch Lehrer*innen dabei ertappen, undurchsichtigen Leistungsindikatoren hinterherzujagen, die immer höher klettern. Schulen in Großbritannien und Arizona gehen den naheliegenden nächsten Schritt und bieten ausschließlich KI-Kurse an. Bemerkenswert ist, dass sich die Gates-Stiftung für die Genehmigung des Programms in Arizona eingesetzt hat.

Der Einsatz von KI wirft eine Reihe neuer Fragen auf. Wie kann verhindert werden, dass Schülerinnen und Schüler KI nutzen, wenn sie auch mit KI unterrichtet werden? Wenn die Unterrichtsmaterialien von KI generiert werden, wird den Schüler*innen aktiv beigebracht, nicht zwischen menschlichen und KI-Inhalten zu unterscheiden; möglicherweise sind sie sogar noch weniger in der Lage, den Unterschied zu erkennen, als es ältere Erwachsene sind. Welche Art von sozialen Fähigkeiten werden die Schüler*innen von KI-Modellen lernen? Und wenn die Schüler*innen immer abhängiger von der KI werden und von ihr unterrichtet und benotet werden, dann lernt und lehrt eigentlich niemand mehr etwas. Außer natürlich die KI-Modelle.

In dieser und vielen anderen Hinsichten könnte man die generative KI eher als degenerative KI bezeichnen, da die KI-Modelle die Informationsökosysteme, auf denen sie ursprünglich trainiert wurden, degradieren und aushöhlen. KI hat auch Auswirkungen auf unsere Wahrnehmung von Wissen selbst. In einer kürzlich durchgeführten Studie konnten Studierende nicht nur nicht zwischen ChatGPT und menschlichen Gedichten von Sylvia Plath und T.S. Eliot unterscheiden, sie bevorzugten sogar die ChatGPT-Gedichte. Sie wurden als ‚menschlicher‘ eingestuft.

KI-gesteuertes Afrika?

Wie alle neuen Technologien mit unvorhersehbaren sozialen Auswirkungen werden auch diese KI-Bildungstools in Afrika von großen Technologieunternehmen und Geberorganisationen aggressiv beworben. Es überrascht nicht, dass die Gates-Stiftung auch hier eine wichtige Rolle spielt und Tools wie Khanmigo in afrikanischen Schulen unterstützt. Nehmen wir ein Land wie Kenia, wo diese KI-Tools eingeführt werden. Im Moment werden sie als Hilfe für unterfinanzierte Lehrer*innen dargestellt. Aber angesichts des wachsenden Ungleichgewichts zwischen den Ressourcen für traditionelle Bildung und den durch Technologie unterstützten KI-Tools ist es nicht schwer zu erkennen, dass sich dies ändern wird und immer mehr Schüler*innen durch KI unterrichtet werden.

Statt von Lehrer*innen, die in ihrer Gemeinde verwurzelt sind, werden diese Schüler*innen in Kenia von KI unterrichtet, die ausschließlich im Silicon Valley – oder vielleicht in China – beheimatet ist. Wie genau wird die Wissensökologie einer Kleinstadt in Kenia davon profitieren, wenn die ohnehin geringe Zahl an Lehrer*innen unaufhaltsam auf Null reduziert wird? Kenia hat jedes Jahr 50.000 neue Hochschulabsolvent*innen und fast 50.000 neue Lehrer*innen. Wir können also davon ausgehen, dass ein wichtiger ‚Karrierepfad‘ für diese KI-geschulten Studierenden durch die KI-Tools, die sie gelehrt haben, verschlossen wird.

Wohin werden sie gehen?

In Ländern wie Kenia beschäftigen Technologieunternehmen wie Remotasks und Outlier AI inzwischen Tausende hochqualifizierter Arbeitskräfte, die Daten für KI-Modelle etikettieren und verarbeiten. Remotasks wichtigster Kanal Slack soll weltweit 461.000 Menschen beschäftigen. Wie sich herausstellt, ist die KI-Automatisierung überraschend arbeitsintensiv. Diese Arbeitskräfte werden schlecht bezahlt, ausgebeutet und traumatisiert. Remotasks und Outlier sind Subunternehmer von Scale AI, einem ‚KI-Einhorn‘ aus dem Silicon Valley, dessen 27-jähriger Gründer Alexander Wang als jüngster Selfmade-Milliardär der Welt gefeiert wird. In einer kürzlich eingereichten Klage von Arbeiter*innen wurde Scale AI als „die schmutzige Schattenseite der generativen KI-Industrie“ bezeichnet.

Mit der zunehmenden Produktion von Inhalten durch KI sind Forscher*innen auf ein weiteres Problem gestoßen: ein Phänomen, das als „Modellkollaps“ bezeichnet wird, d.h. wenn ein KI-Modell auf KI-Daten trainiert wird, entstehen Rauschen und Verzerrungen in den ausgegebenen Daten. Nach nur wenigen Iterationen ist der Inhalt völlig korrumpiert und das KI-Modell spuckt nur noch Kauderwelsch aus. Es scheint also, dass, wenn man die Bedeutungsfäden entfernt, die unsere gemeinsame Sprache zusammenhalten, die Sprache selbst schnell auseinanderfällt – und ein Computer nicht in der Lage ist, sie wieder zusammenzusetzen. Und es könnte sein, dass auch der Mensch dazu nicht in der Lage ist.

Führende KI-Modelle haben inzwischen buchstäblich alle technisch zugänglichen Daten aus dem Internet aufgenommen – einige davon legal, viele nicht. Während die KI-Labors versuchen, ihre Modelle zu verbessern, sind sie zunehmend auf ‚synthetische‘ Daten angewiesen, die von Maschinen generiert werden, um die Lücken zu füllen. Manchmal scheint dies zu funktionieren, manchmal nicht, und die Aussicht auf einen völligen Modellkollaps rückt immer näher. Was aber, wenn der epistemische Kollaps und der Modellkollaps unwiderruflich miteinander verwoben sind und sich schließlich gegenseitig kontaminieren?

Der kommende Modellkollaps

Wenn der Modellkollaps ein ganzes KI-Modell infizieren und seine Ergebnisse korrumpieren kann, wenn KI-Modelle unser gesamtes von Menschen geschaffenes Wissen kontaminieren – ist es dann nicht zu weit hergeholt, sich vorzustellen, dass auch unser gesamtes Wissen durch den Modellkollaps ernsthaft gefährdet sein könnte? Wenn die Künstliche Intelligenz so voranschreitet, wie es das Silicon Valley plant, und so allgegenwärtig wird, dass sie aus keinem Lebensbereich mehr wegzudenken ist, können wir dann überhaupt noch etwas dagegen tun, wenn der Modellkollaps eintritt? Wären wir in diesem Stadium überhaupt in der Lage, dies zu erkennen?

In den letzten Monaten haben wir viel darüber gehört, dass die ‚Allgemeine Künstliche Intelligenz‘ (Artificial General Intelligence, AGI) oder sogar die Superintelligenz in greifbare Nähe gerückt sei, vielleicht schon 2027. Natürlich ist das durchaus möglich; da die Menschen, denen die KI-Modelle gehören, definieren, was AGI ist, wird es das sein, was – und damit wann – sie entscheiden, was es sein soll. Wir gehen davon aus, dass dieses außergewöhnliche Ziel durch die Herstellung immer leistungsfähigerer Maschinen erreicht wird. Aber vielleicht wird AGI nicht durch immer fähigere Maschinen erreicht, sondern dadurch, dass Menschen immer weniger ‚fähig‘ werden? Für einige KI-Expert*innen könnte dies ein erreichbares – und daher wünschenswertes – Ergebnis sein.

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..