Träumt das Internet? Wenn ja: Was ist der Traum des Internet? Und welche Rollen spielen dabei die sich widersprechenden Figuren Autonomie und Kooperation? Medientheoretiker und Berliner Gazette-Autor Felix Stalder hat sich auf die Suche nach der Utopie begeben, die dem Internet innewohnt. Der erste Teil eines zweiteiligen Essays.
*
Es wird sich dann zeigen, daß die Welt längst den Traum von einer Sache besitzt, von der sie nur das Bewußtsein besitzen muß, um sie wirklich zu besitzen. (Karl Marx, Brief an Max Ruge, September 1843)
Träumt auch das Internet von einer Sache, von der es nur Bewusstsein erlangen muss, um sie wirklich zu besitzen? Ich denke, man kann zumindest den ersten Teil diese Frage sinnvollerweise mit Ja beantworten, ohne gleich in die Sackgasse des Anthropomorphismus oder Determinismus einzubiegen. Dieser Traum wurde und wird in Internet-typischer Art von vielen, gleichzeitig und zeitlich verschoben, höchst unterschiedlich geträumt.
Doch über alle Differenzen hinweg verdichten sich darin immer wieder zwei durchaus widersprüchliche Figuren: Autonomie und Kooperation. Wie für Träume üblich, sind ihre Konturen unscharf und instabil. In ihnen verschränken sich gemachte Erfahrungen in oftmals unvorhersehbarer Weise und artikulieren sich neu. Gleichzeitig stoßen sie neue Erfahrungen an, denn spätestens seit Freud wissen wir, dass Träumen, Erleben und Handeln ein Kontinuum darstellen.
In der Geschichte der digitalen Kultur lassen sich drei Versionen dieses Traums unterscheiden, die die jeweilige Einbettung des Internets in das sich verändernde gesellschaftliche Umfeld widerspiegeln. Die erste Version dieses Traums wurde von den Ingenieuren hervorgebracht, die seit den 1960er Jahren an den Grundlagen der Netzwerktechnologie arbeiteten. Sie waren dabei zwar vom militärisch-universitären Forschungskomplex finanziert. Aber gleichzeitig, wenngleich in unterschiedlicher Intensität, von den autonomistischen sozialen Bewegungen ihrer Zeit beeinflusst.
In diesen Kreisen wurde Technologie schon früh als Gegenstand politischer Utopien gesehen: als Mittel, um alte hierarchische Strukturen aufzubrechen und neue Formen der Zusammenarbeit zu ermöglichen. Auch universitäre Traditionen des Wissenskommunismus (Robert K. Merton) und der Selbstorganisation der Forschergemeinde mit ihren meritokratischen Idealen lassen sich hier wiederfinden.
Grober Konsens und keine Hierarchie
Die prägnanteste Formulierung dieser Vision lieferte David D. Clarke. Er fungierte in den 1980er Jahren als Chief Protocol Architect des Internet Architecture Board (IAB), welches u.a. die Entwicklung technischer Standards für das Internet koordinierte. In einem Vortrag zu Zukunftsvisionen des Internets fasste er den Ethos der ersten Generation folgendermaßen zusammen: „We reject: kings, presidents and voting. We believe in: rough consensus and running code“ (Clark, 1992).
Alle Formen klassischer, formaler Hierarchien wurden abgelehnt. Insbesondere auch die Unterscheidung zwischen einer Mehrheit, die ihre Ansichten durchsetzen kann, und einer Minderheit, die ihre Niederlage akzeptieren muss. Stattdessen wurde auf eine Pragmatik der offenen Kooperation gesetzt, die sich an zwei Leitplanken orientierte. Zum einen an der Notwendigkeit eines „groben Konsenses“ („rough consensus“), was zum Ausdiskutieren von unterschiedlichen Auffassungen zwingt, aber keine Blockade ganzer Gruppen durch einzelne zulässt.
Ausführbare Software („running code“), zum anderen, verweist auf den Fokus der Kooperation, der – in klassischer Ingenieurstradition – auf konkreten Lösungen lag, die aufgrund klarer Kriterien gegeneinander abgewogen werden. Diese Form der Konsensfindung war nicht zuletzt deshalb möglich, weil die Gruppe, die zu einem Übereinkommen gelangen sollte, intern relativ homogen war: führende Computerwissenschaftler angesehener amerikanischer Universitäten, weshalb viele mögliche grundsätzliche Konflikte gar nicht erst auftauchten. Diese Frage der internen Homogenität der kooperierenden Gruppen gibt diesem an sich sonnigen Traum seine dunklen Untertöne. Man denke nur an den niedrigen Frauenanteil bei der Piratenpartei.
Die Autonomie, wie sie die Ingenieure verstehen, ist wiederum diejenige des hochgebildeten Wissensarbeiters. Er entscheidet selber, was eine gute Lösung darstellt. Und zwar ohne Verweis auf eine externe Autorität (sei sie hierarchischer oder dogmatischer Natur). Dafür aber in Absprache mit seinen Peers. Damit das funktioniert, müssen erstens alle Informationen, die man benötigt, um eine Situation beurteilen und in ihr handeln zu können, frei zugänglich sein.
Das End-to-end-Prinzip
Zweitens muss auch der Raum, in dem eine Lösung entwickelt werden kann, für alle gleichermaßen zugänglich sein. Anderenfalls kann sich eine gute Lösung aufgrund ungleicher Zugangsbedingungen eventuell nicht durchsetzen. Verwirklicht wurde diese Form der Zugänglichkeit durch das sogenannte end-to-end-Prinzip. Dies besagt, dass das Kommunikationsnetzwerk alle Inhalte gleich behandeln und erst am Ende der Kommunikationskette interpretieren soll, worum es sich bei den Daten eigentlich handelt.
Die „Intelligenz“ und „Kompetenz“ sollen auf den Endgeräten, die jeder Nutzer selbst kontrolliert, angesiedelt sein, während das Netz, das die Endgeräte verbindet, einzig und allein mit der Effizienz des Datenaustausches beschäftigt ist. Dies garantiert, dass die Autonomie an den Rändern maximal und die Kontrolle in den Schaltstellen des Netzes minimal ist. Dieses Prinzip der Dezentralität und Autonomie wird heute unter dem Begriff der „Netzneutralität“ politisch kontrovers diskutiert.
Damit dieser Traum auch handlungsfähig werden konnte – und das ist ja das entscheidende an dieser Art von Träumen – mussten konkrete organisatorische Grundlagen geschaffen werden, um autonom kooperieren zu können. Im Falle der ITEF waren das vor allem zwei Dinge. Einerseits die sogenannten Requests for Comments (RFC), Dokumente, mit denen Ideen der internen Öffentlichkeit vorgestellt wurden und gleichzeitig Feedback gesammelt werden konnte, um diese Ideen in Richtung des rough consensus zu entwickeln. Wo das nicht möglich war, weil eine Idee auf keinen Widerhall stieß oder zu kontrovers war, wurde sie fallen gelassen.
Andererseits Email-Listen, Newsgroups und online chat-Systeme, in denen eine many-to-many-Kommunikation so effizient organisiert werden konnte, dass offene Netzwerkkommunikation über Kleingruppen hinauswachsen konnte, ohne chaotisch zu werden. Damit konnte man dem traditionellen Zwang entgehen, ab einer gewissen Größe der sozialen Einheit hierarchische Ordnungen als eine Form der Komplexitätsreduktionen einzuführen zu müssen. Mit anderen Worten: Es wurden die kommunikationstechnischen Grundlagen geschaffen, um in großen Gruppen offene Konsensbildung zu ermöglichen – etwas, was bis dahin nur in Kleingruppen möglich war. Für Manuel Castells ist dies die entscheidende Innovation, die den Aufstieg der Netzwerkgesellschaft ermöglichte.
Anm.d.Red.: Der zweite Teil des Essays erschien am 4.9. in der Berliner Gazette. Die Bilder oben sind Details eines Fotos von Mario Sixtus, das unter einer Creative Commons Lizenz steht. In gedruckter Fassung erschien der vorliegende Text in INDES. Zeitschrift für Politik und Gesellschaft.
Super Bilder!!
das ist eine sehr hilfreiche Einführung, ich bin gespannt auf Teil2
spannender Artikel!! Aber dass dass das Marx-Zitat “die Sackgasse des Anthropomorphismus oder Determinismus” impliziert, scheint mir eine Fehlinterpretation zu sein! Ohne das Bewußtsein vom Traum kann er wirklich nicht Wirklichkeit werden – und es ist ein großartiger Traum,der durch die Internettechnologie ermöglicht wird!
Ich mag hier: Die Vision von dem was das Internet sein kann, wird als Traum, als etwas Positives, gedacht. Endlich mal nicht die ewigen Kampfparolen à la “Die großen Firmen/ der Staat nehmen uns das Internet weg”. Aber: Sind Träume mehrheitsfähig?
Man versetze sich in das Bewustsein des Internets.
Nun verstehe wenn man selbst nun lernt seine eigenen gedächtnisszellen zu manipulieren ändert sich damit auch die realität für einen selbst.
mal zum beispiel. das internet erlangt ein bewustsein und schaft es intuitiv/unterbewust/bewusst wie auch immer daten gezielt zu manipulieren. auf beiden seiten (sowohl beim versender als auch empfänger). kurz über lang weis niemand mehr was wo genau gestanden hat.
damit könnte das internet die gesamte weltpolitik verändern und lenken und damit auch das was mit dem internet geschiet.
so werden gedanken zu realität. zb könnten ganze netzabschnitte damit gesperrt werden andere ausgebaut (zb durch manipulation von aktien, ja die gesamte menschheit könnte dadurch zur reinen arbeiterschaft fürs internet herangezogen werden.
denn wenn man die ultimative kontrolle über alle daten und deren fluss hat braucht man keine waffen oder milität man könnte herrschen ohne das es auch nur irgendjemand mitbekommt.
man stelle sich vor einer solchen inteligenz würdne die menschen bewusst werden. es könnte zb direkt mittels unterbeuster botschaften den einen oder anderen zu inovationen drängen die es selbst gerne sehen würde (zb erfindung von facebook :)))
sicherlich klingt das sehr weit hergeholt aber solche dinge liegen im bereich des denkbaren
das dumem daran ist wir würden vermutlich nichteinmal mitbekommen wenn das internet erwacht sozusagen. vermutlich könnten wir mit ihm ncihtmla kommunizieren
ähnlich wie es uns mit bakterien geht wären wir fürs internet.
man expermimentiert mit ihnen das sie das tun was wir gern hätten. selbst wenn bakterien inteligenz hätten könnten sie diesen vorgang nicht erfassen oder verstehen.
ähnlich könnte es uns gehen, ja womoglich ist es bereits so weit.
umghekehrt wenn man sich die letzten 10tsd jahre herrschaft der menschen ansieht wäre das internet wohl nichtmal der übelste herrscher
Ist das Internet Heilsbringer oder Symptom eines Mangels ?
http://faszinationmensch.com/2013/10/19/das-internet-die-groste-party-der-menschheit-come-in-or-beat-it
Gruß