NSA und Google wollen, dass wir berechenbar sind. Aber wollen wir das auch?

Google und NSA wissen alles über uns. Berechnen unser Leben. Entscheidend ist jedoch nicht, ob wir determinierbar sind oder nicht. Das eigentliche Problem liegt viel eher darin, dass der staatlich-technisch-marktwirtschaftliche Komplex so handelt, also ob wir determinierbar seien. Und dass wir das als Realität annehmen. Der Schriftsteller und Philosoph Guillaume Paoli ruft zum Widerstand auf.

*

Die digitale Öffentlichkeit ist enttäuscht. Es liegt nicht so sehr daran, dass wir von Google und Konsorten ohne unser Wissen ausgewertet, verwertet und weiterverkauft werden, das wäre noch zu verkraften. Auch dass demokratische Staaten uns alle auf eine Weise ausspionieren, wie es keine totalitäre Diktatur jemals getan hat, ist zwar schwer zu schlucken, lässt sich jedoch noch irgendwie wegerklären. Die eigentliche Schmach ist in etwas anderem begründet.

Nämlich in der unterschwelligen Feststellung, all unsere Gedanken und Handlungen können deswegen überwacht und manipuliert werden, weil sie komplett berechenbar seien. Das Determinismus-Team hat über die Mannschaft des freien Willens durch ein technisches KO gesiegt. Individuelle Autonomie war bloß ein Mangel an Algorithmen. Nun sind sie da, die Algorithmen, sie werden immer besser, und alleweil flüstern uns ihre Analytiker zu: „Du bist nichts anderes als ein Nullkommaetwas, eine statistische Schnittmenge, ein durchschaubarer Datenhaufen. Du hast das Privileg, in einer freiheitlichen Ordnung zu leben, weil auf dem Schachbrett der Angebote und Präferenzen all deine Züge vorherbestimmt sind. Du hast die freie Wahl und was du wählen wirst, ist uns schon bekannt.“

Von dieser narzisstischen Kränkung wird sich die liberale Subjektivität schwer erholen können. Ach, wie frei wähnte sich der postmoderne Hedonist! Von allen Traditionen und äußeren Einflüssen losgelöst! Durch die Vielfalt der Singularitäten schweifend! Seine temporären Identitäten nach Gusto wechselnd! War es nicht ein guter deal, seine veraltete Seele gegen einen Teller Conchitawürstchen eingetäuscht zu haben? Wieso hätte sich der user ernsthaft gegen eine Macht aufgelehnt, die ihm gegenüber so großzügig war? Ihm wurde alles geschenkt, Bilder und soziale Kontakte, Unterhaltung und Wissen, Community und Personalisierung, alles für lau. Zu spät erfuhr er, dass er doch einen faustischen Pakt eingegangen war: Was er dafür ausgeben sollte, war die Verfügung über sich selbst.

Hartz IV und Easyjet: Trefferquote 93%

Die Wege des Menschen sind ergründlich. Die Erkenntnis ist nicht neu. Ein klassisches Beispiel davon ist jener Stadtplan von Paris, der 1952 von dem Soziologen Paul-Henry Chombart de Lauwe veröffentlich wurde. Darauf hatte er sämtliche Wege verzeichnet, die eine seiner Studentinnen innerhalb eines Jahres durchlief. So zeigte er, wie furchtbar gering die Mobilität der Probandin war: Von seltenen Abstechern abgesehen reduzierte sie sich auf wenige, dafür intensiv benutzte Strecken, alle in einem Dreieck zwischen Wohnung, Schule und Klavierunterricht eingegrenzt.

Damit wollte Chombart de Lauwe verdeutlichen, wie eng der urbane Raum ist, in dem jedes Individuum tatsächlich lebt. Wir erfahren nur einen armseligen Bruchteil des Stadtplans. Und nicht nur waren die Wege der Pariserin äußerst begrenzt, auch war deren zeitliche Abfolge derart regelmäßig, dass es ein Kindesspiel gewesen wäre, vorauszusagen, wann, wie und wohin die junge Frau sich am kommenden Tag begeben würde. Das ist lange her, zu einer Zeit, als Autos und Flugzeuge Luxus waren, als die Menschen an ihr Stadtviertel oder Dorf gebunden waren, einen festen Arbeitsplatz hatten und höchstens einmal im Jahr in den (nicht sehr entfernten) Urlaub fuhren.

Sechzig Jahre später erforschte das Team des Physikprofessors Albert Lászlo Barabási die Wege, Gänge und Fahrten der heutigen Zeitgenossen. Allein das gewählte Verfahren zeigt, wie sehr sich die Zeiten gewandelt haben. Wo sich der Stadtsoziologe vorsintflutlich mit einer Einzelprobandin begnügen musste, die die eigenen Wege peinlich notierte, trägt jetzt jedermann einen Bewegungsmelder, der ihn permanent verortbar macht. So konnte die Zirkulation hunderttausend anonymer und per Zufallsprinzip ausgewählter Mobilfunknutzer verfolgt werden. Doch nicht nur hat sich die Technik gewandelt; in Zeiten allgemeiner Mobilität sind die Einzelstrecken der Menschen viel differenzierter.

Zwar finden sich noch viele, deren Bewegungsradius nicht größer ist, als der der Pariser Studentin von damals. Die gewöhnlichen Wege eines Hartz-IV-Empfängers dürften selten über Jobcenter, Aldi und die Imbissbude hinaus führen. Gleichzeitig aber strömen in Flughäfen Easyjet-Touristen und Business-Class-Angestellte, hoppen Projektmacher von einer Stadt zur anderen, rennen Freizeitbeschäftigte in allen Ecken, um das Angebot der Konsum- und Unterhaltungstempel wahrzunehmen. Auf den ersten Blick herrscht also ein undurchschaubares Chaos. Und doch zeigt die besagte Untersuchung: Ganz gleich, ob die Menschen sich kaum von ihrem Viertel entfernen oder ob sie zweimal pro Woche interkontinental fliegen, ganz gleich, ob sie alt oder jung, männlich oder weiblich, arm oder wohlhabend, Land- oder Stadtbewohner sind, auf alle Fälle können ihre Bewegungen vorhergesagt werden und zwar mit einer Trefferquote von 93%.

Die gespeicherte Spur ihrer Funksignale weist auf einfache Muster, die sich erwartbar reproduzieren werden. Das ist nicht weiter erstaunlich, möchte man meinen: Nach wie vor ist das Leben von Arbeit und Konsum bedingt, die Leine ist bloß länger geworden. Aber der Professor Barabási kennt keine sozial bedingten Zwänge. Da er die aktuellen Verhältnisse für unabänderlich hält, zögert er nicht zu sagen, dass „das menschliche Verhalten zu 93% prognostizierbar“ sei. Die Behauptung ist schon deshalb übertrieben, weil sich das Verhalten eines Menschen nicht aus seinen Bewegungen entnehmen lässt. Ich kann mit hundertprozentiger Sicherheit prognostizieren, dass am kommenden Freitag 1,5 Milliarden Moslems in der Moschee beten werden. Doch was sagt mir das über ihr Verhalten? Es bestätigt bloß, dass sie Moslems sind.

Ebenfalls bin ich mir dessen absolut gewiss, dass morgen früh um acht Abermillionen ins Büro gehen werden, und das bestätigt nur, dass sie Lohnsklaven sind. Wird ihr Alltag unterbrochen, sei es von einem Generalstreik oder einer Naturkatastrophe, dann werden ihre gestrigen Wege keinen Aufschluss über ihr momentanes Verhalten geben können. Letztendlich laufen solche Untersuchungen auf die Tautologie hinaus: Routine ist voraussehbar.

CIA, Facebook und Montaillou

Über das Leben der Bewohner des südfranzösischen Dorfes Montaillou um das Jahr 1325 sind wir genauestens informiert. Ihr Klatsch und Tratsch sind in detaillierten Zeugnissen festgehalten worden. Wir kennen die öffentlichen Faseleien jedes Schäfers, die intimsten Wünsche jeder Bauernbraut. Wir wissen, wer es mit wem trieb. Nicht Facebook sind diese Informationen zu verdanken, sondern der heiligen Inquisition, die im Dorf einen langen Ketzerprozess führte und protokollierte. Zu Unrecht wird heute die Inquisition allein mit Folter und Scheiterhaufen assoziiert.

Eigentlich wurden diese Mittel nur im äußersten Fall angewendet – also nicht häufiger als heute die von der CIA praktizierten Foltermethoden und gezielten Tötungen. Im Grunde war die Inquisition eine Suchmaschine. Inquirere heisst ja: untersuchen. Wer nichts zu verbergen hatte, der hatte auch nichts zu fürchten. Die Inquisitoren wollten einfach wissen, wie die Menschen tickten und wieso sie zur Sünde neigten. Sie waren im Dienst des Guten, wollten die gottgewollte Ordnung vor schädlichen Häresien schützten. Dabei war das Verfahren sehr modern und rational. Unzählige Zeugenaussagen wurden peinlich genau gesammelt, ehe über den guten oder schlechten Leumund einer Person entschieden wurde. Die Inquisition hat Big Data erfunden. Was ihr noch fehlte, war die Erfindung des arabischen Mathematikers Muhammed al Chwarizmi. Sieben lange Jahrhunderte mussten vergehen, ehe die Algorithmen das inquisitorische Projekt vervollständigen konnten.

Denn ohne Algorithmus sind die Informationen, die von Suchkonzernen über uns gesammelt werden, wenig brauchbar. Sie enthalten keine brisanten Geheimnisse. Sie sind so banal wie ein weggeschmissener Einkaufszettel oder eine belanglose Bemerkung an einer Straßenecke. Doch aus diesem Datenmüll wird dank statistisch korrelierter Muster ein Phantombild hergestellt. Tatsächlich ist dieses modellierte Ich berechenbar, weil aus binären, marktgerechten Entscheidungen gemacht – jetzt kaufen oder später, gefällt mir oder gefällt mir nicht.

Ob mein wirkliches Ich wiederum deterministisch agiert, hängt davon ab, inwiefern es sich mit seinem plumpen Doppelgänger identifiziert. Allerdings ist der Anpassungsdruck nicht zu unterschätzen. Nach wie vor hat die Inquisition eine einschüchternde Funktion, wie das Motto von Google deutlich macht -„Don’t be evil“- durch die drohende Warnung des Firmenchefs Eric Schmidt ergänzt: “Wenn es etwas gibt, von dem Sie nicht wollen, dass es irgendjemand erfährt, sollten Sie es vielleicht ohnehin nicht tun.“

Ursache und Logik eines Ereigniszusammenhangs

Eine algorithmisch geregelte Ordnung kennt keine Kausalität, sondern nur Korrelationen. Im Grunde bringt uns die komplexe Technik, die Amazon-Empfehlungen oder geheimdienstrelevante Profile generiert, auf den Stand der Bauernweisheiten zurück. Hocken die Hühner in den Ecken, kommt bald Frost und Winters Schrecken. Geht der Fisch nicht an die Angel, ist der Regen bald kein Mangel. Solche Sprüche sind Korrelationen. Sie sind das Ergebnis von empirischen Beobachtungen, die über Generationen wiederholt wurden. Ihre statistische Relevanz ist nicht zu unterschätzen. Sie können sich für praktische Zwecke als nützlich erweisen. Nur: Damit wird über Ursache und Logik eines Ereigniszusammenhangs nichts gesagt.

Das Warum wird ausgelassen. Vor allem sind Korrelationen nur in einem stabilen System brauchbar (selbst Bauernregeln für das Wetter haben mit der Klimaveränderung an Zuverlässigkeit eingebüßt). Es ist also die Frage, ob unser Verhalten so stabil ist, wie von Steuerungsingenieuren angenommen. Die obskuren Motivationen, ambivalenten Begehren, irrationale Wendungen und zufälligen Bewusstseinssprünge, die einen Menschen von einem Automaten unterscheiden, werden bloß als noise aufgenommen, der beseitigt werden soll. Mit einem Wort, damit das System funktioniert, müssen nicht die Maschinen intelligenter, sondern die Menschen dümmer gemacht werden.

Knall fürs Leben

Symbolisch gesehen ist die digitale Membran, die jedes Individuum umhüllt und seinen Informationswechsel mit der Außenwelt regelt, eine mütterliche. Die Matrix ist ihrer Etymologie einer Gebärmutter getreu. Überwacht und gesteuert werden wir nicht von Big Brother, sondern von Big Mother. Sie sagt: „Ehe du hungrig wirst, werde ich dich stillen. Deine Wünsche kenne ich besser als du. Du brauchst nicht rechnen, ich rechne für dich. Du musst dich nicht orientieren, ich zeige dir den Weg. Du musst nichts fürchten, unter meinen Fittichen bist du in Sicherheit, für immer. Wie könntest du denn eines Tages so undankbar sein, mich verlassen zu wollen?“ Jeder weiss, wie viel schwieriger es ist, sich den weichen Empfehlungen der Mutter zu widersetzen als den harten Befehlen des Vaters. Da spielen emotionale Erpressung, Lockangebote und soft power mit.

Dabei geht es nicht um eine Alternative, sondern um die Arbeitsteilung zwischen zwei symbolischen Instanzen, Vaterstaat und Muttermarkt, so wie in jedem Polizeirevier zwischen good cop und bad cop. Mit jeder neuen app und jeder neuen Funktion vollzieht sich die Rückkehr in den sicheren und ereignislosen Mutterschoß. Dazu passt die infantile Grammatik, die Facebook seinen Nutzern auferlegt. „Was machst du gerade? Willst du mein Freund sein? Ich möchte ein Bild mit dir teilen. Gefällt mir.“ Schuld an diese Infantilisierung ist natürlich nicht die Technik an sich und noch weniger der Algorithmus. Bereits 1835 hatte Alexis de Tocqueville in Amerika die Ankunft einer neuen Machtform erblickt: „Unumschränkt, ins einzelne gehend, regelmäßig, vorsorglich und mild“, sie würde die Menschen „unwiderruflich im Zustand der Kindheit festhalten“ indem sie für ihr Vergnügen und ihre Sicherheit sorgen würde, bis der Betätigung des Willens nur noch ein schmaler Raum gelassen wird. Wer zu lange gemuttert wurde und es nicht schafft, sich zu trennen, bekommt ein Knall fürs Leben.

Jeder kann unberechenbar werden

Relevant ist also nicht die Frage, ob wir determinierbar sind oder nicht. Das eigentliche Problem liegt viel eher darin, dass der staatlich-technisch-marktwirtschaftliche Komplex so handelt, also ob wir determinierbar seien. Das Verhalten von Laborratten ist voraussehbar und reproduzierbar, weil im Labor alle Bedingungen dafür erschaffen worden sind. Dem Zufall ist nichts überlassen. In dem Film „Einkaufswelten“ zeigt Harun Farocki, wie in einem Einkaufszentrum sämtliche Schritte und Blicke der Besucher berechnet und konditioniert werden (zumindest solange die Besucher sich wie Konsumenten verhalten, sobald sie den Laden plündern, funktioniert die ausgefeilte Technik nicht mehr).

Ebenso entwickelt sich der virtuelle Raum als ausgedehnter Supermarkt. Da findest du immer, was du suchst, weil das, was du suchst, das ist, wovon du weißt, das es zu finden ist. Vor Zufällen bist du geschützt. Dich erwartet keine böse Überraschung, aber auch keine Gute. Alles ist bequem, schnell, durchoptimiert und langweilig. Es besteht kein Zweifel, dass an einer solchen Konfiguration emsig gearbeitet wird. Ob diese gelingen wird, hängt aber von der Massenakzeptanz ab. Letztendlich muss sich jeder mit der reduzierten Version seines Selbst anfreunden. Kein Algorithmus kann voraussehen, ob die rasante Mutation irgendwann auf Ablehnung und Demotivation treffen wird. Noch steht jedem offen, unberechenbar zu werden.

Anm.d.Red.: Die Fotos wurden im Maidan, dem größten Park Kalkuttas von Daniel Roy aufgenommen. Sie stehen unter einer Creative Commons Lizenz.

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.