Kritik an Algorithmen: Wie verändern sich Kunden durch Software, die filtert und empfiehlt?

Wie treffe ich eine Kaufentscheidung? Was konsumiere ich? Ökonomische Alltagshandlungen lassen sich heute kaum mehr ohne eine Software begreifen, die Informationen filtert und Empfehlungen ausspricht. Um diese technischen Filtersysteme im Netz besser zu verstehen, müssen wir uns zunächst von Vorurteilen lösen. Die Internet-Expertin Kathrin Passig eröffnet neue Perspektiven: Sie ortet die blinden Flecken im Diskurs, bezieht eine praxisnahe Gegenposition zu teils haltlosen Argumenten, die zur Zeit prominent in den Zeitungen stehen und formuliert dann ihre eigene Kritik an der Technik. Ein Dreischritt in 18 Thesen. Die Berliner Gazette lädt alle dazu ein, den Bestand zu kritisieren oder zu erweitern.

*

1. Pauschale Kritik an Algorithmen, wie sie in den letzten zwei Jahren häufig zu lesen war, ist ungefähr so sinnvoll wie Kritik am „Rechnen“ oder – wie in den 1980er Jahren – an „den Computern“. Man müsste erst mal präzise benennen, welche Verfahren man meint. Das scheitert in der Regel an der fehlenden Anschauung und dem fehlenden technischen Verständnis der Kritiker.

2. In der Diskussion werden immer wieder ziemlich unterschiedliche Themen zu einem Brei verrührt: Die These von der Filter Bubble, die Kritik an Empfehlungsalgorithmen (von denen es wiederum nicht nur eine Sorte gibt), die Kritik an Suchmaschinen, die Kritik daran, nach welchen Kriterien Facebook seinen Nutzern bestimmte Beiträge sichtbarer präsentiert als andere.

3. Ein Großteil der Kritik an Algorithmen bezieht sich auf negative Entwicklungen, die zwar noch nicht eingetreten, aber theoretisch denkbar sind. Diese Kritik ignoriert die ganz konkreten, positiven Seiten der bisherigen Entwicklung und vermeidet den Vergleich mit der Prä-Internet-Welt. Im Zusammenhang mit der These der „Filter Bubble“ etwa wird ausgeblendet, dass das Internet Möglichkeiten bietet, den eigenen Horizont zu erweitern, die vor zwanzig Jahren für fast niemanden verfügbar waren.

Häufig geäußerte Vorwürfe

4. „Empfehlungs- und Filteralgorithmen verlängern auf langweilige Weise die Vergangenheit in die Zukunft hinein“ (meine Zusammenfassung eines Vorwurfs von Miriam Meckel in der FAZ, Mai 2010). Das Problem bei dieser These ist, dass Meckel sich (wie ihrem Vortrag auf der re:publica 2010 zu entnehmen war) dabei auf die iTunes-Funktion Genius bezieht, die tatsächlich nichts anderes kann, als beim Nutzer bereits auf der Festplatte vorhandene Musiktitel zu empfehlen. Es mangelt aber nicht an Angeboten, die genau diese von Meckel geforderten neuen Impulse bereitstellen und dabei auch berücksichtigen, dass sich die Interessen des Nutzers im Laufe der Zeit verändern.

5. „Durch das Ausblenden von unbekannten Variablen entsteht ein gleichförmiger Fluss von Mainstreaminhalten“ (Miriam Meckel, FAZ, Mai 2010). Diese Gleichschaltung von Inhalten durch Filteralgorithmen wäre erst noch zu belegen. Die These vom Long Tail besagt das Gegenteil: Nischenangebote werden im Netz leichter auffindbar. Außerhalb des Internets ist eine Einengung auf Mainstreaminhalte viel offensichtlicher: Im Radio, im Fernsehen, in Buchhandlungen, in Zeitungen kann schon aus Platzgründen nur ein winziger Bruchteil der gesamten kulturellen Produktion berücksichtigt werden.

6. „Computer werden uns immer nur mehr desselben empfehlen, anstatt uns – wie ein guter Freund oder Fachmann – auch mal an das heranzuführen, was unseren Horizont erweitern könnte.“ (Quelle: Volksmund) Ich nehme an, dass diese Kritik nicht aus dem tatsächlichen Gebrauch von Empfehlungssoftware herrührt, sondern sich eher aus Zufallsbegegnungen speist oder theoretischer Natur ist. Sie deckt sich jedenfalls nicht mit meinen Erfahrungen. (Siehe aber auch These 18)

7. „Die Softwaremodelle, auf die wir uns beispielsweise bei der Erstellung von Klimamodellen verlassen, sind zu komplex, ihre Urteile für uns nicht nachvollziehbar“ (David Gelernter, FAZ, April 2010). Bei Klimaprognosen wie Filmempfehlungen lässt sich leicht überprüfen, ob sie mit der Realität zusammenpassen. (Beim Klima dauert es nur etwas länger.)

8. „Also meine Buchhändlerin berät mich immer ganz hervorragend.“ (Quelle: Volksmund) Diese Kritik impliziert: „… und deshalb brauchen wir keine Empfehlungsalgorithmen.“ Die meisten Menschen haben aber keine solche Buchhändlerin.

9. „Aber es ist doch auch schön, sich mit Freunden über Bücher oder Musik auszutauschen!“ (Quelle: Volksmund) Diese Kritik impliziert wiederum „…und deshalb brauchen wir keine Empfehlungsalgorithmen.“ Das Vergnügen an einem solchen Gespräch hat wenig mit der Treffsicherheit der Empfehlung zu tun. Schlechtes Essen kann auch Spaß machen, wenn man dabei ein interessantes Gespräch führt, aber es wird dadurch nicht zu gutem Essen.

10. „Wer computergenerierte Empfehlungen verteidigt, der überschätzt die Fähigkeiten der Maschinen.“ (Quelle: Volksmund) Auch die Fähigkeiten unserer Freunde, uns passende Empfehlungen zu geben, und die Übereinstimmungen der Vorlieben im Freundeskreis werden nicht überprüft und daher überschätzt. Wer im Netz Angebote nutzt, die sichtbar machen, welche Bücher, Musik, Filme die Freunde konsumieren, wird feststellen, dass die Übereinstimmung der Vorlieben eher Wunsch als Wirklichkeit ist. Empfehlungsplattformen unterscheiden aus gutem Grund zwischen „Freunden“ und „Geschmacksnachbarn“.

11. „Algorithmen kommen aus Maschinen und sind deshalb unmenschlich.“ (Quelle: Volksmund) Algorithmen werden von Menschen entwickelt. Programmiersprachen sind Sprachen und drücken einen bestimmten menschlichen Willen aus. Auch wenn es sich um dazulernende Algorithmen handelt, muss sich vorher jemand ausgedacht haben, auf welche Art der Algorithmus dazulernen und welches Ziel damit erreicht werden soll. Eine Schaufel ist ein kalter, harter Gegenstand, aber sie folgt in ihrer Form den Vorgaben des menschlichen Körpers und in ihrem Zweck einem von Menschen gemachten Plan.

Reale Probleme der Empfehlungs- und Filteralgorithmen

12. Viele Empfehlungsalgorithmen sind einfach nicht besonders ausgefeilt, Amazon geht hier mit schlechtem Beispiel voran. Kein Wunder, dass Gelegenheitsnutzer wenig Vertrauen in das Konzept personalisierter Empfehlungen setzen.

13. Intransparente Filter wie bei Facebook sind zwar bequem und verwirren die Nutzer nicht durch komplexe Einstellungsmöglichkeiten, führen aber zu einem nicht unberechtigten Gefühl der fehlenden Nachvollziehbarkeit und Kontrolle.

14. Durch die fehlende Transparenz ist es zu leicht für Anbieter, ihre eigene Agenda in die Empfehlungsgestaltung einfließen zu lassen. Schon die Möglichkeit, dass es sich so verhalten könnte, sorgt für zusätzliches Misstrauen.

15. Kollaborative Filter können nur die Daten über beispielsweise Musikkonsumgewohnheiten verwenden, die unser Verhalten eben hergibt. Dieses Verhalten ist aber stark beeinflusst von herkömmlichen Bestsellerlisten, Mainstreammoden und Ländergrenzen.

16. Die Anonymisierung der für Empfehlungen ausgewerteten Nutzerdaten lässt sich mit lediglich mittelgroßem Aufwand rückgängig machen. Anonyme Bewegungsprofile lassen sich ebenso leicht Personen zuordnen wie die Daten über ihre Filmkonsumgewohnheiten. Daher haben nicht nur Facebook, Google und andere Anbieter den direkten Zugriff auf unsere Nutzungsdaten. Auch Dritte, die diese Daten anonymisiert zur Verfügung gestellt bekommen, können sie wieder mit unserer Person in Verbindung bringen. (Ob man das problematisch finden soll, ist wieder eine andere, nicht weniger umstrittene Frage.)

17. Die Ergebnisse stimmen nicht immer mit unserer Selbstwahrnehmung überein. Wer jahrelang Mainstreamtitel bei Amazon gekauft hat, der bekommt eben auch welche empfohlen, und wer nie auf die Facebookupdates eines Freundes reagiert, bei dem geht der Algorithmus mit einem gewissen Recht davon aus, dass das Interesse an dieser Person so groß nicht sein kann. Klagen über das Ergebnis sind Klagen darüber, dass Wunsch und Wirklichkeit auseinanderklaffen.

18. Wir erkennen wirklich gute Empfehlungen nicht auf den ersten Blick. Gerade entlegene Empfehlungen, wie sie von Kritikern gefordert werden, sind für uns am schwersten zu akzeptieren.

Anm.d.Red.: Der Text fasst Argumente zusammen, die die Autorin an verschiedenen Stellen in letzter Zeit veröffentlicht hat. An dieser Stelle möchten wir auf ihre wichtigsten Texte zu diesem Thema verweisen: „Warum wurde mir ausgerechnet das empfohlen?“ (Süddeutsche Zeitung, 9.1.2012), “Keinem deiner Freunde gefällt das” (Passagen Magazin, Juni 2011), “Abschied vom Besten” (Merkur, Mai 2010). Das Foto oben stammt aus der Viagra-Werbung.

23 Kommentare zu “Kritik an Algorithmen: Wie verändern sich Kunden durch Software, die filtert und empfiehlt?

  1. Kathrin Passig hat eine Übersicht der pauschalen Kritik an Algorithmen zusammengestellt:

    April 2010, FAZ, Frank Schirrmacher:
    http://www.faz.net/aktuell/feuilleton/debatten/digitales-denken/macht-der-simulation-ploetzlich-sind-wir-alle-zuschauer-1971485.html

    April 2010, FAZ, David Gelernter:
    http://www.faz.net/aktuell/feuilleton/debatten/digitales-denken/gefahren-der-softwareglaeubigkeit-die-aschewolke-aus-antiwissen-1606375.html

    Mai 2010, FAZ, Miriam Meckel:
    http://www.faz.net/aktuell/feuilleton/debatten/digitales-denken/unser-berechnetes-dasein-geben-wir-dem-zufall-eine-chance-1978133.html

    Juni 2010, FAZ, Jürgen Kuri:
    http://www.faz.net/aktuell/feuilleton/herrschaft-der-algorithmen-die-welt-bleibt-unberechenbar-1996485.html

    März 2011, Spiegel, Konrad Lischka:
    http://www.spiegel.de/netzwelt/web/0,1518,750111,00.html

    März 2011, SZ, Michael Moorstedt:
    http://www.sueddeutsche.de/kultur/netz-depeschen-sag-mir-erst-wer-du-bist-1.1078162

    Juni 2011, Zeit, Stefan Schmitt:
    http://www.zeit.de/2011/26/Internet-Surfverhalten-Filter

    Juni 2011, SZ, Dirk von Gehlen: http://www.sueddeutsche.de/digital/wie-google-und-co-uns-andere-standpunkte-vorenthalten-welt-ohne-gegenmeinung-1.1112983

    September 2011, FAZ, Miriam Meckel:
    http://www.faz.net/aktuell/feuilleton/debatten/digitales-denken/im-gespraech-miriam-meckel-werden-wir-alle-zu-algorithmen-11228310.html

    September 2011, Spiegel, Miriam Meckel: “Weltkurzsichtigkeit” http://www.spiegel.de/spiegel/print/d-80451034.html

    Herbst 2011, DRadio Wissen, Meckel-Lobo im Gespräch:
    http://wissen.dradio.de/netz-reporter-xl-die-macht-der-maschinen-teil-2.126.de.html?dram:article_id=13317

    29.11.2011, Berliner Gazette, Geert Lovink:
    http://berlinergazette.de/gewalt-des-finazismus-lovink/

  2. Im “richtigen Leben”, in dem die meisten Menschen den Sachverhalt nicht reflektieren, lässt sich das einfach herunterbrechen: Die Einen finden die Empfehlungen nützlich und folgen ihnen, die Anderen lehnen sie ab, weil sie “von Maschinen” kommen.

    Viele sind auch genervt, wenn sie ein Mal etwas über Katzen nachgesehen haben und in der Folge alle möglichen Empfehlungen für Katzengedöns kriegen. Andere folgen ausschließlich den Empfehlungen von Freunden (weil es eben keine “Maschinen” sind?).

    Die Algorithmen sind großenteils noch nicht so spitz, dass sie von der Mehrheit als nützlich empfunden werden (was wieder mit der Reflektion zu tun hat, die einem sagen würde, dass dafür eine große Datenmenge Voraussetzung ist).

    Als kritisch empfinde ich die Anzeige von Suchergebnissen als Ergebnis bisheriger Suchergebnisse und /oder Kontakte.

  3. Danke für den anregenden Beitrag & überhaupt dein Engagement in der Sache; schon den Artikel in der SZ fand ich ausgesprochen lesenswert. Ein wenig zu kurz kommen mir oben alleinig die Pro-Argumente. Algorithmen übernehmen eine unverzichtbare Filterfunktion. Youtube hat vor kurzem bekannt gegeben, dass Tag für Tag neues Videomaterial in einer zusammengenommenen Gesamtlänge von mehr als acht Jahren auf der Plattform erscheint. Soll die Meckel nur meckern: Ohne Filteralgorithmen würden wir ständig nur Müll im Netz finden, das gilt für Youtube genau wie für annähernd jeden anderen Dienst.

  4. Sehr guter und präziser Artikel. Ich denke, dass ich ein paar Argumente davon bestimmt mal anwenden kann. ;)

  5. Danke Frau Passig, für die sehr umfassende Zusammenschau und diverse spannende Argumente bzw. Punkte, an denen weiter überlegt werden kann. Ich habe aber einen zentralen Kritikpunkt an Ihrer Vorgehensweise, der interessanter Weise die Problematik der Algorithmen selbst treffend, wie ich finde, abbildet. Und zwar: Viele Argumente werden im Text genannt, Schlussfolgerungen von Ihnen selbst gezogen, wobei in beiden Fällen die Reflexion (der Anlage gemäß) auffallend unterschiedlich tief geht. Ich erhalte *in der Hauptsache* de facto eine Sammlung an (relativ unverbundenen) Argumenten, aus denen ich mit eigener “Gedankenanstrengung” bei wenig gliedernder Hilfestellung, sozusagen in “mündiger” Weise zu Schlüssen kommen kann. Es hat beträchtlichen Steinbruchcharakter aufgrund der relativ starken Linearität der Nennung von Aspekten bzw. der wenig gegliederten *Nebeneinanderstellung*, ja “Gleich-Bewertung” (durchweg Gewichtung mit dem Faktor 1, sozusagen) von zahlreichen Punkten. Auch wenn man die weitere Leistung dem Leser prinzipiell überlassen kann, ist es natürlich schwierig, bei einem so komplexen Problem Fragmente, Vignetten zu lesen, auf die nur je kurz und ohne die Zwischenverbindungen deutlicher zu machen (Links ;-) ) eingegangen wird. D.h. mehr Struktur ersparte mir Zeit, ohne meine Kritikfähigkeit bei dem Inhalt unbedingt (….) problematisch einzuschränken, da ich mir auch anderweitig Informationen hole. Ironischer Weise bin ich damit mitten in der Personalisierungs-Frage, denn im Fall Ihres Artikels wünschte ich mir in der Tat mehr (Vor-)Strukturierung, Zuspitzung/Selektion und Weglassen oder platzmäßig: Vermindern schwächerer Argumente. Andererseits dürfte es natürlich keine bevormundende (etwa wichtige Argumente unterschlagende) Zuspitzung, Selektion und Strukturierung sein. Und das lässt sich vielleicht auch von den Algorithmen sagen, von denen wir hier reden: Dass es um Qualität und Ausmaß, nicht um ein Entweder-Oder gehen könnte, und dass es sich über Qualität, ja: konkrete Ausgestaltung, Konzipierung dieser Routinen, und das Ausmaß trefflich (genug) wird streiten lassen (Vom Alles-oder-Nichts zum Pragmatismus).

  6. Sehr interessant und vieles sicherlich auch richtig – an einigen Stellen hinken die Thesen meiner Meinung nach ein wenig:

    “Die These vom Long Tail besagt das Gegenteil: Nischenangebote werden im Netz leichter auffindbar.”

    Long-Tail-Theorie hin oder her: Eine simple Google-Suche beweist in vielen Fällen das Gegenteil…

  7. lesenswert. ich geb die info mal weiter in die
    virtuelle welt …

    hier ein punkt aus dem link in ascii

    “8. „Also meine Buchhändlerin berät mich immer ganz hervorragend.“ (Quelle: Volksmund) Diese Kritik impliziert: „… und deshalb brauchen wir keine Empfehlungsalgorithmen.“ Die meisten Menschen haben aberkeine solche Buchhändlerin.”

    denn solche buchhändlerinnen sind oft auch im web aktiv und beraten auch dort.

  8. @Sandor Ragaly: Das Thesenformat war in dem Fall von der Berliner Gazette so gewünscht – in verbundener Form gibt es einen Großteil der Argumente in den am Ende verlinkten längeren Texten im Merkur, im Passagen-Magazin und in der Süddeutschen Zeitung.

  9. Liebe Frau Passig,
    Teufel, so wehren Sie sich doch ganz einfach gegen solche welt- und zweckfremden Vorgaben zugunsten eines leserfreundlicheren Formats, über das sicher nicht zuletzt auch die besagte Redaktion sich erfreut hätte, sie sind doch ein sehr mündiges Wesen!

  10. @moritz: also ich bin für das thesenformat dankbar, es hat eine gewisse klarheit und präzision, schließlich geht es um argumente, nicht um eine schöne narration.

  11. “Authority to Act: Cartographies of the Political in the Age of Algorithmic Culture” — das klingt vermutlich sehr hochgestochen, aber ist auch zu diesem Thema auf jeden Fall sehr empfehlenswert. Ein Vortrag auf den European Media Days (18-19 Nov 2010), den Soenke Zehle gehalten hat.

  12. Guter Artikel. Die pauschale Kritik an Algorithmen ist klassischer konservativer Kulturpessimismus (im Sinne von: die Gesellschaft wird immer unpersönlicher). Das ist ziemlich geschenkt. Wir leben in einer Zeit grosser Informationsmengen und um diese kognitiv bewältigen zu können. Das Problem scheint mir doch vielmehr zu sein, dass die Algorithmen mit spezifischen Interessen geschrieben werden, und diese sind nicht notwendigerweise diejenigen der NutzerInnen. Damit entsteht ein neues Machtgefälle zwischen denen, die die Algorithmen Nutzen, und denen, denen sie gehören.

  13. Das Problem der spezifischen Interessen wird – zumindest bei den Empfehlungsalgorithmen – dort gelindert, wo Empfehler und Verkäufer nicht identisch sind; bei Filmen und Musik gibt es bereits Plattformen, die sich weitgehend auf das Empfehlen beschränken. Wie deren Finanzierungsmodelle im Einzelnen aussehen, weiß ich nicht, es kann schon sein, dass da durch Werbefinanzierung wieder ein bestimmter Bias ins Spiel kommt. Eine interessante dritte Möglichkeit (bisher rein theoretisch, soviel ich weiß) wäre es, den Empfehlungsalgorithmus nutzerseitig zu betreiben, als eine Art Dämon, der in meinen Diensten steht und nicht in denen von Amazon, Google oder Holtzbrinck. Ich habe darüber aber erst ungefähr drei Minuten nachgedacht und weiß nicht, ob uns das auch nur theoretisch weiterbringt – auf irgendeine Art muss sich ja auch dieses Tool wieder mit möglichst vielen fremden Daten vernetzen. Ich stelle mir das provisorisch so vor, dass es das Problem der verdeckten Einflussnahme lindern oder lösen könnte, beim Datenschutzproblem aber keine Hilfe wäre. Ist vielleicht jemandem schon was in dieser Richtung bekannt?

  14. Liebe Frau Passig,

    Sie haben ja Recht. Aber Sie schwimmen auf der Promi-Welle von Frau M. Meckel mit. Frau Meckel will die Gesellschaft warnen. Das ist auch gut so!

  15. Einige Thesen sind wirklich interessant, aber ich frage mich, wie sie geordnet wurden. Denn These 8 zum Beispiel fällt vollkommen aus dem Rahmen und ist, wenn man sich für gute und haltbare Kritik an Algorithmen interessiert, vollkommen überflüssig.

  16. Aus unserer Sicht hilfreich ist zunächst einmal eine Unterscheidung der Algorithmen nach Ihrer Grundlage:

    1. Social Graph. Hier nutzt der Algorithmus die Beziehung zwischen Personen zur Relevanzbestimmung von Inhalten: der Leser bekommt Inhalte, die von mit ihm verbundenen Kontakten gelesen und bewertet wurden (Facebooks EdgeRank)

    2. Interest Graph. Der Algorithmus nutzt die aus vergangenem Verhalten erkannte Beziehung zwischen Leser und Inhalten zur Bestimmung der Relevanz anderer Inhalte (Amazon)

    3. Social Interest Graph. Hier verwendet der Algorithmus eine Kombination der beiden oben genannten Graphen (Twitter, Goole+)

    Die Wahl des Graphen als Grundlage eines Algorithmus bestimmt ganz wesentlich seine Leistungsfähigkeit.

    In der Tat führt der Social Graph zu einer Art “Sozialer Blase”: die Inhalte basieren auf dem Mainstream meiner Kontakte. Bereits im Kindesalter bestimmen so die Mitschüler eines Kindes dessen Inhaltsangebot.

    Der Interest Graph führt – je nach Qualität der genutzten Ontologie – schnell zu einem Echo Chamber-Effekt, durch den sich das Inhaltsangebot ständig stärker fokussiert.

    Die Nutzung des Social Interest Graph verspricht, die Nachteile der beiden vorgenannten Grundlagen zu kompensieren: Die (bekannten) Interessen des Lesers werden durch die Popularität von (unbekannten) Themen ergänzt. Hervorragende Beispiele für die Praxistauglichkeit dieses Ansatzes finden sich in Form der iPad-App Zite (http://zite.com/) sowie des Online-Angebots Eqentia (http://www.eqentia.com/). Wer die Leistungsfähigkeit von Algorithmen beurteilen möchte, sollte dies unbedingt erst nach Verwendung dieser Systeme über mehrere Tage tun.

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.