Filterblase

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die Filterblase (englisch filter bubble) oder Informationsblase (englisch informational bubble) ist ein Begriff, der vom Internetaktivisten Eli Pariser in seinem gleichnamigen Buch[1] geprägt wurde. Er beschreibt damit das Phänomen, dass Webseiten bestimmte Algorithmen verwenden, um vorauszusagen, welche Informationen für den Benutzer relevant sein könnten, basierend auf den verfügbaren Informationen über den Benutzer - beispielsweise Standort des Benutzers, Suchhistorie (englisch search history oder web history) und Klickverhalten.

Durch die Anwendung dieser Algorithmen neigen Internetseiten dazu, dem Benutzer nur Informationen anzuzeigen, die mit den bisherigen Ansichten des Benutzers übereinstimmen. So wird der Benutzer sehr effektiv in einer „Blase“ isoliert, die dazu tendiert Informationen auszuschließen, die den bisherigen Ansichten des Benutzers widersprechen.

Ein Paradebeispiel dafür sind Googles personalisierte Suchergebnisse und der personalisierte News Stream von Facebook.[2] Nach Parisers Meinung wird der Benutzer so weniger durch gegenteilige Ansichten „belastet“ und somit in einer Informationsblase intellektuell isoliert.

Pariser bringt ein Beispiel, in dem der eine Benutzer auf Google mit dem Stichwort „BP“ suchte und Nachrichten zu Investitionsmöglichkeiten von British Petroleum erhielt, während ein anderer Nutzer mit der gleichen Suchanfrage Informationen über die von Deepwater Horizon verursachte Ölpest bekam - somit die beiden Suchanfragen also völlig unterschiedliche Ergebnisse brachten.[2][3][4][5] Dieser isolierende Blaseneffekt kann negative Folgen für den Diskurs der Zivilgesellschaft haben, meint Pariser. Jedoch gibt es auch gegenteilige Meinungen, die besagen, dass der Effekt minimal[5] und handhabbar sei.[6]

Eli Pariser, 2012

Konzept[Bearbeiten]

Personalisierung lässt sich wie folgt definieren:

Bei der Web-Personalisierung werden Inhalt und Struktur einer Web-Anwendung den besonderen Bedürfnissen, Zielen, Interessen und Vorlieben eines jeden Nutzers angepasst. Dazu wird ein Benutzermodell (englisch user model) erstellt, das die Annahmen und die Informationen, die das System über den Benutzer hat, erfasst. Das System kann so voraussagen, was für den Nutzer relevant sein wird. Es filtert irrelevante Informationen heraus und erhöht so seine persönliche Relevanz für einen Benutzer.[7]

Nach Pariser verwendet Google zum Beispiel diverse "Signale"[8][9][10][11](frühere Such-Stichworte, Standort, Status-Updates von Kontakten auf Sozialen-Netzwerk-Seiten etc.) um Suchergebnisse an den Benutzer anzupassen. Facebook beobachtet dagegen die Interaktionen eines Benutzers mit anderen Nutzern und filtert Posts von bestimmten Nutzern. Das bedeutet, Benutzeraktivitäten (Klickhistorie) werden in eine einzige Benutzeridentität übersetzt und auf Grundlage dieser Identität werden bestimmte Informationen herausgefiltert.[7] Facebook verwendet dafür den sogenannten EdgeRank-Algorithmus.[12]

Pariser umschreibt sein Konzept der Filterblase mit der etwas formaleren Beschreibung: „Das persönliche Informations-Ökosystem, das durch diese Algorithmen geschaffen wird.“[2] Auch andere Termini wurden verwendet, um dieses Phänomen zu beschreiben, wie „ideologische Rahmen“ (engl. ideological frames)[3] oder auch „figurative Sphäre, die einen umgibt, wenn man im Internet sucht“.[13]
Der letzte Suchverlauf sammelt sich im Laufe der Zeit an, wenn ein Internetbenutzer Interesse an bestimmten Themen zeigt, indem er auf die entsprechenden Links klickt, Seiten von Freunden besucht, entsprechende Filme in die Warteschlange legt und entsprechende Schlagzeilen liest usw.[13] Für das Sammeln und die Analyse dieser Daten verwenden Webseitenbetreiber häufig Tracking-Dienste wie z.B. Google Analytics.[14] Internetfirmen verwenden diese Informationen dann, um Werbung auf die Bedürfnisse und den Geschmack des konkreten Benutzers zuzuschneiden oder um die passende Werbung an prominenterer Stelle im Suchergebnis unterzubringen.[13]

Eli Pariser, 2012

Parisers Besorgnis ähnelt den von Tim Berners-Lee 2010 geäußerten Bedenken wegen des Hotel California Effekts (etwa: herein geht es, aber nie mehr hinaus), der eintritt, wenn soziale Netzwerke im Internet Inhalte von anderen Konkurrenz-Seiten abblocken und aussperren, um so einen größeren Teil der Netzgemeinde in ihrem Netzwerk zu haben. Je mehr man eingibt, desto mehr ist man eingeschlossen und an die Informationen innerhalb einer spezifischen Internetseite gebunden.[15] Sie wird zum abgeschlossenen „Betonbunker“ und es besteht das Risiko der Fragmentierung des World Wide Web, meint Tim Berners-Lee.[15]
Beispielsweise sind die Benutzer von Facebook in gewisser Weise für immer dort "gefangen". Wenn sie sich irgendwann entscheiden sollten das Netzwerk zu verlassen, wird ihr Benutzerprofil zwar deaktiviert, aber nicht gelöscht. Alle ihre persönlichen Informationen und das Protokoll aller ihrer Aktivitäten auf Facebook bleiben für immer auf den Servern von Facebook erhalten. So können sie die Facebook-Seite nie vollständig verlassen.

In seinem Buch The Filter Bubble warnt Pariser, dass ein potentieller Nachteil der gefilterten Suche ist, dass sie "uns von neuen Ideen, Themen und wichtigen Informationen ausschließt"[16] und den „Eindruck schafft, dass nur die Dinge existieren, die unser enges Selbstinteresse kennt“.[3] Dies ist seiner Meinung nach potentiell schädlich, sowohl für den Einzelnen als auch für die Gesellschaft. Er kritisiert Google und Facebook dafür, dass sie auf Inhalte bezogen „zu viele Süßigkeiten und nicht genug Karotten“ anbieten.[17][18] Er warnt davor, dass wir „nur noch eingeschränkt neuen Informationen ausgesetzt sind und unsere Sichtweise eingeengt wird, dadurch dass „unsichtbare Algorithmen das Netz redaktionell bearbeiten“. Pariser denkt, dass die nachteiligen Auswirkungen der Filterblase auch umfassende Beeinträchtigungen für die Gesellschaft im Allgemeinen in dem Sinn mit sich bringen, dass dadurch möglicherweise „der zivile Diskurs untergraben wird“ und die Menschen empfänglicher und anfälliger für „Propaganda und Manipulationen“ werden.[3]

Er schreibt:

Eine Welt, die aus dem Bekannten konstruiert ist, ist eine Welt in der es nichts mehr zu lernen gibt ... (weil) es eine unsichtbare Autopropaganda gibt, die uns mit unseren eigenen Ideen indoktriniert. (Eli Pariser, The Economist, 2011)[19]

Reaktionen[Bearbeiten]

Es gibt widersprüchliche Berichte über das Ausmaß, in dem personalisiertes Filtern zur Anwendung kommt und ob Filtern für den Benutzer von Vorteil ist oder eher Nachteile mit sich bringt.

Der Analyst Jacob Weisberg, der für das Online-Magazine Slate schreibt, führte ein kleines, nicht repräsentatives Experiment durch, um Parisers Theorie zu überprüfen: Fünf Personen mit unterschiedlichen politischen Einstellungen suchten im Internet nach exakt den gleichen Suchbegriffen. Das Suchergebnis war bei vier Suchanfragen bei allen fünf Personen fast identisch. Daraus schließt er, dass es keinen Filterblasen-Effekt gebe und dass folglich diese Theorie der Filterblase übertrieben sei, wonach wir alle „am Futtertrog des Täglichen Ich[20](englisch "Daily Me") gefüttert werden“.[3] Für seine Buchrezension unternahm Paul Boutin einen ähnlichen Versuch mit Personen mit unterschiedlicher Suchhistorie. Er kam zu einem ähnlichen Ergebnis wie Weisberg: fast identische Suchergebnisse.[5] Der Harvard-Informatik- und Juraprofessor Jonathan Zittrain bezweifelt das Ausmaß der Verzerrung des Suchergebnisses, das Google mit seinem personalisierten Filter erreicht. Er sagt, dass der Einfluss der personalisierten Suche auf das Suchergebnis nur gering sei.[3] Außerdem gibt es Berichte, dass der User bei Google die personalisierte Suche umgehen kann, wenn er möchte[21], indem er die Suchhistorie löscht[5] oder andere Methoden einsetzt. Ein Sprecher von Google sagt, dass zusätzliche Algorithmen in Googles Suchmaschine integriert wurden um die „Personalisierung zu begrenzen und die Vielfalt der Suchergebnisse zu erhöhen“.[3] Um sich grundsätzlich vor Tracking durch Webseitenbetreiber zu schützen, kann der Benutzer sogenannte Add-ons im Browser installieren, z. B. Adblock Plus unter Mozilla Firefox.[14]

Trotzdem gibt es Berichte, dass Google und andere Suchmaschinenbetreiber große Mengen an Informationen besitzen, die sie in die Lage versetzen könnten, zukünftig das „Interneterlebnis“ des Users weiter zu personalisieren, wenn sie sich entscheiden würden dies zu tun. Ein Bericht legt nahe, dass Google selbst dann das frühere Surfverhalten des Users verfolgen kann, wenn dieser kein persönliches Google-Konto hat oder nicht in seinem Google-Konto eingeloggt ist.[5] Ein anderer Bericht spricht davon, dass Google Unmengen an gesammelten Daten habe - im Umfang von 10 Jahren - , die aus verschiedenen Quellen stammen, wie beispielsweise Gmail, Google Maps und anderen von Google neben der eigentlichen Suchmaschine angebotenen Diensten.[4] Dem widerspricht allerdings ein Bericht, wonach der Versuch das Internet für jeden Benutzer zu personalisieren eine große technische Herausforderung für eine Internetfirma darstellt - trotz der riesigen Mengen an verfügbaren Web-Daten über den User. Der Analyst Doug Gross von CNN meint, dass die gefilterte Suche für Verbraucher hilfreicher zu sein scheint als für Bürger. Sie hilft dem Konsumenten, der nach „Pizza“ sucht, lokale Liefermöglichkeiten zu finden, wobei passenderweise weit entfernt liegende Pizzaservice-Anbieter herausgefiltert werden.[4] Es gibt übereinstimmende Berichte, dass Internetseiten wie die Washington Post, die New York Times und andere sich bemühen personalisierte Informationsdienste aufzubauen. Diese arbeiten nach dem Prinzip, Suchergebnisse so auf den Benutzer zuzuschneiden, dass sie ihm wahrscheinlich gefallen oder er zumindest mit ihnen einverstanden ist.[3]

Ein Artikel beschäftigt sich genauer mit der Problematik der elektronischen Filter. Danach hat der Benutzer keinen Einfluss auf die Kriterien, nach denen gefiltert wird. Bei den von Google bei der Suche ausgewerteten Signalen verhält es sich ähnlich: Der Nutzer erfährt weder welche dieser Daten verwendet werden noch wie er sie ändern kann. Darüber hinaus fehlt jegliche Transparenz. Der Benutzer weiß weder wie gefiltert, noch dass überhaupt gefiltert wird. Aufgrund der großen Menge an Informationen im Internet sind Filtermechanismen jedoch unverzichtbar.[11][7] Personalisierung wird als Hauptproblem der elektronischen Filter gesehen: Die Gewichtung der Informationen wird individuell an den Nutzer angepasst. Dieser hat nicht die Möglichkeit die Filter ein- oder ausschalten und nach selbst bestimmten Kriterien zu kontrollieren.[11] Abschließend verlangt Pariser von den großen Filtern, wie Google, Facebook und Co., Transparenz und Kontrolle durch den Benutzer.[11] Eine Forschergruppe der Uni Delft empfiehlt Machern von Filtertechnologien eine stärkere Berücksichtigung von Autonomie und Transparenz für den Nutzer.[7]

Kritiker halten die These von der Filter Bubble für eine Aussage aus einer Fehlperspektive. Angesichts der Informationsflut gäbe es keine Alternative zu Filtertechniken. Selektion von Information habe immer schon stattgefunden und es sei zwangsläufige Folge, dass andere Informationen nicht selektiert werden. Gerade das Internet würde sonst abseitige Diskussionen gut zugänglich machen, indem es digitale Räume schaffe und gut zugänglich mache. Zudem sei die Theorie naiv, da Inhalt nicht einfach gefiltert oder ungefiltert sei, sondern von vielen Akteuren auf vielfältige Weise verarbeitet, angereichert oder verschoben werde.[22]

Paul Resnick, Professor an der Universität Michigan, fasst die Diskussion um die Filterblase folgendermaßen zusammen: Personalisierung sei nicht per se als schlecht zu bewerten. Seiner Ansicht nach sei akkurate Personalisierung weniger bedenklich als nicht zu personalisieren oder minderwertig zu personalisieren. Filterer hätten Macht und deshalb Verantwortung der Öffentlichkeit gegenüber. Zu den Pflichten von Filterern zählt er insbesondere, keine versteckte Personalisierung durchzuführen und Personalisierung nicht einseitig zu manipulieren.[23]

Bessere Personalisierung[Bearbeiten]

Paul Resnick macht für eine bessere Personalisierung folgende Vorschläge:[23][24]

  • Mehrdimensionale Präferenzen:
Thema, Standort, Sichtweise/Ideologie, Publikum u.a.
  • Das Verhältnis von Erforschung der Nutzerinteressen und -vorlieben und kommerzieller Verwertung optimieren.
  • Portfolio-Präferenzen:
Mischung aus herausfordernden und bestätigenden Informationen ermöglichen.
  • Zeitversetzter Präferenz-Indikator:
zur Unterscheidung von Kurzzeit- und Langzeit-Präferenzen.
  • Impuls in Richtung Langzeit-Präferenzen:
Unterhaltung (kurzfristiges Interesse) vs. Bildung (langfristiges Interesse).
  • Gemeinsames Referenzpunkt-Feature:
Integration von beliebten Themen, für die sich der Nutzer sonst nicht so sehr interessiert.
  • Features, die eine Perspektive einnehmen:
um Meinungen anderer Menschen leichter verstehen zu können.


Forscher der Universität Delft beschäftigen sich mit ethischen Fragen der Personalisierung und arbeiteten zum Thema folgenden unverbindlichen Vorschlag aus:

Leitfaden für die Gestaltung von Filter-Algorithmen zur Personalisierung[25]
  1. Gehen Sie sicher, dass pro Benutzer verschiedene Identitäten möglich sind, die sich je nach Kontext unterscheiden können.
  2. Gestalten Sie in Hinblick auf Autonomie, so dass der Benutzer den Filter an seine Bedürfnisse anpassen und die Identität, die auf Grundlage seiner früheren Interaktionen erstellt wurde, verändern kann.
  3. Gestalten Sie in Hinblick auf Transparenz, so dass der Benutzer sich bewusst ist, dass gefiltert wird. Der Nutzer muss in der Lage sein, zu sehen, welche Kriterien für das Filtern verwendet werden, und welche Identität des Benutzers das System verwendet.

Ähnliche Konzepte[Bearbeiten]

Relevanzparadoxon[Bearbeiten]

Das Konzept der Filterblase ähnelt einem anderen Phänomen, welches als Relevanzparadoxon (englisch relevance paradox) beschrieben wird.[16] Demzufolge suchen Personen und Organisationen Informationen, die von Anfang an für relevant gehalten werden, sich dann aber als nutzlos erweisen oder nur von teilweisem Interesse sind. So werden Informationen nicht berücksichtigt, die für irrelevant gehalten werden, die aber eigentlich nützlich sind. Das Problem tritt auf, weil die wirkliche Relevanz einer bestimmten Tatsache oder eines Konzeptes in solchen Fällen offenbar wird, nachdem der Fakt überhaupt bekannt wurde. Davor wurde der Gedanke einen bestimmten Fakt überhaupt zu erfahren aufgrund der falschen Wahrnehmung seiner Irrelevanz verworfen. Folglich ist der Informationssuchende in einem Paradoxon gefangen und er versagt darin Dinge zu erfahren, die er eigentlich unbedingt benötigt. So wird er Opfer seines „intellektuellen blinden Flecks“. Das Phänomen des Relevanzparadoxons trat während der intellektuellen Entwicklung des Menschen in vielen Situationen in Erscheinung und ist deshalb ein wichtiges Thema in Wissenschaft und Bildung. Ein Buch mit dem Titel The IRG Solution[26] beschäftigte sich 1984 mit diesem Problem und schlug allgemeine Lösungsansätze vor.

Echokammer-Effekt[Bearbeiten]

Ein verwandtes Konzept ist der Echokammer-Effekt (englisch Echo Chamber Effect).

Suchmaschinen ohne Personalisierung[Bearbeiten]

Internetsuchmaschinen, die ausdrücklich in ihrer Grundeinstellung auf personalisierte Suche verzichten, sind beispielsweise Ixquick oder DuckDuckGo.

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. Eli Pariser: The Filter Bubble: What the Internet Is Hiding from You. Penguin Press, New York, 2011, ISBN 978-1594203008
  2. a b c Lynn Parramore: The Filter Bubble.; in: The Atlantic; Zitat: „Google has been personalized for everyone. So when I had two friends this spring Google "BP," one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill....“
  3. a b c d e f g h Jacob Weisberg: Bubble Trouble: Is Web personalization turning us into solipsistic twits?
  4. a b c Doug Gross: What the Internet is hiding from you., von CNN; Zitat: „I had friends Google BP when the oil spill was happening. These are two women who were quite similar in a lot of ways. One got a lot of results about the environmental consequences of what was happening and the spill. The other one just got investment information and nothing about the spill at all.“
  5. a b c d e Paul Boutin: Your Results May Vary: Will the information superhighway turn into a cul-de-sac because of automated filters? The Wall Street Journal; Zitat: „By tracking individual Web browsers with cookies, Google has been able to personalize results even for users who don't create a personal Google account or are not logged into one. ...“
  6. Zhang Yuan Cao, Diarmuid Ó Séaghdha, Daniele Quercia, Tamas Jambor: Auralist: Introducing Serendipity into Music Recommendation. (PDF; 645 kB)
  7. a b c d Engin Bozdag, Job Timmermans (2011): Values in the filter bubble. Ethics of Personalization Algorithms in Cloud Computing. In: Detweiler, C.; Pommeranz, A.; van den Hoven, J.; Nissenbaum, H. (Hrsg.): Proceedings of the 1st International Workshop on Values in Design. Building Bridges between RE, HCI and Ethics, S. 7–15. (14. September 2011)
  8. Pickhardt: What are the 57 signals google uses to filter search results? (30. September 2011)
  9. Dirk von Gehlen: Wie Google und Co. uns andere Standpunkte vorenthalten. Welt ohne Gegenmeinung.Süddeutsche 28. Juni 2011. (14. September 2011)
  10. Jörg Wittkewitz: Die Intuitionspumpe “Filter Bubble”. (14. September 2011)
  11. a b c d Peter Sennhauser: “Filter-Blase”. Die neue Gefahr der Tarnkappen-Gatekeeper. (14. September 2011)
  12. Jeff Widman: EdgeRank. A guide to facebook´s newsfeed algorithm. (19. März 2013)
  13. a b c Shira Lazar: Algorithms and the Filter Bubble Ruining Your Online Experience?; in: Huffington Post; Zitat: „a filter bubble is the figurative sphere surrounding you as you search the Internet.“
  14. a b Peter Neugebauer: Schutz vor Trackingdiensten die das Nutzerverhalten analysieren. (30. September 2011)
  15. a b Bianca Bosker: Tim Berners-Lee: Facebook Threatens Web, Beware., The Guardian; Zitat: „Social networking sites are threatening the Web's core principles ... Berners-Lee argued. "Each site is a silo, walled off from the others," he explained. "The more you enter, the more you become locked in....“
  16. a b First Monday: What's on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser, USA Today, Zitat: „Pariser explains that feeding us only what is familiar and comfortable to us closes us off to new ideas, subjects and important information.“
  17. Anmerkung: im engl. Originaltext „candy and carrots“, etwa „Süßigkeiten und Karotten“ als Symbol für eine "ausgewogene Informations-Diät": "The best editing gives us a bit of both. It gives us a little bit of Justin Bieber and a little bit of Afghanistan. ...some information vegetables and ...some information dessert."
  18. Bianca Bosker: Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns.; Huffington Post; Zitat: „When it comes to content, Google and Facebook are offering us too much candy, and not enough carrots.“
  19. Eli Pariser: Invisible sieve: Hidden, specially for you.; in The Economist, 30. Juni 2011; Zitat: „Mr Pariser’s book provides a survey of the internet’s evolution towards personalisation, examines how presenting information alters the way in which it is perceived and concludes with prescriptions for bursting the filter bubble that surrounds each user.“
  20. Anmerkung: im englischen Originaltext "Daily Me", der Begriff wurde von Nicolas Negroponte in Being Digital (Alfred A. Knopf, 1995, ISBN 0-679-43919-6) und Cass Sunstein in Republic.com (Princeton University Press, 2002) geprägt.
  21. Google Personalization on Your Seach Results Plus How to Turn it Off; NGNG; Zitat: „Google customizing search results is an automatic feature, but you can shut this feature off.“
  22. Ausführlich Christoph Kappes, "Menschen, Medien und Maschinen - Warum die Gefahren der »Filter Bubble« überschätzt werden", MERKUR 03/2012 (http://www.klett-cotta.de/ausgabe/MERKUR_Heft_03_M%C3%A4rz_2012/25018?), kostenlos veröffentlicht im Blog des Autors http://christophkappes.de/warum-die-gefahren-der-filter-bubble-uberschatzt-werden-merkur/.
  23. a b Paul Resnick: Personalized Filters Yes: Bubbles No. UMAP Slides with notes. (9. September 2011)
  24. Paul Resnick: Personalized Filters Yes; Bubbles No (9. September 2011)
  25. Engin Bozdag, Job Timmermans (2011): Values in the filter bubble. Ethics of Personalization Algorithms in Cloud Computing. In: Detweiler, C.; Pommeranz, A.; van den Hoven, J.; Nissenbaum, H. (Hrsg.): Proceedings of the 1st International Workshop on Values in Design. Building Bridges between RE, HCI and Ethics, S. 7-15, Tabelle 1. (14. September 2011)
  26. David Andrews: The IRG Solution - Hierarchical Incompetence and how to overcome it. Souvenir Press, London, 1984, ISBN 0-285-62662-0

Weblinks[Bearbeiten]