Jewiki unterstützen. Jewiki, die größte Online-Enzy­klo­pädie zum Judentum.

Helfen Sie Jewiki mit einer kleinen oder auch größeren Spende. Einmalig oder regelmäßig, damit die Zukunft von Jewiki gesichert bleibt ...

Vielen Dank für Ihr Engagement! (→ Spendenkonten)

How to read Jewiki in your desired language · Comment lire Jewiki dans votre langue préférée · Cómo leer Jewiki en su idioma preferido · בשפה הרצויה Jewiki כיצד לקרוא · Как читать Jewiki на предпочитаемом вами языке · كيف تقرأ Jewiki باللغة التي تريدها · Como ler o Jewiki na sua língua preferida

Filterblase

Aus Jewiki
Zur Navigation springen Zur Suche springen

Die Filterblase (englisch filter bubble) oder Informationsblase ist ein Begriff der Medienwissenschaft, der vom Internetaktivisten Eli Pariser in seinem gleichnamigen Buch von 2011[1] verwendet wird. Laut Pariser entstehe die Filterblase, weil Webseiten versuchen, algorithmisch vorauszusagen, welche Informationen der Benutzer auffinden möchte – dies basierend auf den verfügbaren Informationen über den Benutzer (beispielsweise Standort des Benutzers, Suchhistorie und Klickverhalten). Daraus resultiere eine Isolation gegenüber Informationen, die nicht dem Standpunkt des Benutzers entsprechen.

Konzept

Durch die Anwendung dieser Algorithmen neigen Internetseiten dazu, dem Benutzer nur Informationen anzuzeigen, die mit den bisherigen Ansichten des Benutzers übereinstimmen. So wird der Benutzer sehr effektiv in einer „Blase“ isoliert, die dazu tendiert, Informationen auszuschließen, die den bisherigen Ansichten des Benutzers widersprechen.

Ein Paradebeispiel dafür sind Googles personalisierte Suchergebnisse und der personalisierte News Stream von Facebook.[2] Nach Parisers Meinung wird der Benutzer so weniger durch gegenteilige Ansichten „belastet“ und somit in einer Informationsblase intellektuell isoliert.

Pariser bringt ein Beispiel, in dem der eine Benutzer auf Google mit dem Stichwort „BP“ suchte und Nachrichten zu Investitionsmöglichkeiten von British Petroleum erhielt, während ein anderer Nutzer mit der gleichen Suchanfrage Informationen über die von Deepwater Horizon verursachte Ölpest bekam – somit die beiden Suchanfragen also völlig unterschiedliche Ergebnisse brachten.[2][3][4][5] Dieser isolierende Blaseneffekt kann negative Folgen für den Diskurs der Zivilgesellschaft haben, meint Pariser. Jedoch gibt es auch gegenteilige Meinungen, die besagen, dass der Effekt minimal[5] und handhabbar sei.[6]

Eli Pariser, 2012

Personalisierung

Personalisierung lässt sich wie folgt definieren:

Bei der Web-Personalisierung werden Inhalt und Struktur einer Web-Anwendung den besonderen Bedürfnissen, Zielen, Interessen und Vorlieben eines jeden Nutzers angepasst. Dazu wird ein Benutzermodell (englisch user model) erstellt, das die Annahmen und die Informationen erfasst, die das System über den Benutzer hat. Das System kann so voraussagen, was für den Nutzer relevant sein wird. Es filtert irrelevante Informationen heraus und erhöht so seine persönliche Relevanz für einen Benutzer.[7]

Nach Pariser verwendet Google zum Beispiel diverse „Signale“[8][9][10][11] (frühere Such-Stichworte, Standort, Status-Updates von Kontakten auf Sozialen-Netzwerk-Seiten etc.), um an den Benutzer Suchergebnisse und die geschalteten Anzeigen (Targeted Advertising) anzupassen. Facebook beobachtet dagegen die Interaktionen eines Benutzers mit anderen Nutzern und filtert Posts von bestimmten Nutzern. Das bedeutet, Benutzeraktivitäten (Klickhistorie) werden in eine einzige Benutzeridentität übersetzt und auf Grundlage dieser Identität werden bestimmte Informationen herausgefiltert.[7] Bis 2011 kam bei Facebook dafür der sogenannte EdgeRank-Algorithmus zum Einsatz,[12] der in Folge durch ein wesentlich komplexeres, maschinenlernendes System abgelöst wurde.[13]

Pariser umschreibt sein Konzept der Filterblase mit der etwas formaleren Beschreibung: „Das persönliche Informations-Ökosystem, das durch diese Algorithmen geschaffen wird.“[2] Auch andere Termini wurden verwendet, um dieses Phänomen zu beschreiben, wie „ideologische Rahmen“ (engl. ideological frames)[3] oder auch „figurative Sphäre, die einen umgibt, wenn man im Internet sucht“.[14]

Der letzte Suchverlauf sammelt sich im Laufe der Zeit an, wenn ein Internetbenutzer Interesse an bestimmten Themen zeigt, indem er auf die passenden Links klickt, Seiten von Freunden besucht, bestimmte Filme in die Warteschlange legt und ausgewählte Schlagzeilen liest und so weiter.[14] Für das Sammeln und die Analyse dieser Daten verwenden Webseitenbetreiber häufig Tracking-Dienste wie z. B. Google Analytics.[15] Internetfirmen verwenden diese Informationen dann, um Werbung auf die Bedürfnisse und den Geschmack des konkreten Benutzers zuzuschneiden oder um die passende Werbung an prominenterer Stelle im Suchergebnis unterzubringen.[14]

Parisers Besorgnis ähnelt den von Tim Berners-Lee 2010 geäußerten Bedenken wegen des Hotel-California-Effekts (etwa: herein geht es, aber nie mehr hinaus), der eintritt, wenn soziale Netzwerke im Internet Inhalte von anderen Konkurrenz-Seiten abblocken und aussperren, um so einen größeren Teil der Netzgemeinde in ihrem Netzwerk zu haben. Je mehr man eingibt, desto mehr ist man eingeschlossen und an die Informationen innerhalb einer spezifischen Website gebunden. Sie wird zum abgeschlossenen „Betonbunker“ und es besteht das Risiko der Fragmentierung des World Wide Web, meint Tim Berners-Lee.[16]

Beispielsweise sind die Benutzer von Facebook in gewisser Weise für immer dort „gefangen“. Wenn sie sich irgendwann entscheiden sollten, das Netzwerk zu verlassen, wird ihr Benutzerprofil zwar deaktiviert, aber nicht gelöscht. Alle ihre persönlichen Informationen und das Protokoll aller ihrer Aktivitäten auf Facebook bleiben für immer auf den Servern von Facebook erhalten. So können sie die Facebook-Seite nie vollständig verlassen.

In seinem Buch The Filter Bubble warnt Pariser, dass ein potentieller Nachteil der gefilterten Suche ist, dass sie „uns von neuen Ideen, Themen und wichtigen Informationen ausschließt“[17] und den „Eindruck schafft, dass nur die Dinge existieren, die unser enges Selbstinteresse kennt“.[3] Dies ist seiner Meinung nach potentiell schädlich, sowohl für den Einzelnen als auch für die Gesellschaft. Er kritisiert Google und Facebook dafür, dass sie auf Inhalte bezogen „zu viele Süßigkeiten und nicht genug Karotten“ anbieten.[18][19] Er warnt davor, dass wir „nur noch eingeschränkt neuen Informationen“ ausgesetzt sind und unsere Sichtweise eingeengt wird, dadurch dass „unsichtbare Algorithmen das Netz redaktionell bearbeiten“. Pariser denkt, dass die nachteiligen Auswirkungen der Filterblase auch umfassende Beeinträchtigungen für die Gesellschaft im Allgemeinen in dem Sinn mit sich bringen, dass dadurch möglicherweise „der zivile Diskurs untergraben wird“ und die Menschen empfänglicher und anfälliger für „Propaganda und Manipulationen“ werden.[3]

Er schreibt:

„Eine Welt, die aus dem Bekannten konstruiert ist, ist eine Welt, in der es nichts mehr zu lernen gibt … [weil] es eine unsichtbare Autopropaganda gibt, die uns mit unseren eigenen Ideen indoktriniert.“

Eli Pariser, The Economist, 2011[20]

Diskussion

Es gibt widersprüchliche Berichte über das Ausmaß, in dem personalisiertes Filtern zur Anwendung kommt, und ob Filtern für den Benutzer von Vorteil ist oder eher Nachteile mit sich bringt.

Der Analyst Jacob Weisberg, der für das Online-Magazine Slate schreibt, führte 2011 ein kleines, nicht repräsentatives Experiment durch, um Parisers Theorie zu überprüfen: Fünf Personen mit unterschiedlichen politischen Einstellungen suchten im Internet nach exakt den gleichen Suchbegriffen. Das Suchergebnis war bei vier Suchanfragen bei allen fünf Personen fast identisch. Daraus schließt er, dass es keinen Filterblasen-Effekt gebe und dass folglich diese Theorie der Filterblase übertrieben sei, wonach wir alle „am Futtertrog des Täglichen Ich[21] (englisch Daily Me) gefüttert werden“.[3] Für seine Buchrezension unternahm Paul Boutin einen ähnlichen Versuch mit Personen mit unterschiedlicher Suchhistorie. Er kam zu einem ähnlichen Ergebnis wie Weisberg: fast identische Suchergebnisse.[5] Der Harvard-Informatik- und Juraprofessor Jonathan Zittrain bezweifelt das Ausmaß der Verzerrung des Suchergebnisses, das Google mit seinem personalisierten Filter erreicht. Er sagt, dass der Einfluss der personalisierten Suche auf das Suchergebnis nur gering sei.[3] Außerdem gibt es Berichte, dass der User bei Google die personalisierte Suche umgehen kann, wenn er möchte,[22] indem er die Suchhistorie löscht[5] oder andere Methoden einsetzt. Ein Sprecher von Google sagt, dass zusätzliche Algorithmen in Googles Suchmaschine integriert wurden, um die „Personalisierung zu begrenzen und die Vielfalt der Suchergebnisse zu erhöhen“.[3] Um sich grundsätzlich vor Tracking durch Webseitenbetreiber zu schützen, kann der Benutzer Plug-ins im Browser installieren, mit speziellen Einstellungen kann dazu z. B. Adblock Plus verwendet werden.[15]

Trotzdem gibt es Berichte, dass Google und andere Suchmaschinenbetreiber große Mengen an Informationen besitzen, die sie in die Lage versetzen könnten, zukünftig das „Interneterlebnis“ des Users weiter zu personalisieren, wenn sie sich entscheiden würden, dies zu tun. Ein Bericht legt nahe, dass Google selbst dann das frühere Surfverhalten des Users verfolgen kann, wenn dieser kein persönliches Google-Konto hat oder nicht in seinem Google-Konto eingeloggt ist.[5] Ein anderer Bericht spricht davon, dass Google Unmengen an gesammelten Daten habe – im Umfang von zehn Jahren – , die aus verschiedenen Quellen stammen, wie beispielsweise Gmail, Google Maps und anderen von Google neben der eigentlichen Suchmaschine angebotenen Diensten.[4] Dem widerspricht allerdings ein Bericht, wonach der Versuch, das Internet für jeden Benutzer zu personalisieren, eine große technische Herausforderung für eine Internetfirma darstellt – trotz der riesigen Mengen an verfügbaren Web-Daten über den User. Der Analyst Doug Gross von CNN meint, dass die gefilterte Suche für Verbraucher hilfreicher zu sein scheint als für Bürger. Sie hilft dem Konsumenten, der nach „Pizza“ sucht, lokale Liefermöglichkeiten zu finden, wobei passenderweise weit entfernt liegende Pizzaservice-Anbieter herausgefiltert werden.[4] Es gibt übereinstimmende Berichte, dass Internetseiten wie die Washington Post, die New York Times und andere sich bemühen, personalisierte Informationsdienste aufzubauen. Diese arbeiten nach dem Prinzip, Suchergebnisse so auf den Benutzer zuzuschneiden, dass sie ihm wahrscheinlich gefallen oder er zumindest mit ihnen einverstanden ist.[3]

Ein Artikel beschäftigt sich genauer mit der Problematik der elektronischen Filter. Danach hat der Benutzer keinen Einfluss auf die Kriterien, nach denen gefiltert wird. Bei den von Google bei der Suche ausgewerteten Signalen verhält es sich ähnlich: Der Nutzer erfährt weder, welche dieser Daten verwendet werden, noch, wie er sie ändern kann. Darüber hinaus fehlt jegliche Transparenz. Der Benutzer weiß weder, wie gefiltert, noch, dass überhaupt gefiltert wird. Aufgrund der großen Menge an Informationen im Internet sind Filtermechanismen jedoch unverzichtbar.[11][7] Personalisierung wird als Hauptproblem der elektronischen Filter gesehen: Die Gewichtung der Informationen wird individuell an den Nutzer angepasst. Dieser hat nicht die Möglichkeit, die Filter ein- oder auszuschalten und nach selbst bestimmten Kriterien zu kontrollieren.[11] Abschließend verlangt Pariser von den großen Filtern wie Google und Facebook Transparenz und Kontrolle durch den Benutzer.[11] Eine Forschergruppe der Universität Delft empfiehlt Entwicklern von Filtertechnologien eine stärkere Berücksichtigung von Autonomie und Transparenz für den Nutzer.[7]

Kritiker halten die These von der Filter Bubble für eine Aussage aus einer Fehlperspektive. Angesichts der Informationsflut gäbe es keine Alternative zu Filtertechniken. Selektion von Information habe immer schon stattgefunden und es sei zwangsläufige Folge, dass andere Informationen nicht selektiert werden. Gerade das Internet würde sonst abseitige Diskussionen gut zugänglich machen, indem es dafür digitale Räume öffne. Zudem sei die Theorie naiv, da Inhalt nicht einfach gefiltert oder ungefiltert sei, sondern von vielen Akteuren auf vielfältige Weise verarbeitet, angereichert oder verschoben werde.[23]

Bessere Personalisierung

Paul Resnick, Professor an der Universität Michigan, fasst die Diskussion um die Filterblase folgendermaßen zusammen: Personalisierung sei nicht per se als schlecht zu bewerten. Seiner Ansicht nach sei akkurate Personalisierung weniger bedenklich als nicht zu personalisieren oder minderwertig zu personalisieren. Filterer hätten Macht und deshalb Verantwortung der Öffentlichkeit gegenüber. Zu den Pflichten von Filterern zählt er insbesondere, keine versteckte Personalisierung durchzuführen und Personalisierung nicht einseitig zu manipulieren.[24]

Resnick macht für eine bessere Personalisierung folgende Vorschläge:[24][25]

  • Mehrdimensionale Präferenzen:
Thema, Standort, Sichtweise/Ideologie, Publikum u. a.
  • Das Verhältnis von Erforschung der Nutzerinteressen und -vorlieben und kommerzieller Verwertung optimieren.
  • Portfolio-Präferenzen:
Mischung aus herausfordernden und bestätigenden Informationen ermöglichen.
  • Zeitversetzter Präferenz-Indikator:
zur Unterscheidung von Kurzzeit- und Langzeit-Präferenzen.
  • Impuls in Richtung Langzeit-Präferenzen:
Unterhaltung (kurzfristiges Interesse) vs. Bildung (langfristiges Interesse).
  • Gemeinsames Referenzpunkt-Feature:
Integration von beliebten Themen, für die sich der Nutzer sonst nicht so sehr interessiert.
  • Features, die eine Perspektive einnehmen:
um Meinungen anderer Menschen leichter verstehen zu können.

Forscher der Universität Delft beschäftigen sich mit ethischen Fragen der Personalisierung und arbeiteten zum Thema folgenden unverbindlichen Vorschlag aus:

Leitfaden für die Gestaltung von Filter-Algorithmen zur Personalisierung[7]
  1. Gehen Sie sicher, dass pro Benutzer verschiedene Identitäten möglich sind, die sich je nach Kontext unterscheiden können.
  2. Legen sie [den Filter-Algorithmus] auf Autonomie aus, so dass der Benutzer den Filter an seine Bedürfnisse anpassen und die Identität, die auf Grundlage seiner früheren Interaktionen erstellt wurde, verändern kann.
  3. Legen sie [den Filter-Algorithmus] auf Transparenz aus, so dass der Benutzer sich bewusst ist, dass gefiltert wird. Der Nutzer muss in der Lage sein, zu sehen, welche Kriterien für das Filtern verwendet werden, und welche Identität des Benutzers das System verwendet.

Ähnliche Konzepte

Relevanzparadoxon

Das Konzept der Filterblase ähnelt einem anderen Phänomen, welches als Relevanzparadoxon (englisch relevance paradox) beschrieben wird.[17] Demzufolge suchen Personen und Organisationen Informationen, die von Anfang an für relevant gehalten werden, sich dann aber als nutzlos erweisen oder nur von teilweisem Interesse sind. So werden Informationen nicht berücksichtigt, die für irrelevant gehalten werden, die aber eigentlich nützlich sind. Das Problem tritt auf, weil die wirkliche Relevanz einer bestimmten Tatsache oder eines Konzeptes in solchen Fällen offenbar wird, nachdem der Fakt überhaupt bekannt wurde. Davor wurde der Gedanke, einen bestimmten Fakt überhaupt zu erfahren, aufgrund der falschen Wahrnehmung seiner Irrelevanz verworfen. Folglich ist der Informationssuchende in einem Paradoxon gefangen und er versagt darin, Dinge zu erfahren, die er eigentlich unbedingt benötigt. So wird er Opfer seines „intellektuellen blinden Flecks“. Das Phänomen des Relevanzparadoxons trat während der intellektuellen Entwicklung des Menschen in vielen Situationen in Erscheinung und ist deshalb ein wichtiges Thema in Wissenschaft und Bildung. Ein Buch mit dem Titel The IRG Solution[26] beschäftigte sich 1984 mit diesem Problem und schlug allgemeine Lösungsansätze vor.

Echokammer-Effekt

Ein verwandtes Konzept ist der Echokammer-Effekt (englisch Echo Chamber Effect) in der Kommunikationswissenschaft, der beschreibt, wie es durch den verstärkten virtuellen Umgang mit Gleichgesinnten in sozialen Netzwerken zu einer Verengung der Weltsicht kommt, die zu Bestätigungsfehlern führen kann.[27][28]

Schweigespirale

Elisabeth Noelle-Neumann formulierte für den politischen Raum den Begriff der Schweigespirale. Darunter wird die freiwillige Zurückhaltung der eigenen Meinung verstanden, wenn man der Ansicht ist, dass sie der Mehrheitsmeinung widerspricht – was in der Konsequenz Minderheitsmeinungen immer mehr zurückdränge. Dieser Effekt werde durch die Rolle der Medien als Gatekeeper verstärkt, da sie aufgrund eigener politischer Ansichten eine Mehrheitsmeinung vortäuschen können (siehe auch Politische Haltung der Journalisten).[29]

Siehe auch

Literatur

Weblinks

Wiktionary: Filterblase – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

Einzelnachweise

  1. Eli Pariser: The Filter Bubble: What the Internet Is Hiding from You. Penguin Press, New York, 2011, ISBN 978-1-59420-300-8.
  2. 2,0 2,1 2,2 Lynn Parramore: The Filter Bubble. In: The Atlantic. Zitat: „Google has been personalized for everyone. So when I had two friends this spring Google „BP,“ one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill.“
  3. 3,0 3,1 3,2 3,3 3,4 3,5 3,6 3,7 Jacob Weisberg: Bubble Trouble: Is Web personalization turning us into solipsistic twits?
  4. 4,0 4,1 4,2 Doug Gross: What the Internet is hiding from you. In: CNN. Zitat: „I had friends Google BP when the oil spill was happening. These are two women who were quite similar in a lot of ways. One got a lot of results about the environmental consequences of what was happening and the spill. The other one just got investment information and nothing about the spill at all.“
  5. 5,0 5,1 5,2 5,3 5,4 Paul Boutin: Your Results May Vary: Will the information superhighway turn into a cul-de-sac because of automated filters? In: The Wall Street Journal. Zitat: „By tracking individual Web browsers with cookies, Google has been able to personalize results even for users who don’t create a personal Google account or are not logged into one. …“
  6. Zhang Yuan Cao, Diarmuid Ó Séaghdha, Daniele Quercia, Tamas Jambor: Auralist: Introducing Serendipity into Music Recommendation. (PDF; 645 kB)
  7. 7,0 7,1 7,2 7,3 7,4 Engin Bozdag, Job Timmermans: Values in the filter bubble. Ethics of Personalization Algorithms in Cloud Computing. In: C. Detweiler, A. Pommeranz, J. van den Hoven, H. Nissenbaum (Hrsg.): Proceedings of the 1st International Workshop on Values in Design. Building Bridges between RE, HCI and Ethics. 6. September 2011, S. 7–15, abgerufen am 4. September 2011.
  8. Rene Pickhardt: What are the 57 signals google uses to filter search results? (Link nicht mehr abrufbar) Abgerufen am 30. September 2011.
  9. Dirk von Gehlen: Wie Google und Co. uns andere Standpunkte vorenthalten. Welt ohne Gegenmeinung. In: Süddeutsche. 28. Juni 2011, abgerufen am 14. September 2011.
  10. Jörg Wittkewitz: Die Intuitionspumpe “Filter Bubble”. In: netzpiloten.de, abgerufen am 14. September 2011.
  11. 11,0 11,1 11,2 11,3 Peter Sennhauser: “Filter-Blase”. Die neue Gefahr der Tarnkappen-Gatekeeper. In: netzwertig.com, abgerufen am 14. September 2011.
  12. Jeff Widman: EdgeRank. A guide to Facebook’s newsfeed algorithm. In: edgerank.net, abgerufen am 19. März 2013.
  13. Roman Tschiedl: The most powerful channel - zur (algorithmischen) Gouvernementalität sozialer Medien am Beispiel Facebooks News Feed. Universität Wien, 2015, S. 102. abgerufen am 15. Mai 2015.
  14. 14,0 14,1 14,2 Shira Lazar: Algorithms and the Filter Bubble Ruining Your Online Experience? In: Huffington Post. Zitat: „a filter bubble is the figurative sphere surrounding you as you search the Internet.“
  15. 15,0 15,1 Peter Neugebauer: Schutz vor Trackingdiensten die das Nutzerverhalten analysieren. In: knowhow.euro-dom.info, abgerufen am 30. September 2011.
  16. Bianca Bosker: Tim Berners-Lee: Facebook Threatens Web, Beware. In: The Guardian. Zitat: „Social networking sites are threatening the Web’s core principles …“ Berners-Lee argued. „Each site is a silo, walled off from the others,“ he explained. „The more you enter, the more you become locked in….“
  17. 17,0 17,1 First Monday: What’s on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser. In: USA Today. Zitat: „Pariser explains that feeding us only what is familiar and comfortable to us closes us off to new ideas, subjects and important information.“
  18. Anmerkung: im engl. Originaltext „candy and carrots“, etwa „Süßigkeiten und Karotten“ als Symbol für eine „ausgewogene Informations-Diät“: „The best editing gives us a bit of both. It gives us a little bit of Justin Bieber and a little bit of Afghanistan. … some information vegetables and … some information dessert.“
  19. Bianca Bosker: Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns. In: Huffington Post. Zitat: „When it comes to content, Google and Facebook are offering us too much candy, and not enough carrots.“
  20. Eli Pariser: Invisible sieve: Hidden, specially for you. In: The Economist. 30. Juni 2011; Zitat: „Mr Pariser’s book provides a survey of the internet’s evolution towards personalisation, examines how presenting information alters the way in which it is perceived and concludes with prescriptions for bursting the filter bubble that surrounds each user.“
  21. Anmerkung: im englischen Originaltext „Daily Me“, der Begriff wurde von Nicholas Negroponte in Being Digital (Alfred A. Knopf, 1995, ISBN 0-679-43919-6) und Cass Sunstein in Republic.com (Princeton University Press, 2002) geprägt.
  22. Google Personalization on Your Seach Results Plus How to Turn it Off; NGNG; Zitat: „Google customizing search results is an automatic feature, but you can shut this feature off.“
  23. Christoph Kappes: Menschen, Medien und Maschinen – Warum die Gefahren der »Filter Bubble« überschätzt werden. In: Merkur. 03/2012, Text im Blog des Autors
  24. 24,0 24,1 Paul Resnick: Personalized Filters Yes: Bubbles No. UMAP Slides with notes. In: presnick.people.si.umich.edu, abgerufen am 9. September 2011.
  25. Paul Resnick: Personalized Filters Yes; Bubbles No. In: presnick.livejournal.com, abgerufen am 9. September 2011.
  26. David Andrews: The IRG Solution – Hierarchical Incompetence and how to overcome it. Souvenir Press, London, 1984, ISBN 0-285-62662-0.
  27. Willkommen in der Echokammer – Politische Debatten in Zeiten des Internet. In: NachDenkSeiten "Mit Echokammer wird dabei das Phänomen beschrieben, dass viele Menschen in den sozialen Netzwerken dazu neigen, sich mit Gleichgesinnten zu umgeben und sich dabei gegenseitig in der eigenen Position zu verstärken. In den Netzwerken selbst bildet sich dadurch eine fatale Dynamik. Befeuert durch die Echokammer verbreiten sich nicht nur konsensfähige Inhalte, sondern auch Kommentare innerhalb der Netzwerke wie ein Lauffeuer. Wer den Konsens der Gruppe am Besten trifft, wird „geteilt“ und „gelikt“ und kriegt aus anderen, harmonierenden Kreisen Freundschaftsanfragen. Die Echokammer wächst und damit auch der Eindruck, man sei selbst keine Minderheit, sondern eine gesellschaftlich relevante Mehrheit.", 5. November 2015, abgerufen am 2. November 2016
  28. Das Geheimnis der Echokammer. In: FAZ, 6. Mai 2013, gezogen am 2. November 2016
  29. Julia Bähr: Wer stellt die Mehrheit? In: faz.net, abgerufen am 12. Juli 2015.
Dieser Artikel basiert ursprünglich auf dem Artikel Filterblase aus der freien Enzyklopädie Wikipedia und steht unter der Doppellizenz GNU-Lizenz für freie Dokumentation und Creative Commons CC-BY-SA 3.0 Unported. In der Wikipedia ist eine Liste der ursprünglichen Wikipedia-Autoren verfügbar.