Wir sind selbst Schuld an unseren eigenen Filterblasen. Wir haben sie selbst erschaffen. Da sollte es doch nicht so schwer sein, sie zum Platzen zu bringen, oder?
Als der Amerikaner Eli Pariser vor einigen Jahren erstmals den Begriff „Filterbubble“ verwendete, um auf die theoretischen Gefahren von Suchmaschinenalgorithmen hinzuweisen, dass sie nämlich irgendwann vielleicht nur noch die eigene Sichtweise des Nutzers zulassen würden, ahnte er sicherlich nicht, welche Dynamik der Begriff heute annehmen würde. Für so einige gesellschaftliche Schieflagen muss die Filterblase aktuell den Kopf herhalten.
Zu Recht. Denn in sozialen Medien haben wir über die letzten Jahre mühsam unser eigenes, meist faktenresistentes Weltbild aufgebaut. Wir liken, retweeten, entliken, blockieren und folgen Dingen und Personen, Themen und Meinungen. Und die mehr oder weniger intelligenten Algorithmen von Facebook und Co. nehmen alles auf, was wir ihnen geben.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Junior PR Manager – B2B / B2C / Corporate Communication / Social Media (m/w/d) dot.communications GmbH in München |
||
Marketing Head – E-Commerce / Social Media / KPIs (m/w/d) Akowi GmbH in Frankenthal |
Die anfangs dünne Haut unserer individuellen Filterblase wird dadurch, zumindest in der Social-Media-Welt, immer dicker. Kann sie überhaupt noch platzen? Können wir unsere Bubble aufbrechen und andere Ansichten und Meinungen hören?
An unseren Filterblasen sind wir selbst Schuld
Wir sollten es versuchen. Denn eine Gesellschaft, bestehend aus tausenden kleinen Bubbles, die alles von Außerhalb nicht mehr hereinlassen, ist alles andere als wünschenswert.
Und wie sinnvoll können vermeintlich neue Informationen sein, die unser eigenes Weltbild stetig verstärken und bestätigen, wenn sie aus einer Vielzahl an Quellen stammen, die wir uns selbst herausgesucht haben?
Eines sollte jedoch klar sein: Unser Filterblasen sind Handarbeit. Wir sind selbst daran Schuld, dass wir auf Facebook und Twitter größtenteils nur die Ansichten zu Gesicht bekommen, die wir selbst teilen.
Algorithmen erfüllen nur ihren Zweck und erleichtern uns lediglich das mühsame Aussortieren unerwünschter Meinungen aus unserem virtuellen Umfeld.
Doch wenn wir für das Entstehen unserer eigenen Bubble verantwortlich sind, dann sollte es doch nicht so schwierig sein, aus ihr auch wieder herauszukommen, oder? Wie bringt man wieder mehr Diversität in den eigenen News-Feed?
1. Unbequeme Meinungen erwünscht!
Die erste Möglichkeit ist die offensichtlichste und zugleich schwierigste: Ein entfernter Bekannter teilt einen vollkommen unsachlichen und deiner Meinung nach schlicht falschen Artikel einer Nachrichtenquelle, die du weder kennst noch als seriös empfindest?
Behalte diesen Bekannten in deiner Freundesliste und teile Facebook nicht mit, dass du Beiträge dieser Art nicht mehr in deinem Feed haben möchtest. Es könnte sich irgendwann auszahlen. Immerhin teilt er solche Inhalte nicht grundlos. Und vielleicht scheint seine Meinung noch viel einleuchtender, wenn du mit ihm sogar das Gespräch suchst. Schaden kann es keinesfalls!
2. Algorithmen verstehen
Dass es Algorithmen gibt, die unerwünschte Ansichten in sozialen Netzwerken tendenziell ausblenden und das eigene Weltbild bestätigen, ist vielleicht gar nicht so bekannt wie vermutet. Nicht jeder Nutzer weiß, dass es für ein soziales Netzwerk lukrativ ist, wenn unliebsame Meinungen automatisch aussortiert werden.
Wer das jedoch weiß, wird in Zukunft vielleicht sparsamer oder bewusster mit seinen Likes, Interessen und gespeicherten Aktivitäten umgehen, um die Algorithmen auszutricksen. Auch den Seiten von Parteien oder Verbänden, die man eigentlich nicht unterstützt, kann man im sozialen Netzwerk folgen. So haben es Algorithmen in Zukunft schwerer, eine passende Filterblase zu formen.
3. Tools gegen Filterblasen
Natürlich gibt es auch technische Unterstützung. Mit der Chrome-Erweiterung FlipFeed des MIT Media Lab etwa kann man den Twitter-Stream eines Users aus einer anderen, gegenüberliegenden Bubble anschauen und mal eine völlig andere Sicht auf die (bisher leider nur US-amerikanische) Politik und Gesellschaft einnehmen.
Für deutsche Nutzer gibt es FlipFeed leider nicht. Es hilft jedoch ein Blick beispielsweise in das Portal Newstral zu werfen, um einen neutralen, nicht von der Filterblase beeinflussten Blick auf aktuelle Nachrichtenseiten und Blogs zu werfen.
Wollen wir das überhaupt?
Doch besteht bei uns überhaupt das Interesse, den eigenen, digitalen Horizont zu erweitern und unliebsame Themen, Meinungen und Ansichten wieder vermehrt in unseren Newsfeed zu lassen? Immerhin haben wir ihn selbst so hergerichtet.
Etwas so komplexes und großes wie unser digitales Ich, in Form von Social-Media-Profilen, wollen wir wohl kaum aufgeben. Über unsere Likes, Shares, Aktivitäten und Interessen auf Facebook, Twitter und Instagram leiten wir unsere gewünschte Identität (politisch links, rechts, konservativ, liberal, grün, christlich, marxistisch, …) ab. Warum sollten wir fremde Ansichten in unserem digitalen Umfeld auf ein mal wieder zulassen, die unserem Weltbild, unserer Meinung widersprechen könnten?
Dieser Unbequemlichkeit stellt sich kaum jemand gerne. Filterblasen, die stetig gut zureden, belohnen und bestätigen sind viel zu komfortabel. Konträre Weltanschauungen hingegen lösen negative Gefühle aus, machen das Durchsuchen des Facebook-Feeds am verdienten Feierabend weniger befriedigend.
Nein, wir wollen unsere Filterbubbles gar nicht zum Platzen bringen! Sie werden wohl noch eine ganze Weile für die ein oder andere weitere Schieflage in Politik und Gesellschaft herhalten müssen. Und weiterhin gilt: Zu Recht!
Auch interessant: Gefangen in der Filterblase: Wir in unserer kleinen Welt
Mein Trick ist es, sich so wenig wie möglich auf Seiten anzumelden. Ich bin bei Google, YouTube, etc. abgemeldet. Dadurch erschwere ich es den Algorithmen, ein Profil von mir anzulegen. Bei YouTube kotzt es mich auch schwer an, dass ich immer das vorgeschlagen bekomme, was ich 1x angegucht habe. Ich will Diversität.
[…] User glaubhaft ist und was nicht, hängt vom jeweiligen Hintergrund und wahrscheinlich auch von der persönlichen Filterblase […]