Fake News erkennen
Informationen über Strategien und Kriterien zur Entlarvung von Fake News
In der öffentlichen Diskussion über Fake News trifft man immer wieder auf den Begriff der Filterblase, den Eli Pariser 2011 im Zusammenhang mit sozialen Medien prägte.
Der Beitrag setzt sich kritisch mit dem Phänomen auseinander un gibt Anregungen, wie damit umgegangen werden kann.
Unterrichtsbeispiele finden Sie über folgende Überblicksseite:
Der Internetaktivist Eli Pariser prägte den Begriff der Filterblase, der das Phänomen beschreibt, dass Algorithmen basierend auf den Informationen, die über einen Nutzer oder eine Nutzerin vorliegen, eine Vorauswahl der Informationen treffen, welche dann auf entsprechenden Internetseiten oder Plattformen angezeigt werden.
„Die neue Generation der Internetfilter schaut sich an, was Sie zu mögen scheinen – wie Sie im Netz aktiv waren oder welche Dinge oder Menschen Ihnen gefallen – und zieht entsprechende Rückschlüsse. Prognosemaschinen entwerfen und verfeinern pausenlos eine Theorie zu Ihrer Persönlichkeit und sagen voraus, was Sie als Nächstes tun und wollen. Zusammen erschaffen diese Maschinen ein ganz eigenes Informationsuniversum für jeden von uns – das, was ich Filter Bubble nenne – und verändern so auf fundamentale Weise, wie wir an Ideen und Informationen gelangen“
Im Gegensatz zur Filterblase ist die Echokammer ein Konzept, das auch im analogen Informationsraum funktioniert. Eine Echokammer beschreibt im kommunikationswissenschaftlichen Sinn einen sozialen Raum, in dem die eigene Meinung durch Spiegelung verstärkt und gefestigt wird.
In vielen Veranschaulichungen des Filterblasen-Konzepts, wie z.B. auch bei Eli Pariser rückt der Blasenaspekt gegenüber dem Filteraspekt in den Vordergrund. Messingschlager und Holtz hingegen arbeiten den Aspekt des Filterns heraus (vgl. Messingschlager/Holtz, 2020).
In der realen Welt prasseln sekündlich unzählige Informationen in Form von Sinneseindrücken auf einen Menschen ein. Diese zu sortieren und zu filtern, ist eine wichtige Aufgabe des menschlichen Gehirns, damit man nicht von der schieren Menge der Informationen überwältigt wird.
Ähnlich verhält es sich mit der Menge an medialen Inhalten in Sozialen Medien. Damit der User nicht mit einer Vielzahl für ihn irrelevanter Informationen überschüttet wird, sortieren Algorithmen die Inhalte so, dass möglichst nur für den User interessante Inhalte präsentiert werden. Die Auswahl wird dabei durch das bisherige Online-Verhalten (besuchte Webseiten, Likes, Klicks, etc.) bestimmt.
Die Folge ist, dass der User im Wesentlichen immer mehr Inhalte passend zu seinen Vorlieben und Vorstellungen bekomm, welche wiederum Bestätigung und Bekräftigung der Vorstellungen und Vorlieben zur Folge haben.
Social-Media-Plattformen nutzen eine Reihe psychologischer Umstände aus, um zum einen die Nutzerinnen und Nutzer an sich zu binden, und zum anderen möglichst effektiv zu werben.
Die Bestätigung, die man erfährt, wenn ein eigener Beitrag ein Like (Daumen, Herz, etc.) erhält, hat erwiesenermaßen einen ähnlichen Effekt auf das Gehirn des Menschen wie der Konsum von Süßem oder Drogen. Dadurch kann schnell eine suchtartige Abhängigkeit nach dieser Form der Bestätigung entstehen.
Stark emotional anregende Inhalte genügen gleich zwei Intentionen der Betreiber. Zum einen haben die Betreiber von Social-Media Plattformen herausgefunden, dass sowohl emotional negativ als auch positiv geladene Inhalte dazu führen, dass User länger auf der jeweiligen Plattform verweilen, wohingegen emotional neutrale Informationen eher dazu führen, dass Nutzer die Plattform verlassen. Zum anderen werden Nutzer anfälliger für Werbung, sobald sie emotional aufgewühlt sind. Es besteht daher ein Interesse der Betreiber vorwiegend emotional anregende Inhalte zu präsentieren.
Die Theorie der Filterblase gilt nicht unter allen Experten und Expertinnen als gesichert. Beispiele für eine kritische Auseinandersetzung finden sich z.B. bei Media Bubble, dem Medienblog des Instituts für Medienwissenschaft an der Universität Tübingen und beim Content-Netzwerk puls des BR.
Gerade wenn es um aktuelle Nachrichten geht, sind vor allem Personen, deren vorwiegende Informationsquelle die Newsfeeds sozialer Medien sind, der Gefahr ausgesetzt, in eine Filterblase zu geraten. Diesen Newsfeeds wird in der gesellschaftlichen Diskussion oftmals eine demokratiegefährdende oder gar radikalisierende Rolle bei der politischen Meinungsbildung zugesprochen. Darüber hinaus ist eine bewusste Instrumentalisierung des Phänomens Filterblase für politische Agitation zu beobachten.
Gerade radikale und extremistische Bewegungen und Strömungen aber auch Verschwörungmythiker nutzen Fake News und die Effekte von Filterblase und Echokammer gezielt aus, um neue Anhänger zu gewinnen und diese zu radikalisieren und von ihren Ansichten zu überzeugen.
Immer häufiger informieren sich gerade junge Menschen vorwiegend im Netz. Primäre Informationsquellen sind die Ergebnisse von Google-Suchanfragen und der Newsfeed verschiedener sozialer Netzwerke. Verstärkt durch Effekte wie den von Filterblasen und Echokammern besteht schnell die Gefahr, dass die wahrgenomme Realität von Fake News bestimmt wird.
Im Zusammenhang mit dieser Entwicklung stehen Schlagwörter wie „postfaktisch“, das 2016 zum Unwort des Jahres gewählt wurde, oder „alternative Fakten“. Beide Begriffe deuten eine Aushöhlung des Wahrheitsbegriffes an. Die Lüge wird gerade im politischen Raum immer mehr zum Zweck.
Unter Hate Speech wird das Abwerten und Angreifen von Menschen verstanden aber auch Aufrufe zu Hass und Gewalt gegen diese. Häufig sind es rassistische, antisemitische oder sexistische Kommentare zu Personen oder Gruppen. Hate Speech wird auch als Oberbegriff für Menschenfeindlichkeit oder Volksverhetzung verwendet.
Als Echokammer wird klassisch ein Raum in einem Tonstudio bezeichnet, der ein analoges Echo erzeugen kann. Kommunikationswissenschaftler bezeichnen deshalb das Phänomen, dass viele Menschen dazu neigen sich nur mit Gleichgesinnten zu umgeben, um ihre Meinung zu einem bestimmten Thema bestätigt zu bekommen, ebenfalls als Echokammer oder Echokammer-Effekt. Der Radikalisierungseffekt von Echokammern wird im Digitalen durch die Filterblase verstärkt.
Ist man sich der verschiedenen Probleme und Gefahren bewusst, die von Filterblasen und Echokammern in sozialen Medien ausgehen, stellt sich die Frage, welche Gegenmaßnahmen ergriffen werden können.
Es stehen verschiedene technische Maßnahmen zur Verfügung, um die Auswirkungen von Filterblasen einzudämmen. Ein erster Schritt besteht darin, Browser (Firefox, Opera, Cliqz, u.a.) und Suchmaschinen (z.B. duckduckgo oder ixquicks) zu verwenden, die wenig bis keine Daten über das Surfverhalten speichern. Will man Google weiterhin verwenden, sollte man der personalisierten Suche von Google explizit widersprechen.
Darüber hinaus gibt es verschiedene Add-Ons für Browser wie Ghostery, die das Tracking des eigenen Verhaltens im Internet, eine der Ursachen für Filterblasen, deutlich einschränken. Zusätzlich kann man Webseiten wie z.B. newstral.de verwenden, um sich einen möglichst neutralen Eindruck über Nachrichten zu verschaffen.
Die wichtigsten Maßnahmen gegen die drohenden Gefahren der Filterblasen können auf der persönlichen Ebene getroffen werden:
Unbequeme Meinungen zulassen
Aktive Suche nach anderen Meinungen
Bewusster Zugriff auf Nachrichtenmedien verschiedener Art
Gespräche und Diskussionen suchen
Selbstverständlich gilt es gerade im schulischen Bereich präventiv gegen die potentiell von Filterblasen und Echokammern verursachten Probleme vorzugehen. Ziel muss dabei sein, die Lernenden dafür zu sensibilisieren, wie Filterblasen entstehen und funktionieren, welcher Einfluss von ihnen ausgeht und welche gefährlichen Folgen Filterblasen haben können.
Neben verschiedenen Angeboten externer Anbieter, wie Medienscouts, Medienführerschein usw., gibt es schulinterne Peer-to-Peer Projekte, wie etwa Netzgänger.
Die Fachlehrpläne aller Schularten bieten an verschiedenen Stellen Anknüpfungspunkte um medienpädagogische Präventionsarbeit zu leisten. Werfen Sie hierzu einen Blick in den Medienkompetenznavigator.
Pariser, Eli (2011). Filter Bubble – Wie wir im Internet entmündigt werden, München.
Messingschlager, Tanja, Holtz, Peter (2020). Filter Bubbles und Echo Chambers. In: Markus Appel (Hrsg.) Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co., Berlin. 91-102 S.
Informationen über Strategien und Kriterien zur Entlarvung von Fake News
Der Beitrag befasst sich u. a. mit folgendne Fragen: Was sind Verschwörungserzähulungen? Wie verbreitet sind diese? Warum glauben Menschen an Verschwörungserzählungen?
Unterrichtsmaterialien für Primarstufe, Sekundarstufe I und Sekundarstufe II
Vorstellung verschiedener Maßnahmen zum Schutz der User vor Fake News in sozialen Netzwerken
Informationen über die Arbeit und die Methode von Institutionen, die sich professionell mit dem Aufdecken von Fake News beschäftigen.