Hate Speech - Präventions- und Interventionskonzepte an Schulen
Wie kann Hate Speech vorgebeugt und begegnet werden? Welche Maßnahmen eignen sich für den schulischen Kontext?
„Die Hassrede ist keine Konsequenz der sozialen Netze, sondern die sozialen Netze liefern ihr nur einen bequemen Weg von den Stammtischen direkt in die Öffentlichkeit.“ (Stefanowitsch, 2015)
Hate Speech ist kein neues Phänomen. Auch im analogen Raum sind Ausgrenzung und Herabwürdigung von bestimmten Personengruppen seit langem ein fest etabliertes Instrument. Die Verlagerung in Soziale Netzwerke führt einerseits zu einer gesteigerten Präsenz durch die leichte Verbreitbarkeit, andererseits wird Hate Speech als gesellschaftliche Problemlage auch sichtbarer und fassbarer. (Vgl. Stefanowitsch, 2015)
Die Theorieentwicklung zur Erklärung von Hate Speech steht noch am Anfang. Die Radikalisierungsforschung, die Sozialpsychologie sowie die Vorurteils- und Aggressionsforschung liefern aber eine Reihe verschiedenster Modelle, die zur Ursachenanalyse hinzugezogen werden können. Eine sinnvolle Klassifizierung kann hierbei anhand des Fokus des jeweiligen Erklärungsmodells vollzogen werden. (Vgl. Wettstein, 2021)
Individuelle Merkmale
Die Radikalisierungsforschung geht davon aus, dass bestimmte Persönlichkeitseigenschaften, Kognitionen, Motivationen sowie affektive Komponenten zu einer Radikalisierung beitragen können. Es kann vermutet werden, dass sich entsprechende Ansätze auch auf die Erklärung von Hate Speech übertragen lassen. Empirische Befunde liegen hierzu derzeit nicht vor. (Vgl. Wettstein, 2021)
Reaktive Täter fühlen sich bedroht und reagieren als Abwehrmechanismus mit Impulsivität und Aggressivität, die sich auch in Hate Speech ausdrücken kann. Die Bedrohung kann sich dabei sehr real darstellen (z. B. Wohnungsnot, Arbeitslosigkeit) oder subjektiv wahrgenommen werden (z. B. Angst vor sexuellen Übergriffen). Die Gründe für soziale und gesellschaftliche Probleme sind jedoch meist vielschichtig und verflochten. Organisierte Hassgruppen nutzen dies aus und bieten einfache Antworten auf komplexe Probleme, indem sie eine bestimmte Personengruppe als Ursache dafür identifizieren. (Vgl. Wettstein, 2021)
Proaktive Täter verfügen teilweise über hohe soziale Kompetenzen und können Situationen überaus adäquat einschätzen. Sie setzen aggressives Verhalten gezielt ein und sehen es als legitimes Instrument zur Erreichung der eigenen Ziele.
In Einzelfällen wird die Aggression auch durch positive Emotionen begleitet. Das eigene Machtempfinden wird durch die Herabwürdigung anderer positiv verstärkt. (Vgl. Wettstein, 2021)
Das Individuum in seinem Umfeld
Die Sozialpsychologie erforscht gruppenbezogene Verhaltensmerkmale. Neben individuellen Einflussfaktoren sind Gruppenprozesse vor allem im Online-Kontext maßgeblich für die Entstehung und Verbreitung von Hate Speech. (Vgl. Wettstein, 2021)
Die Theorie der sozialen Identität von Tajfel und Turner (1986) liefert einen Erklärungsansatz für die Tendenz von Personen, den Status ihrer Gruppe positiv aufzuwerten, indem eine andere Gruppe negativ abgewertet wird.
Gemäß der Theorie streben Menschen danach, ein positives Selbstwertgefühl aufrechtzuerhalten oder zu verbessern. Sie erreichen dies unter anderem durch die Identifikation mit sozialen Gruppen, die ihnen ein Gefühl von Zugehörigkeit und Wert vermitteln. Dabei spielt die Vergleichbarkeit zwischen der eigenen Gruppe (in-group) und anderen Gruppen (out-group) eine wichtige Rolle.
Die Bewertung der Gruppenzugehörigkeit wird durch den Vergleich mit anderen relevanten Gruppen bestimmt. Hate Speech kann als Mittel dienen, um die eigene Gruppenidentität zu stärken, indem man andere Gruppen herabsetzt und abwertet. (Wettstein, 2021; Schwertberger, U. & Rieger, D., 2021)
Der realistische Intergruppenkonflikt ist eine Theorie, die erklärt, wie Konflikte zwischen Gruppen aufgrund des Wettbewerbs um begrenzte Ressourcen entstehen. Die Theorie wurde von dem Sozialpsychologen Muzafer Sherif entwickelt und postuliert, dass der Konflikt zwischen Gruppen oft auf realen Interessenkonflikten basiert. Ressourcen (z. B. Wohnungen, Arbeitsplätze, finanzielle Mittel) sind oftmals quantitativ oder qualitativ begrenzt. Daraus entstehen Konkurrenzsituationen zwischen verschiedenen Gruppen.
Als eine Weiterentwicklung kann die Theorie der relativen Deprivation betrachtet werden. Relative Deprivation bezeichnet eine subjektiv wahrgenommene Benachteiligung einer Person oder einer Gruppe, die im Vergleich mit einer Referenzgruppe oder einem Individuum entsteht. Vereinfacht ausgedrückt: Der Andere hat etwas, was mir aber (auch) zusteht. Diese wahrgenommene Ungerechtigkeit kann zu Frustration, Unzufriedenheit, aber auch aggressivem Verhalten führen. (Vgl. Wettstein, 2021)
Gesellschaftliche und strukturelle Einflüsse
Die Äußerungen von prominenten Persönlichkeiten wie Politikern können die sprachlichen Grenzen des öffentlichen Diskurses verschieben. Wenn Beleidigungen, Respektlosigkeiten und aggressive Kommunikationsformen als legitimes Mittel gesellschaftlicher Diskussionsprozesse eingesetzt werden, wird dem Hass und der Gewalt der Boden bereitet. Als prominentestes Beispiel kann hier auf den ehemaligen US-Präsidenten Donald Trump verwiesen werden, dessen rassistische und sextische Aussagen in Sozialen Netzwerken auch zu großer medialer Präsenz führten. (Vgl. Wettstein, 2021)
Medien tragen durch die Art und Weise ihrer Berichterstattung aber auch teilweise zur Verschiebung der Sagbarkeitsräume bei, wenn Sie die Diskriminierungen oder Herabwürdigungen nicht als solche benennen und anprangern, sondern diese als gesellschaftliche Kontroverse darstellen. (Vgl. Wettstein, 2021)
Soziale Netzwerke haben einen verstärkenden Einfluss auf Konflikte und Hate Speech. Sie schaffen Räume, in denen sich Gleichgesinnte treffen, vernetzten und mobilisieren können.
Durch die einfache Verfügbarkeit und die schnelle Verbreitbarkeit schaffen sie mit wenig Aufwand viel Sichtbarkeit und Öffentlichkeit für jegliche Meinungen und Aussagen.
Die verstärkte Nutzung von Internet und Sozialen Netzwerken verändert die Medienlandschaft nachhaltig. Während Fernsehen und Tageszeitungen Nutzerinnen und Nutzer verlieren, steigt die Zahl der Menschen, die sich auf Internetplattformen und über Soziale Medien informieren. Dies bringt auch eine strukturelle Veränderung von Hate Speech mit sich. Die Nutzung von Online-Diensten ermöglicht es, Botschaften und Äußerungen - ohne jeglichen Filter oder eine journalistischen Überprüfung - einer breiten Öffentlichkeit zugänglich zu machen. Andererseits können sich die Leserinnen und Leser auch jederzeit selbst an Diskussionen und der Verbreitung der Aussagen beteiligen.
Darüber hinaus bringt die vermeintliche Anonymität eine Enthemmung mit sich. Durch Fake-Accounts und Nicknames lässt sich die eigene Identität verschleiern. User können so Inhalte posten, die sie unter ihrem realen Namen oder in Face-to-face-Situationen nicht äußern würden. Im wissenschaftlichen Diskurs wird dies als Online Disinhibition Effect bezeichnet. (Vgl. Bojarska, 2018; Kaspar, 2017; Schwertberger & Rieger, 2021; )
Außerdem führen fehlende Face-to-Face-Situationen zu einer verringerten Empathie für das Gegenüber. Reaktionen, wie Gestik und Mimik können nicht wahrgenommen werden. (Vgl. Kaspar, 2017)
Die Verbreitung von Hate Speech wird jedoch durch technische und organisierte Prozesse auch aktiv mitgestaltet.
Soziale Medien generieren ihre Umsätze nicht mit Inhalten, sondern „Klicks“. Insofern gestalten, steuern und verstärken die Online-Netzwerke soziale Interaktionen. Jede Interaktion löst auch technische Mechanismen aus.
Die Algorithmen sozialer Medien neigen dazu, den Nutzerinnen und Nutzern Inhalte zu zeigen, die ihren vorhandenen Ansichten und Interessen entsprechen. Wenn jemand bereits Hate Speech oder ähnliche Inhalte konsumiert oder darauf reagiert, besteht die Möglichkeit, dass der Algorithmus ähnliche Inhalte in seinem Feed oder in den Empfehlungen anzeigt. (Vgl. Frischlich, Boberg & Quant, 2027)
Algorithmen sind darauf ausgerichtet, die Aufmerksamkeit und das Engagement der Nutzerinnen und Nutzer zu maximieren. Kontroverse und provokante Inhalte, wie Hate Speech, können dazu führen, dass Nutzer länger auf der Plattform verweilen, mehr Kommentare hinterlassen oder Beiträge teilen. Die Algorithmen bevorzugen solche Inhalte, da sie das Engagement und damit die Nutzung der Plattform steigern. Dadurch wird die Verbreitung von Hate Speech begünstigt oder sogar verstärkt. (Vgl. Sponholz, 2021)
Algorithmen in sozialen Medien verwenden Empfehlungssysteme, um den Nutzerinnen und Nutzern ähnliche Inhalte vorzuschlagen. Wenn jemand auf Hate Speech-Inhalte klickt oder ihnen zustimmt, besteht die Möglichkeit, dass ihnen ähnliche Inhalte empfohlen werden. Dadurch können sich Nutzerinnen und Nutzer in einer Abwärtsspirale von immer extremeren Inhalten wiederfinden. (Vgl. Frischlich, Boberg & Quant, 2027; Sponholz, 2021)
Social Bots sind automatisiert erstellte Nutzerkonten in sozialen Medien, die von automatisierten Softwareprogrammen gesteuert werden. Für andere Nutzer sind diese meist nicht als maschinelle Nutzer erkennbar. Mittlerweile werden sie massenhaft in Sozialen Netzwerken, aber auch in Kommentarspalten und Newsfeeds eingesetzt. Sie erstellen automatisch Inhalte und können mit anderen Nutzerinnen und Nutzern interagieren. Zum einen können Bots in kurzer Zeit eine hohe Anzahl von Hate Speech-Inhalten erzeugen und verbreiten. Zum anderen werden auch andere Nutzerinteraktionen, wie das Liken, Teilen oder Kommentieren, imitiert. Insgesamt tragen Social Bots also dazu bei, die Sichtbarkeit und Verbreitung von Hate Speech zu erhöhen. (Vgl. Frischlich, Boberg & Quant, 2027)
Trollfabriken sind in der Regel gut organisierte Einheiten mit klaren Hierarchien und Arbeitsabläufen. Sie können von Einzelpersonen, Unternehmen oder sogar staatlichen Akteuren betrieben werden. Diese Organisationen verfügen oft über eine beträchtliche Anzahl von Mitarbeitern oder „Trollen“, die für die Erstellung und Verbreitung von Inhalten zuständig sind. (Vgl. Kreißel, Ebner, Urban & Guhl, 2018)
Extremistische Gruppierungen verfolgen das strategische Ziel, durch Polarisierung einen politischen Wandel herbeizuführen. Diffamierung einer Gruppe muss also nicht das primäre Ziel der Verbreitung von Hate Speech sein. Es kann auch gezielt als Mittel eingesetzt werden, um (mediale) Aufmerksamkeit zu generieren oder sogar Wahlkämpfe zu manipulieren. (Vgl. Sponholz, 2021)
Grundsätzlich werden mediale Strategien von extremistischen Gruppen jeglicher ideologischer Zielrichtung eingesetzt. Das ISD (Institute for Strategic Dialogue) stellt jedoch fest, dass Hate Speech aus dem rechtsextremen Spektrum besonders weit verbreitet ist, während islamistischen Gruppen durch erfolgreiche Gegenmaßnahmen der Medienunternehmen heute kaum noch öffentliche mediale Plattformen zur Instrumentalisierung zur Verfügung stehen. (Vgl. Kreißel, Ebner, Urban & Guhl, 2018)
Ausmaß und Einfluss von koordinierten Trollkampagnen wurden erstmals im US-Präsidentschaftswahlkampf 2015/16 ersichtlich. Durch die gezielte Verbreitung von Hass gegen Minderheiten, Angriffen auf das politische Establishment und die Mainstream-Medien versuchte man, die Wählerstimmung zugunsten rechtspopulistischer Strömungen zu verbreiten. Zahlreiche Bewegungen griffen diese Strategien auf und setzen sie seitdem gezielt in Wahlkämpfen ein. (Vgl. Kreißel, P., Ebner, J., Urban, A., & Guhl, J., 2018)
Durch das Teilen von Beiträgen extremistischer Organisationen sorgen Politikerinnen und Politiker dafür, dass entsprechende Inhalte einem breiteren Publikum zugänglich gemacht werden. (Vgl. jugendschutz.net, 2018)
Deutsche Medienhäuser spielen hier eine ambivalente Rolle. Zum einen werden Medienartikel zur Legitimation von eigenen Haltungen und Thesen herangezogen und verlinkt. Zum anderen greifen die Mainstream-Medien auch zunehmend Diskussionen in Sozialen Netzwerken auf und berichten darüber. Damit erweitert sich die Rezipientengruppe auch auf Personen, die keine Sozialen Medien nutzen.
Eine Studie des ISD (Institute for Strategic Dialogue) analysierte 2017/18 1,6 Millionen rechtsextreme Posts in sozialen Medien. Dabei konnte festgestellt werden, dass lediglich 5 Prozent der im Sinne von Hate Speech aktiven Benutzerkonten für 50 Prozent der Likes von Hate Speech-Beiträgen in den Kommentarspalten verantwortlich war. Das kann dazu führen, dass es zu einer verzerrten Wahrnehmung des gesellschaftlichen Stimmungsbildes kommt. (Vgl. Kreißel, Ebner, Urban & Guhl, 2018; Kasper, 2017)
Eine Studie von Müller und Schwarz (2018) konnte einen deutlichen Zusammenhang zwischen Hate Speech und verübten Gewalttaten aufzeigen. Durch eine hohe Aktivität gegen Geflüchtete auf der Facebook-Seite der AfD (Alternative für Deutschland) stiegen Gewalttaten (wie Brandstiftung und Körperverletzung) gegen Geflüchtete an. Im Gegenzug konnte festgestellt werden, dass Hassverbrechen in Zeiten von Internet- oder Plattformausfällen fast verschwinden. (Müller & Schwarz, 2018)
Durch die stärkere Regulierung auf etablierten Plattformen im Zuge des Netzwerkdurchsetzungsgesetztes (NetzDG) haben extremistische Gruppierungen ihre Medienstrategien angepasst. Inhalte auf öffentlichen Plattformen verwenden nun eine angepasste Sprache, um Moderationseingriffe und Sperrungen zu vermeiden. Dafür verweisen Posts auf kleinere oder nicht regulierte Plattformen. Als besonders beliebter Alternativ-Dienst wird aktuell vor allem Telegram genutzt. Er dient als Sammelbecken für Personen und Organisationen, deren Profile von größeren Plattformen gelöscht wurden. (Vgl. Kreißel, Ebner, Urban & Guhl, 2018)
Wie kann Hate Speech vorgebeugt und begegnet werden? Welche Maßnahmen eignen sich für den schulischen Kontext?
Wie und wo entsteht Hate Speech, welche Mechanismen verstärken die Verbreitung und wie wird das Phänomen strategisch genutzt?
Welche Auswirkungen hat Hate Speech auf das Individuum und die Gesellschaft?
Was ist Hate Speech und warum ist es ein Thema für die Schule?
Wo endet die Meinungsfreiheit, wo beginnt die Straftat und welche Folgen hat Hate Speech?