Hate Speech entgegentreten

Ein Ratgeber für
Kommunikationsverantwortliche

Social Media-Arbeit braucht Ideen und Personal

Dezember 19th, 2019 by Christina Dinar, Expertin für pädagogische Deradikalisierung im Netz

Es genügt schon „allmorgendlich eine beliebige Zeitung aufzuschlagen, um festzustellen, dass die […] Hassgefühle keinen Tag ruhen“[1]. Die Äußerung des französischen Philosophen Julien Benda aus dem Jahr 1927 spiegelt perfekt das Gefühl derjenigen wider, die sich in die Kommentarspalten von Artikeln der Tagespresse auf Facebook wagen. Wer einen Blick in die Kommentarspalten wirft oder sich auf Twitter die Äußerungen mancher Politiker*innen zum Thema Flucht anschaut, wird sich in Bendas Wahrnehmung von vor fast einhundert Jahren wiederfinden. „Ob Hetze und Diffamierung die Oberhand gewinnen oder ob Vorurteilen und verbaler Gewalt entschlossen begegnet wird, ist daher nicht nur – und gewiss nicht in erster Linie – eine Frage des Rechts“, resümiert die Historikerin Birgit Hoffmann[2] in einem geschichtlichen Rückblick auf das Phänomen. Hate Speech – die Hassrede also – gibt es schon länger als das Internet, und so lange stellt sich auch die Frage nach dem Umgang damit. Dennoch wird der Begriff im deutschsprachigen Raum genutzt, um explizit Hass-Postings in den sozialen Medien zu beschreiben. Dabei meint „Hate Speech“ die diskriminatorische Abwertung von Menschen oder Menschengruppen mit dem Ziel der Herabwürdigung oder Verunglimpfung. Der Begriff beschreibt also ein vielschichtiges Phänomen, das sich nicht nur in Worten, sondern auch in Bildern und anderen medialen Formen im Netz ausbreiten kann. Auch wer von Hate Speech betroffen ist, ist nicht gefeit davor, selbst welche zu produzieren – es handelt sich um eine Online-Form von gruppenbezogener Menschenfeindlichkeit. 

Die Veränderung der Öffentlichkeit, die mit der Entwicklung der sozialen Netzwerke einherging, hat dazu geführt, dass Hate Speech wesentlich schneller und öffentlicher sichtbar wird, zumal in den Anfangsjahren von Facebook, Twitter und Youtube Hate Speech kaum, bis zuweilen gar nicht, gelöscht oder moderiert wurde. Einer der bahnbrechenden Aspekte der Digitalisierung ist die Demokratisierung der Kommunikation im öffentlichen Raum für jede/n mit einem Internetzugang. So wurden auch die Schattenseiten jeder verbalen Auseinandersetzung – wie u. a. Hate Speech – stärker abgebildet. Was früher eher am Stammtisch als Abwertung in einem „eingeschworenen“ Kreis geäußert wurde, wurde plötzlich wesentlich öffentlicher.

Doch wo verläuft die Grenze der abwerten Meinungsäußerung, und wann sind Fake News und Desinformation, die von jedem mit einem Account verbreitet werden können, schädigend für die öffentliche Meinungsbildung? In Deutschland gibt es seit Januar 2018 das Netzwerkdurchsetzungsgesetz (NetzDG), das die großen Plattformen wie Facebook, Twitter und YouTube stärker in die Pflicht nimmt, strafrechtlich relevante Inhalte in sozialen Medien innerhalb von 24 Stunden zu prüfen und ggf. zu entfernen. Auch wenn das Gesetz versucht, soziale Medien stärker an deutsches Recht zu binden, so kreiert es doch neue Probleme: Es lagert die gesamte Entscheidung über die Äußerungen an die privaten Unternehmen aus und agiert zugleich am Problem vorbei. Die Antwort auf Hate Speech ist nicht etwa das einfache Löschen menschenfeindlicher Einstellungsäußerungen, sondern vor allem die Förderung einer digitalen Debattenkultur: eine demokratische, wertebasierte Haltung.

Insbesondere die sozialen Medien sind für rechtsextreme Gruppen (wie z. B. Identitäre Bewegungen), rechtsradikale Strömungen und Parteien als Orte der Rekrutierung, Mobilisierung und Verbreitung ihrer Ideologie in den letzten Jahren erschlossen worden. Häufig genutzt wird dabei nicht direkt Hate Speech – vielmehr wird mit „toxic speech“, „gefährlichen Sprachanwendungen“ gearbeitet. Diese Sprache sind „Worte, die sein können wie winzige Arsendosen: Sie werden unbemerkt verschluckt; sie scheinen keine Wirkung zu tun – und nach einiger Zeit ist die Giftwirkung doch da.”[3]

Victor Klemperer wusste, wovon er 1947 schrieb – auch ganz ohne soziale Netzwerke. Er beobachtete rechtsextreme Sprache sehr genau und empfand sie als eines der relevantesten Mittel, um Menschen und ihr Handeln zu beeinflussen. Insbesondere rassistische Narrative, zum Beispiel zu den Themen Migration und Kriminalität und ihrer scheinbaren Korrelation, werden als Geschichten im Netz erzählt, die Menschen erst stark emotionalisieren und dann auch mobilisieren können – wie es die Ereignisse im Sommer 2018 in Chemnitz zeigten. So kann gefährliche Sprache sehr wohl auch die Vorstellung und nachfolgend Handlungen mit beeinflussen.

Die Wissenschaftlerin Susan Benesch hat das Konzept der „gefährlichen Sprache“ entwickelt, von dem sie sagt, dass ein vergiftetes Kommunikationsklima und die Verschiebung des Sagbaren (dessen, was als gesellschaftlich akzeptabel empfunden wird) vor Hate Speech passieren. Diese Sprachanwendungen sind rechtlich schwer zu fassen, da sie unter die Meinungsäußerungsfreiheit fallen, aber zu Gewalt und gewaltvoller Sprache anregen können. Dazu gehören z. B. das Bezeichnen von Menschengruppen als Tiere oder Ungeziefer, sowie die Beschreibung von Gruppen als Krankheit.[4]

Wie kann ein angemessener Umgang damit stattfinden? Am besten vorbereitet und geeignet sind solche Akteure, die eine gute Community aufgebaut haben, in der eine aktive Auseinandersetzung mit eigenen Community-Regeln und Standards existiert. Sie wissen meist sehr genau, was sie auf ihren Seiten und Foren zulassen wollen und können so sehr schnell und klar toxischem Onlineverhalten und Hate Speech die Grenzen aufzeigen. Auch Akteure, die ausreichende Personalressourcen und Ideen in ihre Social Media-Arbeit stecken und sich im Vorfeld mit Hate Speech und dem Umgang damit auseinandersetzen, können dadurch nur gewinnen.

Gefährliche Sprachanwendung und toxische Narrative werden vor allem dort wirksam, wo es keinen Widerspruch mehr gibt, wo die Gleichgültigkeit den Platz bewusster demokratischer Haltung eingenommen hat und wo diskriminierenden Inhalten überhaupt eine öffentliche Plattform gegeben wird. Oder auch häufig dort, wo gefährliche Sprache in den Kommentaren stehen gelassen wird, sei es – wie im Fall rechtsextremer, rechtspopulistischer oder rechtsradikaler Seiten – absichtlich oder – im Fall mancher Tageszeitung – aus Gründen einer „fairen Meinungsabbildung“ und defensiven Moderation: Damit wird das Kommunikationsklima nachhaltig toxischer, und auch die Sagbarkeit von Abwertungen erscheint als legitim.

Es geht also um eine gute Betreuung und die Bereitstellung von Ressourcen im Umgang mit Hate Speech als wichtige Aufgabe in den Digitalisierungsprozessen, die viele Institutionen und soziale Vereine durchlaufen, darunter auch die Schulung von Ehrenamtlichen und Professionellen. Dies hält zugleich eine große Chance für alle Beteiligten bereit: eigene Werte der Beteiligung und Vorstellung von demokratischer Debattenkultur im gesamten Organisationsbereich zu reflektieren, sich dieser selbstwirksam zu vergewissern und sie dann mit klarer Haltung nach außen zu tragen.

In der Zukunft werden im Zusammenhang mit Hate Speech vor allem Filtersysteme und künstliche Intelligenz getestet – diese können Geschriebenes danach filtern, ob es sich möglicherweise um gefährliche Sprache handelt. Sie können jedoch nie ersetzen, was für die Auseinandersetzung mit Hate Speech und für die Digitalisierung unbedingt notwendig erscheint: eine Haltung gegenüber einer technischen Entwicklung und auch ihren Schattenseiten zu haben.

 

 

[1] https://www.zeit.de/2017/30/hate-speech-hetze-volksverhetzung-antisemitismus-kaiserreich

[2] https://www.zeit.de/2017/30/hate-speech-hetze-volksverhetzung-antisemitismus-kaiserreich

[3] Victor Klemperer, LTI. Notizbuch eines Philologen, Reclam Verlag, Stuttgart, 23. Auflage 2007, S. 26

[4] https://dangerousspeech.org/faq/?faq=577