X Icon Facebook Icon

DebatteHilft Zensur gegen Hass?

Von Sophia Förtsch / 30. Juni 2020
picture alliance / ZB | Sascha Steinach

Im Netz verbreiten sich nicht nur Informationen in Windeseile, sondern auch Hassbotschaften. Wie sich das verhindern lässt, ohne die Meinungsfreiheit zu sehr einzuschränken, ist immer wieder Thema öffentlicher Debatten gewesen. Aber wo stehen wir heute?

Liken, teilen, kommentieren – aus unserem Alltag ist die Kommunikation in den sozialen Medien nicht mehr wegzudenken. Wir alle geben gern mal unseren Senf zu veröffentlichtem Material und eigenwilligen Ansichten dazu. Das Recht, die eigene Meinung offen zu sagen, zählt in einer Demokratie zu den allerhöchsten Gütern. Doch wo hört Meinungsfreiheit auf, wo fängt sogenannter Hate Speech an? Und ist Zensur im Internet sinnvoll?

Die Debatten hinter diesen Fragen sind so vielfältig wie die Haltungen dazu. Vor allem, wenn es um das Verhalten in digitalen Räumen geht, die sich mit der Entwicklung neuer Software und Künstlicher Intelligenz (KI) alle paar Jahre ändern. Doch das Internet vergisst in der Regel nicht, was dort verhandelt wird. Darum ist es schwierig, die eine zentrale Diskussion auszumachen, die dem Anspruch genügt, eine umfassende Übersicht zu den vorherrschenden Positionen zu geben. Stattdessen soll dieser Überblick zentrale Begriffe näher erläutern, auf denen die gegensätzlichen Argumentationslinien fußen.

Hässlich unterwegs

HATE SPEECH. Findet statt, wenn Personen oder Personengruppen zur Zielscheibe von beispielsweise rassistischen, antisemitischen oder sexistischen Kommentaren werden. Doch nicht nur Hasskommentare an sich, sondern auch das Aufrufen zu Gewalt gegen andere Personen zählt darunter. Und damit jede Art von Menschenfeindlichkeit und Volksverhetzung im Netz.

TROLLE. Internet-Trolle sind Menschen, die dafür bezahlt werden, die Kommunikation in sozialen Medien zu stören und (falsche) Inhalte zu verbreiten. Deren Auftraggeber wollen so ihre ideologische Denkweise und Überzeugungen an die User bringen. Troll kommt aus dem Englischen „trolling with bait“ und bezeichnet eine Angeltechnik. Ein Troll fungiert somit als Köder.

DISKRIMINIERUNG. Es gibt verschiedene Arten, andere zu diskriminieren. Rassismus und Fremdenfeindlichkeit sind die wohl bekanntesten Formen, Menschen in ihrer Würde zu verletzten. Auch Antisemitismus oder Antimuslimischer Rassismus und Sexismus zählen dazu. Eine Umfrage des Europarates ergab, dass hauptsächlich Personen, die sich der LBGTIQ-Szene (Lesbian, Gay, Bisexual, Transgender, Inter und Queer) zugehörig fühlen, Opfer von Hasskommentaren sind, gefolgt von Muslimen und Frauen. Aber auch Homo- und Transphobie, Antiziganismus (Diskriminierung von Sinti und Roma), Ableismus (Behindertenfeindlichkeit), Klassismus (Vorurteile aufgrund der sozialen Herkunft) sowie Lookismus (Diskriminierung aufgrund des Aussehens) sind Formen von Diskriminierung.

MUSTER. Hate Speech kann unterschiedliche Ausdrucksweisen/-formen haben. Die bewusste Verbreitung von Desinformation und Falschaussagen („Alle Flüchtlinge haben teure Handys“), Verschwörungstheorien, die WIR/DIE-Rhetorik, Verallgemeinerungen oder eine plakative Bildsprache können als Muster gelten. Sätze wie „Die sollte man alle vergasen“ oder „Die bedrohen unsere Frauen“ haben nichts mit freier Meinungsäußerung zu tun.

MEINUNGSFREIHEIT. „Ich sag doch nur meine Meinung, was ist daran so schlimm?!“ Der Grat zwischen Meinungsfreiheit und Hass ist manchmal äußerst schmal. Wo die Würde eines Menschen bewusst angegriffen und verletzt wird, kann von Meinungsfreiheit keine Rede sein. Zwar ist Hate Speech selbst nicht wörtlich im Strafgesetzbuch verankert, dafür aber: Volksverhetzung (§ 130 StGB), Beleidigung (§ 185 StGB), Verleumdung (§ 187 StGB), Nötigung (§ 240 StGB), Bedrohung (§ 241 StGB) und Öffentliche Aufforderung zu Straftaten (§ 111 StGB). Nicht nur Erwachsene, sondern auch Kinder und Jugendliche ab 14 Jahren können sich in diesen Punkten strafbar machen.

Recht zu zensieren

ZENSUR. Im Allgemeinen versteht man Zensur als Informationskontrolle, freundlicher ausgedrückt: die Überprüfung von (unerlaubten) Inhalten. Meist übernimmt eine staatliche Stelle diese Zensur. Überprüft werden Druckwerke (Bücher, Presseerzeugnisse), Hörfunk-, Fernseh-, Film-, Tonträger- und Videoproduktionen auf politische, gesetzliche, sittliche und religiöse Inhalte und ihre Konformität, also der Übereinstimmung mit erlaubten gesellschaftlichen Grundsätzen in Form von geltendem Recht.

PRÄVENTIV- bzw. VORZENSUR.Hierbei werden unveröffentlichte Publikationen durch Behörden überprüft und offiziell genehmigt. Erst danach ist eine Verbreitung möglich.

REPRESSIV- bzw. NACHZENSUR.Beispiel Film: Schon veröffentlichtes Filmmaterial kann nach seiner Veröffentlichungganz oder teilweise beschlagnahmt, zensiert oder verboten werden. Es rutscht dann aufgrund von regierungs-, religionskritischen oder pornografischen Inhalten auf einen Index. In der NS-Zeit diente die Filmzensur dazu, Filme mit unerwünschten politischen, ideologischen oder künstlerischen Botschaften zu verhindern. Einige (NS-Propaganda-)Filme aus dieser Zeit sind heute sogenannte „Vorbehaltsfilme“ – sie sind verboten und dürfen nur unter speziellen Auflagen und mit einer historischen Einführung gezeigt werden.

ZENSURFREIHEIT. Ist in Deutschlanddurch Art. 5 Abs. 1 im Grundgesetz (GG) verankert. Zensurfreiheit bedeutet, dass es ein Verbot der Vorzensur gibt. Nachzensur ist erlaubt. Unter anderem gibt es dafür die Bundesprüfstelle für jugendgefährdende Medien (BPjM) und die Freiwillige Selbstkontrolle der Filmwirtschaft (FSK), die Medieninhalte gemäß dem Jugendschutzgesetz prüfen und eventuell mit Altersfreigaben versehen.

NETZWERKDURCHSETZUNG. Am 1. Oktober 2017 ist das Netzwerkdurchsetzungsgesetz (NetzDG) verabschiedet worden. Das NetzDG soll helfen, Hate Speech, Fake News und andere strafbare Inhalte in sozialen Netzwerken zu unterbinden. Betreiber von Facebook, Twitter und Co. müssen „offensichtlich rechtswidrige Inhalte“ (u.a. Volksverhetzung, Verbreitung verbotener Symbole) innerhalb von 24 Stunden nach Eingang einer Beschwerde entfernen oder sperren. In der Praxis ist die Umsetzung allerdings nicht so einfach. Das Beispiel Youtube zeigt, dass 2019 mehr Beschwerden gemeldet wurden, als letztendlich gelöscht: 188.671 Beschwerden kamen von Nutzern, 88.807 von Beschwerdestellen. Davon betrafen zwar rund 80.820 Meldungen den Tatbestand Hassrede und politischen Extremismus, aber nur 24.692 Beschwerden wurden gelöscht.

Das Meinungsforschungsunternehmen Civey hat im Auftrag der Friedrich-Ebert-Stiftung am 15.6.2020 ca. 2.500 Personen befragt. Die Ergebnisse sind repräsentativ für die deutsche Bevölkerung ab 18 Jahren. Der statistische Fehler der Gesamtergebnisse liegt bei 3,5 Prozent.


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

Ähnlicher Beitrag
Neues Thema
Meist kommentierter Artikel