Seit einiger Zeit scheinen sich aggressive Kommentare, persönliche Anfeindungen und gezielte Falschmeldungen in den sozialen Medien immer mehr zu häufen. Und auch wenn man selbst bislang nicht direkt betroffen war, hört man doch immer öfter von den Gefahren, die damit einhergehen. Aber worum handelt es sich eigentlich bei Fake News, Trollen und Hate Speech? Und vor allem: Was kann man dagegen tun?

Das vierte Stadtlabor Online-Event thematisierte die dunkle Seite der sozialen Medien: Fake News, Trolle und Hate Speech – allesamt Phänomene der digitalen Kommunikation im Internet, die in unsicheren Zeiten wie der Corona-Pandemie deutlich zunehmen. Warum ist das so und welche Hintergründe kennen Experten, die sich mit Hass im Netz beschäftigen? Zu Beginn erläuterte der Medienpädagoge und Jugendschutzbeauftragte der Stadt Gießen Thomas Graf anhand von konkreten Beispielen, wie bei Fake News Texte und Bilder aus ihrem ursprünglichen Zusammenhang gerissen und neu zusammengesetzt werden: Der rauchende Statist eines russischen Musikvideos wird plötzlich zum Beleg der „Inszenierung von Corona-Toten“.  Schnell und einfach lassen sich per click & drop Bildausschnitte zusammensetzen und in den sozialen Medien mit reißerischen Headlines verbreiten. In vielen Fällen lassen sich solche Zusammenhänge allerdings mithilfe einer einfachen Internet-Recherche zurückverfolgen und schnell aufklären. Dementsprechend sind so genannte „Fakten-Checks“ die wirksamste Waffe gegen Fake News. Wie man diese erkennt, wo Gefahren lauern und wie man sich ihnen gegenüber am besten verhalten sollte, findet sich in der folgenden Aufzeichnung der Beiträge von Thomas Graf und CORRECTIV:

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Auf professioneller Ebene beschäftigt sich mit solchen Fakten-Checks das CORRECTIV – eine in Essen und Berlin ansässige Non-Profit-Organisation für investigativen Journalismus. Im zweiten Teil des Stadtlabor Events gab deren „Fakten-Checkerin“ Uschi Jonas interessante Einblicke in ihren Arbeitsalltag. Dabei unterscheidet sie Missinformation, die einfach nur falsche Informationen beinhaltet, von Desinformation, die gezielt täuschen und destabilisieren will. Eine extreme Form stellten hierbei die sogenannten Verschwörungstheorien dar, denen keinerlei Belege zugrunde liegen.

Die Verbreitung von Verschwörungstheorien und Desinformationen basiere zumeist auf sehr trivialen Motiven wie Machtgier oder finanzieller Bereicherung, so Uschi Jonas. Trotzdem sind beide nicht zu unterschätzen. Denn indem gezielte Falschmeldungen verunsichern sowie Ängste und Hass schüren, bedrohen sie die demokratische Kultur einer offenen Gesellschaft, die im Kern auf den Austausch von Argumenten und den Widerstreit von Rede und Gegenrede beruht. Dementsprechend wichtig ist es, denjenigen entschiedenen entgegenzutreten, die Desinformationen verbreiten oder aggressives Verhalten provozieren. Gegebenenfalls sollte man sich dafür auch Hilfe suchen – wie etwa bei Beratungsstellen, der Meldestelle #hessengegenhetze, der Polizei oder eben dem CORRECTIV.

Wie sich Fake News und Hate Speech in Zukunft vielleicht auch mithilfe von Maschinen und künstlicher Intelligenz bekämpfen lassen, erforschen die beiden Computerlinguistinnen Prof. Dr. Melanie Siegel und ihre Doktorandin Mina Schütz von der Hochschule Darmstadt. Sie analysieren im Forschungsprojekt „DeTox“ Textinhalte und deren spezifische Charakteristika wie beispielsweise Wortwahl, Schreibstil oder Tonfall sowie deren Kontext wie Verbreitung, Kommentare oder Nutzergruppe. Damit lassen sich aggressive Posts und Hate Speech zwar nicht absolut sicher identifizieren, aber zumindest frühzeitig als auffällige Nachrichten erkennen, die dann in einem zweiten Schritt manuell überprüft werden können. Damit könnte der Arbeitsaufwand für Redaktionen und Fakten-Checker deutlich vereinfacht und beschleunigt werden. In diesem Sinne kann man sich die Zukunft der Bekämpfung von Fake News, Trollen und Hate Speech im Netz wohl am ehesten als ein effektives Zusammenspiel von Mensch und Maschine vorstellen.

Großer Dank gebührt allen, die sich für eine offene und sichere Kommunikation im Internet und damit letztlich unsere eigene Sicherheit und Freiheit einsetzen – vor allem auch deshalb, weil sie dadurch immer wieder selbst Anfeindungen ausgesetzt sind.

Forschung aus Darmstadt zum Thema

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Über die Referent:innen

Thomas Graf ist Übersetzer digitaler Lebenswelten. Seit 2005 ist er unter anderem als medienpädagogischer Berater und Fachreferent für hessische Ministerien und pädagogische Institutionen tätig. Ihm ist es besonders wichtig, dass wir gar nicht erst „in den Fuchsbau“ der sozialen Medien geraten, sondern souverän im Netz unterwegs sind.

Melanie Siegel ist Professorin für Informationswissenschaft und insbesondere für semantische Technologien an der Hochschule Darmstadt. Sie forscht und lehrt als Computerlinguistin und Sprachtechnologin, seit Januar 2021 gemeinsam mit weiteren Akteuren im hessischen Forschungsprojekt DeTox zur automatischen Erkennung von Hasskommentaren und Aggressionen im Netz.

Mina Schütz ist Informationswissenschaftlerin und entwickelt derzeit als Doktorandin an der Hochschule Darmstadt ein KI-Tool, um Fake News besser erkennen zu können.

Uschi Jonas ist Redakteurin, Reporterin und Teil des CORRECTIV.Faktencheck-Teams. Das CORRECTIV ist eine gemeinnützige und unabhängige Redaktion, die für investigativen Journalismus steht und sich gezielt gegen Falschinformationen einsetzt. Dabei beteiligen sie Bürgerinnen und Bürger an den Recherchen und fördern die Medienkompetenz.

Dirk Hintermeier ist Landeskoordinator für  Cybercrime und Prävention beim Hessisches Landeskriminalamt.

Aktionsbereiche