Hate Speech: Kann das Internet menschlicher gestaltet werden?
Oft fallen sexistische, rassistische oder menschenverachtende Kommentare in Onlineforen und sozialen Medien. In letzter Zeit erregte der Fall von Sigrid Maurer besonders viel Aufmerksamkeit in Österreich und zeigte, wie Politikerinnen mit sexistischen Kommentaren im Netz konfrontiert sind. Dies ist allerdings kein Einzelfall. Letzte Woche veröffentlichte auch die Wochenzeitung „Die Zeit“ Auszüge von Hate Mails, die deutsche Politikerinnen und Politiker per E-Mail und in sozialen Netzwerken erhalten haben. Die schiere Anzahl der Hasspostings reichte sogar aus, um ein Theaterstück daraus zu inszenieren. Aber wie lässt sich das Phänomen Hate Speech eindämmen?
Verbieten oder vorbeugen?
Einerseits gilt es, strafrechtlich relevante Kommentare schneller zu erfassen. Zu diesem Zweck wurde die österreischische App „Ban Hate“ ins Leben gerufen. Sie ermöglicht den UserInnen, Hasskommentare schnell zu melden und erleichtert somit die strafrechtliche Verfolgung von Hate Speech. Tatsächlich wurden innerhalb eines Jahres über 1700 Kommentare gemeldet, von denen über 900 an zuständige Behörden weitergeleitet wurden, wie der Falter berichtete.
Allerdings zielen solche „Law and Order“ Maßnahmen auf die Konsequenzen, und nicht auf die Ursache des Problems, ab. Außerdem ist nicht immer klar, wann Hasskommentare auch strafrechtlich relevant sind. Wie aber bringt man Menschen dazu, sich von vornherein im Netz kooperativ zu verhalten?
Wenn Online-Communities mithilfe von verhaltensökonomischen Erkenntnissen gestaltet werden, kann man den Hass im Netz eingrenzen. In dem Buch „Building Successful Online Communities: Evidence-Based Social Design“ von Kiesler et al. (2012) werden eine Reihe von empirisch erprobten Präventions- und Lösungsvorschlägen vorgestellt.
Verhalten „wie zu Hause“
Wenn Menschen feindliche Kommentare hinterlassen, sind diese oft anonym verfasst und stoßen eventuell sogar auf Zuspruch von anderen UserInnen. Sie fühlen sich ungehemmt und realisieren oft nicht, dass ihre Handlungen Folgen für andere im echten Leben nach sich ziehen. Hier können Maßnahmen, die ein Gefühl von Vertrautheit vermitteln, wirksam sein. Eine simple „Willkommen zu Hause, [NAME]“ Begrüßung beim Einloggen in das soziale Netzwerk kann UserInnen dazu animieren, die Onlineplattform als sozialen Raum mit üblichen Verhaltensregeln „wie zu Hause“ wahrzunehmen und sich dementsprechend zu verhalten.
Interessanterweise scheinen Maßnahmen, die personenbezogene Daten von UserInnen verlangen, nicht effektiv zu sein. Binns (2012) stellt fest, dass Menschen eher ungern Informationen wie Name oder Adresse preisgeben. Lieber nehmen sie eine Onlineplattform mit gelegentlichen Hasskommentaren in Kauf, als auf ihre Privatsphäre zu verzichten. Hate Speech muss daher anders vorgebeugt werden.
Ein öffentliches, prominent sichtbares Bewertungssystem könnte helfen. Dabei bekommt man Punkte von anderen Community Mitgliedern für konstruktive Kommentare geschenkt, was prosoziales und kooperatives Verhalten unterstützen kann. Wer eine gewisse Anzahl an Reputationspunkten erreicht, wird mit einer sichtbaren Auszeichnung belohnt (beispielsweise „Community Leader“ oder „Top User“). Dadurch werden Menschen motiviert, auf Anonymität zu verzichten und langfristig Teil der Community zu bleiben. Studien zeigen, dass solche „Gamification“-Maßnahmen das Auftreten von Hasspostings reduzieren, da man den eigenen begehrten, ausgezeichneten Status in der Community nicht aufs Spiel setzen möchte.
Spannend ist auch die Idee einer sogenannten Screeningphase vor der Freischaltung neuer UserInnen. Dabei erhalten sie eine personalisierte Nachricht mit der Einladung, Informationen über sich zu teilen. Hier können Menschen beispielsweise teilen wie sie zur Community beitragen könnten oder was für Expertise sie haben, bevor sie freigeschaltet werden. Dadurch können Vertrauen und Partizipation gesteigert werden, sowie potentiell problematische UserInnen im Voraus identifiziert werden.
Die Macht der zweiten Chancen
Was tun aber, wenn der Hasskommentar bereits online ist? Eine vielleicht nicht intuitive Alternative zu den klassischen Strafmaßnahmen ist es, TäterInnen mit Empathie zu begegnen und ihnen die Möglichkeit zu geben, ihren Ruf zu retten, wie Kiesler et al. (2012) vorschlagen.
Genauer gesagt wird UserInnen die Möglichkeit gegeben, sich bei den Betroffenen zu entschuldigen, um so den verursachten emotionalen Schaden wiedergutzumachen. Online-Communities könnten, ähnlich dem „Gefällt-mir“-bei Facebook, auch mit automatisierten Entschuldigungsbuttons ausgestattet werden. Obwohl unklar ist, ob eine automatisierte Entschuldigung tatsächlich als glaubwürdig wahrgenommen wird, könnte solch eine Option eine sinnvolle Ergänzung sein. So könnte man einen potentiellen Konflikt schnell entwaffnen, bevor dieser eskaliert. Außerdem erinnert ein solches Design daran, dass sich zu entschuldigen eine Option ist, und erleichtert es Menschen, zuzugeben, dass sie einen Fehler gemacht haben.
Ebenfalls wirksam kann es sein, zunächst von einer Unschuld der HassposterInnen auszugehen und ihnen die Chance zu geben, ihre Spuren zu löschen, wie Kiesler et al (2012) berichten. Auf einer universitätsinternen Plattform des Massachusetts Institute of Technology erhielten UserInnen, deren Kommentare als belästigend gemeldet wurden, eine automatische Nachricht mit der Information, dass ihr Konto gehackt wurde. Dann wurden sie aufgefordert ihr Passwort zu ändern. Eine solche Botschaft kann zum Beispiel so aussehen: „Jemand hat eine fragwürde Aktivität X oder Y in Ihrem Namen getätigt. Dies ist strafrechtlich relevant. Falls Sie das nicht waren, ändern Sie bitte Ihr Passwort“.
Wenn HassposterInnen böswilligen Handelns beschuldigt werden, verharren sie oft in ihrem Verhalten, da sie die Autorität der Plattform in Frage stellen wollen oder auf ihre Meinungsfreiheit bestehen. Mit dieser Maßnahme können sie weiter ihr Gesicht behalten, da ihnen die Scham einer direkten Konfrontation erspart wird. Es hat sich gezeigt, dass viele HassposterInnen in Folge tatsächlich ihr Passwort änderten und ihr Verhalten nicht wiederholten.
Das Hate-Speech-Problem ist omnipräsent, aber man sieht: durch intelligentes Design der Onlineplattformen gibt es große Potentiale, solche Ereignisse zu vermeiden. Bereits getestete Interventionen sind vielversprechend. Auch in Österreich könnten verhaltensökonomische Interventionen zu respektvollerem Umgang miteinander im Netz beitragen.
Literatur
Amy Binns (2012) Don’t Feed The Trolls!, Journalism Practice, 6:4, 547-562, DOI: 10.1080/17512786.2011.648988
https://www.falter.at/archiv/FALTER_20180328BE397AFFD4/gegen-hasspostings-kann-man-jetzt-was-tun
Kiesler, S., Kraut, R., Resnick, P., & Kittur, A. (2012). Regulating behavior in online communities. Building Successful Online Communities: Evidence-Based Social Design. MIT Press, Cambridge, MA.
Bilder: William Iven und Edho Pratama (gefunden auf https://unsplash.com/)