Twitter testet „Safety Mode“ gegen Hasskommentare
:format(webp)/cloudfront-eu-central-1.images.arcpublishing.com/madsack/7UUJLKSGSZFYDGX4NYPNKUE7BA.jpeg)
Wie Twitter mitteilt, wird derzeit ein Sicherheitsmodus, der „Safety Mode“, getestet: Zunächst können sich nur ausgewählte Nutzerinnen und Nutzer durch Aktivieren des Modus vor unerwünschten Kommentaren schützen.
© Quelle: Monika Skolimowska/zb/dpa
Hannover. Hasserfüllte Bemerkungen, Beleidigungen und sogar Morddrohungen: Das ist heute in der Onlinewelt zur traurigen Realität geworden. Die Anonymität und Sicherheit des World Wide Webs lässt etliche Menschen ihre gute Kinderstube anscheinend komplett vergessen. Viele Plattformen und Social-Media-Dienste versuchen, dagegen vorzugehen. So auch der Kurznachrichtendienst Twitter. Wie das US-Unternehmen mitteilt, wird derzeit ein Sicherheitsmodus, der „Safety Mode“, getestet.
Zunächst können sich nur ausgewählte Nutzerinnen und Nutzer durch Aktivieren des Modus vor unerwünschten Kommentaren schützen. Es sollen automatisch störende Konten blockiert werden, wenn diese Tweets mit Beleidigungen oder hasserfüllte Bemerkungen senden. Die Accounts werden dann vorübergehend für sieben Tage blockiert.
Expertinnen und Experten erarbeiteten neue Funktion
In einem Blogeintrag von Twitter heißt es, dass die Plattform für die neue Funktion mit Experten aus den Bereichen Onlinesicherheit und psychische Gesundheit zusammenarbeite. Die von Twitter beauftragten Expertinnen und Experten sollen auch an der Auswahl der Feedbackgruppe beteiligt gewesen sein. „Menschen aus marginalisierten Gemeinschaften und Journalistinnen“ hätten laut Twitter für die Teilnahme Priorität.
„Störende Interaktionen“ sollen laut Twitter verringert werden und Nutzerinnen und Nutzer sollen sich wohl und sicher fühlen. Der Test startet vorerst in den iOS- und Android-Apps und in der Webversion auf Twitter.com für Konten, bei denen die englische Sprache eingestellt ist.
Wie funktioniert der Modus?
Twitter erklärt zur Funktionsweise, dass die Systeme die Wahrscheinlichkeit für negative Reaktionen für den Tweet des Nutzers bewerten. Sowohl der Inhalt des Tweets als auch die Beziehung zwischen Verfasser und der antwortenden Person sollen dafür berücksichtigt werden. Konten, denen der Verfasser oder die Verfasserin des ursprünglichen Tweets folgt oder mit denen häufig interagiert wird, sind von der Bewertung ausgenommen und werden nicht automatisch blockiert.
Nutzerinnen und Nutzer können die im Sicherheitsmodus markierten Tweets einsehen und mögliche falsch durchgeführte Blockierungen anderer Accounts rückgängig machen. Die durchgeführten Korrekturen, etwa ein fälschlicherweise blockierter Account, will Twitter zwecks Systemoptimierung evaluieren.
Bevor der Sicherheitsmodus endet, erhalten die User zudem eine Benachrichtigung, die eine Zusammenfassung der stattgefundenen Aktionen enthält. Der Sicherheitsmodus kann in den Einstellungen auch wieder deaktiviert werden.
Unklar, wann der Modus für alle verfügbar ist
Twitter machte keine Angaben, wann der Sicherheitsmodus für alle User verfügbar sein wird. „Wir werden beobachten, wie der Sicherheitsmodus funktioniert, und Verbesserungen und Anpassungen vornehmen, bevor wir ihn allen auf Twitter zur Verfügung stellen“, hieß es vom Unternehmen.