<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Hatespeech &#8211; politik-digital</title>
	<atom:link href="https://www.politik-digital.de/tag/hatespeech/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.politik-digital.de</link>
	<description>Information, Kommunikation, Partizipation</description>
	<lastBuildDate>Mon, 08 Jun 2020 15:41:05 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.politik-digital.de/wp-content/uploads/2020/07/cropped-Politik-Digital_Logo_Sign_Gradient-512-32x32.png</url>
	<title>Hatespeech &#8211; politik-digital</title>
	<link>https://www.politik-digital.de</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Neue Herausforderung &#8220;Dark Social&#8221;?</title>
		<link>https://www.politik-digital.de/news/dark-social-dehate-interview-mit-miro-dittrich-156052/</link>
					<comments>https://www.politik-digital.de/news/dark-social-dehate-interview-mit-miro-dittrich-156052/#respond</comments>
		
		<dc:creator><![CDATA[Erik Meyer]]></dc:creator>
		<pubDate>Wed, 15 May 2019 07:19:23 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Themenseite]]></category>
		<category><![CDATA[Novi]]></category>
		<category><![CDATA[Resi]]></category>
		<category><![CDATA[Social Media]]></category>
		<category><![CDATA[Amadeu Antonio Stiftung]]></category>
		<category><![CDATA[Hatespeech]]></category>
		<category><![CDATA[Desinformation]]></category>
		<category><![CDATA[Falschmeldung]]></category>
		<category><![CDATA[Best Practices]]></category>
		<category><![CDATA[Dark Social]]></category>
		<category><![CDATA[Debate//de:hate]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=156052</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-0"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column text-lead" ><p>Interview mit Miro Dittrich vom Projektverbund „Debate//de:hate“ der Amadeu Antonio Stiftung</p>
<p>Im Fokus der Diskussion um Desinformation stehen häufig soziale Netzwerke wie Facebook. Doch die Nutzer wandern zunehmend zu anderen Angeboten ab, in denen gar nicht mehr öffentlich kommuniziert wird. Stellt &#8220;Dark Social&#8221; also eine neue Herausforderung dar?</p>
</div><div class="uncode_text_column" ><p>De:hate ist dabei für die Analyse und Erarbeitung von Handlungsempfehlungen verantwortlich. Dazu betreibt das Projekt qualitatives und quantitatives Monitoring von menschenverachtenden Phänomenen wie Hate Speech in sozialen Medien.</p>
<p><strong>Die Diskussion um digitale Desinformation konzentriert sich häufig auf deren Verbreitung durch soziale Medien wie Facebook und Twitter. Dort würden viele Fake News zirkulieren oder Social Bots die Meinungsbildung manipulieren. Was hat es demgegenüber mit der Rede von “Dark Social” auf sich? Welche Kanäle sind damit gemeint?</strong></p>
<p>Dittrich: &#8220;Dark Social&#8221; wurde als Schlagwort zuerst 2012 vom amerikanischen Journalisten Alexis C. Madrigal verwendet. Hier ging es um nicht klar zuordnungsbare Klicks auf Webseiten, etwa von Messaging-Apps und E-Mails. Anders als bei Links beispielsweise über Facebook oder Twitter war den Betreibern der Seiten nicht klar, woher ihre Besucher kamen. In der aktuellen Debatte wird der Begriff jedoch für nicht eindeutig öffentliche Kommunikation verwendet, also für abgeschlossene Server, wie etwa auf der für Gamer gedachten Plattform Discord, hauptsächlich aber für private Messenger wie etwa Whatsapp oder Telegram.</p>
<p>Da sich online eine Ermüdung für die in der breiten Öffentlichkeit stattfindende Kommunikation zeigt, haben diese Kommunikationsformen deutlich an Bedeutung gewonnen. Eine zunehmende Tribalisierung und Fragmentierung der Onlinewelt bestärkt diese Entwicklung weiterhin. Menschen suchen wieder vermehrt nach interessenbezogenen Communitys und wenden sich immer mehr von den großen Plattformen ab.</p>
<p><strong>Warum sind diese Kanäle für die Verbreitung von Falscherzählungen besonders relevant? Betrifft dies eher die private Verbreitung von Gerüchten wie beim Mobbing oder gibt es auch politische Akteure, die dort Desinformation strategisch kommunizieren?</strong></p>
<p>Dittrich: Wir haben es dort mit beidem zu tun. Das private Verbreiten von Gerüchten, das es schon immer gab, wird durch diese technische Lösung stark beschleunigt. Falscherzählungen wirken zudem viel glaubwürdiger, wenn sie von einer uns bekannten Person geteilt werden. Dazu nutzen aber auch politische Akteure diese Kanäle sehr gezielt. Die direkte Kommunikation auf das Handy per Benachrichtigung beschleunigt die Verbreitung dieser Nachrichten. So muss die Zielgruppe nicht erst in ihrem Nachrichtenfeed bis zum entsprechenden Beitrag scrollen. Dies erklärte auch zu einem Teil die schnelle Mobilisierung um die rechtsextremen Demonstrationen wie etwa in Chemnitz 2018, das erste Großevent zu dem eine Vielzahl an Telegram- und Whatsapp-Kanäle und -Gruppen aktiv waren. Mobilisiert wurde dort stark mit drei Falscherzählungen: eine verhinderte Vergewaltigung, 25 Messerstiche und ein zweiter Toter.</p>
<p><strong>Für die Verbreitung von Desinformation auf öffentlichen Plattformen sind auch algorithmische Verstärkungseffekte charakteristisch: Inhalte, auf die Nutzer stark reagieren, werden etwa im News Feed von Facebook priorisiert verbreitet. Wie werde ich demgegenüber auf solche Inhalte aufmerksam, wenn sie via Dark Social verbreitet werden?</strong></p>
<p>Dittrich: Beiträge werden hier von Privatpersonen oder größeren Gruppen oder Kanälen weitergeleitet. Der Einstieg in sehr aktive Gruppen ist dadurch niedrigschwellig. Zudem sind diese Gruppen sehr gut vernetzt, sie teilen ihre Beiträge sehr häufig. So landet man schnell in einem Netzwerk mit einem geschlossenen Weltbild, das fundamental geprägt von Falschinformationen ist. Durch die fehlende Öffentlichkeit gibt es zudem keinen Widerspruch oder korrigierende Informationen.</p>
<p>Der Algorithmus auf öffentlichen Plattformen hat aber auch viele Nachteile für die Verbreitenden von Desinformationen. Facebook arbeitet etwa mit dem Recherchekollektiv Correctiv zusammen. Identifizieren diese einen Beitrag als Falschnachricht, wird seine Sichtbarkeit deutlich eingeschränkt. Auch werden auf öffentlichen Plattformen Gemeinschaftsstandards wesentlich konsequenter durchgesetzt, was für Dark Social eher eine seltene Ausnahme darstellt. Falschnachrichten können hier also wesentlich extremer und emotionalisierender formuliert werden, ohne eine Löschung befürchten zu müssen.</p>
<p><strong>In Indien hat via Messengerdienst verbreitete Desinformation sogar eine tödliche Dimension, und es war in einem Fall von “Whatsapp-Killings” die Rede. Ist das ein Einzelfall oder ist generell einen Zusammenhang zwischen der Anonymität von Akteuren, der Aggressivität von Aussagen und der Destruktivität von Auswirkungen zu beobachten?</strong></p>
<p>Dittrich: Die Anonymität ist hierbei nicht der entscheidende Faktor. Das zeigt etwa die Universität Zürich 2016 in der Untersuchung “Digital Social Norm Enforcement: Online Firestorms in Social Media”. Nach ihren Ergebnissen gaben User, die nicht-anonym auftraten, häufiger Kommentare mit Aggressionen ab. Die Autoren erklären dies durch eine fehlende Erwartung von Konsequenzen und durch eine höhere erwartete Glaubwürdigkeit, wenn sie ihre Aggression mit Klarnamen kommunizierten. Das geschlossene Informationssystem ohne abweichende Informationen dürfte hier entscheidender sein. Dieses Weltbild ist dabei von apokalyptischen Vorstellungen geprägt; etwa der Untergang Deutschlands stehe kurz bevor. Oder es gäbe keine Meinungsfreiheit und Demokratie mehr, Morde und Vergewaltigungen von vermeintlichen Migranten und Geflüchteten würden den Alltag prägen. Da der Staat nicht gewillt wäre, sie zu schützen, baut sich der dadurch entstehende Handlungsdruck in Gewalt und Terror ab.</p>
<p><strong>Facebook arbeitet beispielsweise mit unabhängigen Faktenprüfern zusammen, die Inhalte prüfen, um die Verbreitung von Falschmeldungen auf der Plattform einzudämmen. Gibt es auch bei Dark Social Gegenmaßnahmen der Betreiber beziehungsweise was lässt sich dort generell dagegen tun?</strong></p>
<p>Dittrich: Die bisherigen Versuche fokussieren vor allem die schnelle Verbreitung einzudämmen. Whatsapp hat als Konsequenz der durch Falschinformationen ausgelösten Gewalt in Indien das Weiterleiten von 20 Empfängern auf fünf eingeschränkt. Nach einer Testphase in Indien gilt dies nun weltweit. Weiterhin testet das Unternehmen gerade die Funktion der Rückwärtssuche von Bildern. Zugeschickte Bilder werden direkt aus der App heraus in Googles Bildersuche hochgeladen und dort mit ähnlichen Fotos aus dem Internet abgeglichen. Dadurch können Bilder auf ihre Echtheit und ihren Ursprung überprüft werden. Unter den Suchergebnissen können dann auch vertrauenswürdige Websites zu finden sein, die das Bild bereits als Fälschung enttarnt haben. Da die Kommunikation über private Messenger jedoch meist verschlüsselt stattfindet, sind Unternehmen sehr in ihrem Eingriff in die Nachrichtenflüsse eingeschränkt.</p>
<p><strong>Habe ich als Nutzer sinnvolle Handlungsoptionen, wenn ich via Dark Social mit Desinformation konfrontiert werde?</strong></p>
<p>Dittrich: Unwahrscheinlich klingende Nachrichten können mit einer Internetsuche überprüft werden. Ist die Nachricht wirklich eine aktuelle oder lassen sich vertrauensvolle Quellen dafür finden? Die Rückwärtssuche von Bildern ist ein weiteres effektives Mittel, Falschinformationen zu enttarnen. Zudem gibt es eine Vielzahl an journalistischen Angeboten, die sich gezielt mit dem Überprüfen von Desinformation auf Social Media beschäftigen, etwa der Faktenfinder der Tagesschau, das Recherchekollektiv “Correctiv” oder mimikama.at. Gerade im persönlichen Bereich kann es erfolgreich sein, seine Recherche mit dem Versender der Desinformation zu teilen. In größeren Gruppen ist die Erfolgsaussicht leider sehr gering. Korrekturen werden als “Lügenpresse” abgetan, ignoriert oder es wird zwar eingesehen, dass die Information im Konkreten falsch ist, aber die dahinter liegende Erzählung jedoch stimme. Das auf Falschinformationen gebaute Weltbild bleibt so also erhalten.</p>
<p><strong>Sie beobachten zur Europawahl Desinformationskampagnen in Dark Social. Welche Entwicklungen können Sie bereits jetzt erkennen und Themen spielen eine Rolle?</strong></p>
<p>Dittrich: Eine interessante Entwicklung ist, dass seit Anfang des Jahres das Thema „Umwelt“ eine neue, wichtige Rolle in Desinformationskampagnen eingenommen hat. Leugnungen des menschengemachten Klimawandels treten in einer bis dato nicht vertreten Häufigkeit und Viralität auf. Dies zeigt eine fortschreitende, breite Erosion des Vertrauens in Institutionen, denen wir akkurate Realitätsbeschreibungen zuschreiben. So gibt es zum Klimawandel ja einen klaren wissenschaftlichen Konsensus. Weiterhin sind auch neue Gesetze der Europäischen Union, die auch in der breiteren Bevölkerung Kritik erfahren, ein wichtiges Thema. Die Desinformation dreht sich hier jedoch um eine persönlich wahrgenommene Verfolgung. So wird etwa die Datenschutz-Grundverordnung und Artikel 13 der Urheberreform als Versuch der gezielten Zensur einer politischen Meinung kommuniziert. Vermeintliche Straftaten, die Migranten und Geflüchteten zugeschrieben werden, spielen jedoch weiterhin die wichtigste Rolle für Falschnachrichten.</p>
<p><strong>Bietet Dark Social auch positive Ansatzpunkte für die politische Kommunikation? Welche Chancen sehen Sie für den Kampf gegen Desinformation, Hate Speech und extremistische Inhalte im Netz? Gibt es also nicht nur negative Beispiele, sondern auch Best Practices?</strong></p>
<p>Dittrich: Positiv fand ich etwa die, leider eingestellte, Nachrichten-App “Resi”. Hier wurde man über tagesaktuelle Themen informiert und konnte über Fragen tiefer in Themen einsteigen oder lieber über anderes informiert werden. Das Programm lernte dabei über die eigenen Interessen und änderte das zukünftige Informationsangebot dementsprechend. Ein weiteres Beispiel ist der von Tagesschau und NDR entwickelte Nachrichtendienst Novi. Mit diesem kann man über den Facebook-Messenger, Telegram, Whatsapp oder Skype über aktuelle Nachrichten informiert werden und auch die Bundeszentrale für politische Bildung hat ja einen Infokanal für Messenger, über den man kurze Erklärtexte zu Begriffen aus Politik und Geschichte und Hintergrundinfos zu aktuellen Themen und Debatten erhalten kann. Chat Bots über private Messenger bieten also auch eine große Chance für personalisierte politische Kommunikation. Prinzipiell gibt eine Vielzahl guter Bestrebungen von Plattformbetreibenden, die Probleme auf ihren Plattformen zu lösen. Als um die rechtsextremen Demonstrationen in Chemnitz 2018 die ersten Suchergebnisse auf YouTube zu “Chemnitz” von rechtsextremen Desinformationsvideos dominiert waren, führte Google ein bereits in den USA getestetes Feature ein. Dieses priorisiert bei aktuellen Ereignissen die Videos von vertrauensvollen Medienangeboten. Auch der “Qualitätsfilter” von Twitter hat das Klima auf der Plattform deutlich verbessert. Dieser nutzt eine Vielzahl von Signalen, um die Reichweite von Beiträgen von als toxisch markierten Accounts zu reduzieren. Bei Facebook sehe ich ein ehrliches Interesse in der stetigen Verbesserung ihrer Gemeinschaftsstandards, so etwa in der Deklarierung von weißem Nationalismus und Separatismus als Hassgruppe Ende April 2019. Dadurch ist es verboten, weißen Nationalismus und Separatismus auf der Plattform zu verherrlichen oder zu vertreten.</p>
<p>Trotzdem spielen die sozialen Medien immer noch die wichtigste Rolle in der Mobilisierung und Radikalisierung von demokratie- und menschenfeindlichen Einstellungen. Hier gibt es noch sehr viel Handlungsbedarf, und ich würde speziell vor der Hoffnung auf eine schnelle technische Lösung warnen. So sind wir etwa von einer automatisierten Erkennung von Hate Speech noch viele Jahre entfernt. Die zu beobachtende Bewegung hin zu verschlüsselten, nicht öffentlichen Bereichen des Internets erschwert zudem Lösungsansätze und wird uns vor neue, noch komplizierter lösbare Probleme stellen.</p>
<p>Dies ist ein Crosspost von der BPB. Das Interview ist zuerst <a href="http://www.bpb.de/gesellschaft/medien-und-sport/digitale-desinformation/290531/neue-herausforderung-dark-social" target="_blank" rel="noopener noreferrer">dort</a> unter der <a href="https://creativecommons.org/licenses/by-nc-nd/3.0/de/" target="_blank" rel="noopener noreferrer">CC-BY-NC-ND 3.0-Lizenz</a> erschienen.</p>
<p>Titelbild: internet by LoboStudioHamburg via <a href="https://pixabay.com/de/photos/internet-whatsapp-smartphone-3113279/" target="_blank" rel="noopener noreferrer">Pixabay</a><br />
<img decoding="async" src="http://vg04.met.vgwort.de/na/708ca7d6303f494388227689cae1116b" alt="" width="1" height="1" /></p>
</div></div></div></div></div></div><script id="script-row-unique-0" data-row="script-row-unique-0" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-0"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/dark-social-dehate-interview-mit-miro-dittrich-156052/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Was bringen Pranger gegen Hasskommentare im Internet?</title>
		<link>https://www.politik-digital.de/news/studie-online-pranger-gegen-hasskommentare-wirkungslos-150262/</link>
					<comments>https://www.politik-digital.de/news/studie-online-pranger-gegen-hasskommentare-wirkungslos-150262/#respond</comments>
		
		<dc:creator><![CDATA[Michael Mahler]]></dc:creator>
		<pubDate>Tue, 20 Sep 2016 08:22:24 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Pranger]]></category>
		<category><![CDATA[Pranger der Schande]]></category>
		<category><![CDATA[Bild-Zeitung]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[Untersuchung]]></category>
		<category><![CDATA[Flüchtlinge]]></category>
		<category><![CDATA[Hasskommentare]]></category>
		<category><![CDATA[Hatespeech]]></category>
		<category><![CDATA[Inhaltsanalyse]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=150262</guid>

					<description><![CDATA[Vor knapp einem Jahr antwortete die Bild-Zeitung auf Hass-Kommentare im Internet mit einem groß angelegten Online-Pranger, veröffentlichte also Fotos und [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="http://politik-digital.de/wp-content/uploads/Pranger-DigitArtClips-CC0-Public-Domain-Pixabay.jpg"><img decoding="async" class="alignnone wp-image-150263 size-full" src="http://politik-digital.de/wp-content/uploads/Pranger-DigitArtClips-CC0-Public-Domain-Pixabay.jpg" alt="pranger-digitartclips-cc0-public-domain-pixabay" width="640" height="301" /></a>Vor knapp einem Jahr antwortete die Bild-Zeitung auf Hass-Kommentare im Internet mit einem groß angelegten Online-Pranger, veröffentlichte also Fotos und Klarnamen der Kommentatoren. Medienwissenschaftler haben nun die Wirkung des sogenannten „Prangers der Schande“ untersucht. Ihr Befund: Die öffentliche Bloßstellung von Hetzern ist kein adäquates Mittel.</p>
<p>Der Hass war schon längst online gegangen. Doch im Oktober 2015 schienen die verbalen Ausfälle im Netz ihren vorläufigen Höhepunkt erreicht zu haben. Vor allem gegen Flüchtlinge. „So viel offener Hass war nie in unserem Land“, zeigte sich zumindest Deutschlands größte Tageszeitung überzeugt. Und veröffentlichte am 20. Oktober auf zwei Doppelseiten und im Internet 42 Hass-Kommentare mit den dazugehörigen Nutzernamen und Profilfotos: <a href="http://www.bild.de/news/inland/social-media/der-pranger-der-schande-43073084.bild.html" target="_blank" rel="noopener noreferrer">„BILD stellt die Hetzer an den Pranger!“</a> Ein halbes Jahr später stellte das Oberlandesgericht München klar: <a href="http://www.tagesspiegel.de/medien/eine-aktion-und-zwei-gegensaetzliche-urteile-gericht-pranger-der-schande-bei-bild-unzulaessig/13350898.html" target="_blank" rel="noopener noreferrer">Juristisch gesehen war das unzulässig</a>. Doch hat der „Pranger der Schande“ wenigstens sein Ziel erreicht und den Hass im Netz durch eine solche Ächtung eindämmen können?</p>
<p>Das haben jetzt Katharina Neumann und Florian Arendt von der Münchner Ludwig-Maximilian-Universität untersucht. Das Ergebnis ihrer <a href="https://www.springerprofessional.de/der-pranger-der-schande/10342086" target="_blank" rel="noopener noreferrer">Inhaltsanalyse</a> fällt ambivalent aus: So ging die Zahl der Hasskommentare zwei Tage nach der Veröffentlichung des Bild-Prangers zwar auf 5,6 Prozent aller abgegebenen Kommentare auf der Bild-Facebookseite zurück. Das waren gegenüber dem zuvor gemessenen Durchschnittswert 2,4 Prozentpunkte weniger. Gleichzeitig nahmen aber auch die Kommentare zu, die zwar nicht als Hatespeech zu werten sind, jedoch eine sehr kritische Haltung zum Ausdruck bringen („Das Boot ist voll – keine weitere Aufnahme“ oder „Mittlerweile habe ich nur noch Angst“). Sie stiegen um 5,6 Prozentpunkte auf 78,3 Prozent. Mit der Zeit verflüchtigten sich all diese Effekte wieder.</p>
<p>Die Medienwissenschaftler Neumann und Arendt erklären die vorübergehende Zunahme der negativen Kommentare damit, dass der Bild-Pranger ein Gefühl der Bedrohung der individuellen Meinungsfreiheit ausgelöst habe. Dieses Gefühl, so die Annahme der beiden Forscher, könne Flüchtlingsgegner und Skeptiker erst recht dazu ermuntert haben, ihre Meinung offen zu äußern. Die Forscher vermuten dabei auch einen Zusammenhang mit den gleichzeitig weniger gewordenen expliziten Hass-Kommentaren: So hätten einige über den gemäßigten Stil der negativen Kommentare ihren Gedanken weiter freien Lauf lassen können, ohne sich jedoch dabei der von der Bild-Zeitung geforderten Strafverfolgung („Herr Staatsanwalt, übernehmen Sie!“) oder der Gefahr von sozialen Sanktionen auszusetzen.</p>
<p>Katharina Neumann und Florian Arendt ziehen daraus die Konsequenz, „dass die öffentliche Bloßstellung von Hasskommentatoren kein adäquates Mittel“ gegen Hatespeech darstellt. Schließlich habe sich die Bild-Zeitung mit dem Pranger nicht nur zum Ziel gesetzt, so strafrechtlich relevante Äußerungen einzudämmen, sondern auch die öffentliche Meinung über Flüchtlinge zu verbessern. Die habe sich aber „zumindest kurzfristig verschlechtert“. Bestätigt sehen die Wissenschaftler die Forschungsergebnisse durch Empfehlungen der UNESCO, die im Kampf gegen Hasskommentare der inhaltlichen Auseinandersetzung und Gegenargumenten den Vorzug geben. Jede Reaktion, die die Meinungsfreiheit einschränke, sei dagegen sorgsam abzuwägen und nur in Ausnahmefällen zu rechtfertigen.</p>
<p>Titelbild: <a href="https://pixabay.com/de/pranger-mittelalter-ritter-m%C3%B6rder-1126124/" target="_blank" rel="noopener noreferrer">Pranger</a> von <a href="https://pixabay.com/de/users/DigitArtClips-29345/" target="_blank" rel="noopener noreferrer">DigitArtClips</a> via <a href="https://pixabay.com/" target="_blank" rel="noopener noreferrer">pixabay</a>, licenced <a href="https://pixabay.com/de/pranger-mittelalter-ritter-m%C3%B6rder-1126124/" target="_blank" rel="noopener noreferrer">CC0 Public Domain</a></p>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" target="_blank" rel="noopener noreferrer"><img decoding="async" class="alignleft  wp-image-139428" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" alt="CC-Lizenz-630x1101" width="441" height="77" /></a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/studie-online-pranger-gegen-hasskommentare-wirkungslos-150262/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Hassplattform Internet: Tun Google &#038; Co genug dagegen?</title>
		<link>https://www.politik-digital.de/news/hassplattform-internet-tun-google-und-co-genug-dagegen-150195/</link>
					<comments>https://www.politik-digital.de/news/hassplattform-internet-tun-google-und-co-genug-dagegen-150195/#respond</comments>
		
		<dc:creator><![CDATA[Michael Mahler]]></dc:creator>
		<pubDate>Fri, 09 Sep 2016 12:17:07 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Hatespeech]]></category>
		<category><![CDATA[Task Force]]></category>
		<category><![CDATA[SPD]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[Soziale Netzwerke]]></category>
		<category><![CDATA[Gewalt]]></category>
		<category><![CDATA[Internet]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[Amadeu Antonio Stiftung]]></category>
		<category><![CDATA[Hass]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=150195</guid>

					<description><![CDATA[Auch wenn es genügend Gründe gibt, in diesen Tagen den 25. Geburtstag des Internet zu feiern: Das Netz hat die [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="http://politik-digital.de/wp-content/uploads/Hatespeech-sarinhars-CC0-Public-Domain-pixabay.png"><img decoding="async" class="wp-image-150201 size-large alignnone" src="http://politik-digital.de/wp-content/uploads/computer-rage-630x465.jpg" alt="computer-rage" width="630" height="465" /></a></p>
<p>Auch wenn es genügend Gründe gibt, in diesen Tagen den 25. Geburtstag des Internet zu feiern: Das Netz hat die Gesellschaft in den letzten Jahren auch das Fürchten gelehrt. Menschen radikalisieren sich in sozialen Netzwerken und nicht selten erwachsen daraus ganz reale Gewalttaten. Kurz: Das World Wide Web scheint nicht nur, aber auch zur Hass-Plattform zu verkommen. Doch wie lässt sich das verhindern? Das war eine der Fragen, der sich die Expertenrunde bei der telegraphen_lounge der Deutschen Telekom am vergangenen Mittwoch stellte. An der Rolle von Facebook, Google und Co schieden sich dabei besonders die Geister.</p>
<p>Bald zehn Monate ist es jetzt her, dass die vom Bundesjustizministerium initiierte Task Force erste Ergebnisse vorstellte, wie gegen Hassinhalte im Netz vorgegangen werden kann. Daran beteiligt waren nicht nur zivilgesellschaftliche Organisationen, sondern auch Vertreter von Facebook und Google. Mit ihnen wurden konkrete Maßnahmen zur Bekämpfung von Hass-Inhalten vereinbart. Doch wie ist der Stand heute? Wurden die Zusagen eingehalten? Und wo reichen die Schritte noch nicht aus? Das war eine zentrale Streitfrage bei der Diskussionsrunde <a href="http://blog.telekom.com/2016/09/08/wir-alle-muessen-etwas-gegen-den-digitalen-extremismus-tun/" target="_blank" rel="noopener noreferrer">„Digitaler Extremismus: Verkommt das Netz zur Hass-Plattform?“</a> in der Hauptstadtrepräsentanz der Deutschen Telekom AG.</p>
<p>Simone Rafael von der Amadeu-Antonio-Stiftung, die an der Task Force des Justizministeriums teilgenommen hatte, forderte die sozialen Netzwerke dazu auf, noch stärker Verantwortung zu übernehmen: „Es ist ein guter Zwischenschritt, wenn Nazis und Terroristen nicht mehr dort sind, wo sie auf sehr, sehr viele Einfluss nehmen können.“ Und wenn man als Unternehmen in seinen Allgemeinen Geschäftsbedingungen schreibe, dass man keinen Rassismus und Antisemitismus dulde, solle man das auch umsetzen.</p>
<h3>Hatespeech: Google verweist auf eigene Grenzen</h3>
<p>Lutz Mache, der sich im Google-Hauptstadtbüro mit Hate Speech befasst, wies solche Aufrufe nach einem noch stärkeren Engagement der Netzbetreiber indirekt zurück: „Es ist klar, dass wir gegen rechtswidrige Inhalte im Netz vorgehen.“ Google wolle schließlich vor allem den rechtmäßigen Meinungen eine Plattform bieten. Allerdings sei die Unterscheidung zwischen zulässiger und unzulässiger Äußerung schwierig. Das zeige schon das Gerichtsurteil zum umstrittenen Böhmermann-Schmähgedicht: „Das ist ein schmaler Grat, das zu entscheiden.“ Außerdem würden allein auf You Tube pro Minute 400 Stunden Video-Material hochgeladen. „Das ist für kein Unternehmen möglich, diese proaktiv zu durchsuchen. Deshalb bauen wir darauf, dass Nutzer uns diese melden“, so Mache. Und Google stelle dafür – wie in der Task Force vereinbart – die Produkt-Tools bereit. Eine technische Lösung von Seiten des Unternehmens zur Bekämpfung von Hass-Inhalten scheide allerdings aus – anders als bei Urheberrechtsverstößen mit vorab verfügbarem, klar überprüfbarem Material: „Die Rechtsverstöße sind da anders zu erkennen als bei Hassinhalten“, sagte Mache.</p>
<p>Der parlamentarische Staatssekretär im Justizministerium, Ulrich Kelber (SPD), widersprach Mache und berichtete von eigenen Erfahrungen mit Hasskommentaren. Bislang würden etwa Äußerungen, die mit Worten wie „Judenschwein“ und „Untermensch“ ganz klar diskriminierten, nach angemeldeter Prüfung bei Facebook durchgehen. Kelber: „Das hat nichts mit zweifelhaft zu tun, sondern da funktioniert der Prozess nicht.“ Er erwarte, dass bei den Betreibern angezeigte Inhalte von Leuten geprüft werden, die die Landessprache beherrschen und wissen, was rechtlich in Deutschland verboten ist.</p>
<h3>Zentrale Zusage der Internetbetreiber noch nicht eingehalten</h3>
<p>Überhaupt: „Die Zusage der Internetbetreiber, dass Inhalte innerhalb von 24 Stunden geprüft und auch im Falle einer Straftat gelöscht werden, wird noch nicht eingehalten“, so der SPD-Politiker. „Da ist noch deutlich Raum zur Verbesserung.“ Auch mit Blick auf die Technik sei das der Fall. Intelligente Systeme könnten etwa einen hochgeladenen und wahrscheinlich strafrechtlich relevanten Inhalt „in eine Art Zwischen-Quarantäne stecken, bis ihn sich jemand angeschaut hat“, schlug Kelber vor. „Das verletzt das Recht von niemandem, wenn der Inhalt erst nach einer Stunde online ist.“ Ferner könnten Filter-Bubbles durch Veränderung der Algorithmen durchbrochen werden. Es sei nicht in Ordnung, dass Menschen, die sich in ihrer Ansicht zu radikalisieren begännen, in eine laufende digitale Selbstbestätigung gebracht würden, so der Staatssekretär. Da stimmte auch Google-Vertreter Mache zu.</p>
<p>Susann Rüthrich, Sprecherin der Arbeitsgruppe „Strategien gegen Rechtsextremismus“ der SPD-Bundestagsfraktion, beschrieb die Chancen einer Algorithmus-Veränderung so: „Wenn jemand nach einschlägigen Begriffen sucht, soll er nicht nur auf Seiten kommen, die er eigentlich gesucht hat, sondern auch auf Seiten, die aufklären.“</p>
<h3>„Da braucht es klare Ansagen von Demokratinnen und Demokraten“</h3>
<p>Und was kann der Staat tun? In den Augen von Simone Rafael von der Amadeu-Antonio-Stiftung braucht es jedenfalls keine Gesetzesverschärfung. Allerdings seien bei Staatsanwaltschaften und Polizeistellen weitere Spezialisten nötig, die sich mit Hate Speech im Internet auskennen. Staatssekretär Kelber sah die Behörden schon personell gestärkt. Durchaus gälte es aber, die Justiz fit zu machen: „Manchmal ist es auch einfach nur notwendig, besonders eklatante Beispiele besonders schnell zu ahnden.“ Kelber erhofft sich davon eine Signalwirkung auf Internetnutzer. Die helfe mehr, als wenn nach zwölf Monaten langsam jeder einzelne Fall abgearbeitet werde. Es gehe um Bewusstseinsschaffung. Lutz Mache von Google hat bereits beobachtet, dass die Sensibilisierung im Netz gestiegen ist: „Die Zahl der Nutzer hat sich erhöht, die Inhalte bei uns melden und sich aktiv auf unseren Plattformen gegen Hass aussprechen.“ Sich für demokratische Werte einzusetzen, sei schließlich Aufgabe aller. Darin war sich die Runde einig.</p>
<p>Von allen Diskutanten wurde daher die eigenständige Rolle der Gesellschaft im Kampf gegen Hass-Inhalte hervorgehoben. Staatssekretär Kelber sieht die Nutzer etwa vor allem dann gefordert, wenn es sich bei Kommentaren zwar nicht um Straftaten, trotz allem aber um Hate Speech handelt: „Da kann man nichts verbieten oder Löschanträge stellen, da braucht es klare Ansagen von Demokratinnen und Demokraten.“ Die Abgeordnete Susann Rüthrich unterstrich dabei die Bedeutung der Medienkompetenz. Dazu gehöre nicht nur ein reflektierter Umgang mit Inhalten im Netz: „Man muss die Menschen auch kompetent machen, sich persönlich nicht komplett angreifbar zu machen.“ Das schließe ein Bewusstsein ein, was man von sich selbst online preisgeben will und was nicht: „Denn aus einer digitalen Auseinandersetzung kann sehr schnell etwas ganz reales werden.“</p>
<p>Titelbild: Hatespeech von <a href="https://pixabay.com/de/laptop-computer-computer-pc-1155173/" target="_blank" rel="noopener noreferrer">sarinhars</a> und <a href="https://pixabay.com/pl/w%C5%9Bciek%C5%82o%C5%9B%C4%87-walki-faust-sp%C3%B3r-strony-1564031/" target="_blank" rel="noopener noreferrer">ToNic-Pics</a> via <a href="https://pixabay.com/de/" target="_blank" rel="noopener noreferrer">pixabay</a>, licenced <a href="https://creativecommons.org/publicdomain/zero/1.0/deed.de" target="_blank" rel="noopener noreferrer">CC0 Public Domain</a></p>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" target="_blank" rel="noopener noreferrer"><img decoding="async" class="alignleft wp-image-139428" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" alt="CC-Lizenz-630x1101" width="441" height="77" /></a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/hassplattform-internet-tun-google-und-co-genug-dagegen-150195/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
