<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Pegida &#8211; politik-digital</title>
	<atom:link href="https://www.politik-digital.de/tag/pegida/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.politik-digital.de</link>
	<description>Information, Kommunikation, Partizipation</description>
	<lastBuildDate>Thu, 04 Jun 2020 13:39:35 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.politik-digital.de/wp-content/uploads/2020/07/cropped-Politik-Digital_Logo_Sign_Gradient-512-32x32.png</url>
	<title>Pegida &#8211; politik-digital</title>
	<link>https://www.politik-digital.de</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Hilft das Internet gegen Bürgerfrust?</title>
		<link>https://www.politik-digital.de/news/hilft-das-internet-gegen-buergerfrust-148929/</link>
					<comments>https://www.politik-digital.de/news/hilft-das-internet-gegen-buergerfrust-148929/#comments</comments>
		
		<dc:creator><![CDATA[admin]]></dc:creator>
		<pubDate>Tue, 26 Apr 2016 12:19:30 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Netzstandpunkte]]></category>
		<category><![CDATA[Bürgerbeteiligung]]></category>
		<category><![CDATA[Wutbürger]]></category>
		<category><![CDATA[Soziale Medien]]></category>
		<category><![CDATA[Pegida]]></category>
		<category><![CDATA[digitale Partizipation]]></category>
		<category><![CDATA[Onlinebeteiligung]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=148929</guid>

					<description><![CDATA[Vor kurzem hielt ich unter diesem Titel einen Vortrag vor engagierten Bürgern in Lübeck. Dies geschah nicht, wie man vielleicht [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="http://politik-digital.de/wp-content/uploads/sprechblasen-rechteck-kommunikation-by-geralt-via-Pixabay-licensed-CC0-e1460630590478.jpg"><img fetchpriority="high" decoding="async" class="alignnone size-large wp-image-148959" src="http://politik-digital.de/wp-content/uploads/sprechblasen-rechteck-kommunikation-by-geralt-via-Pixabay-licensed-CC0-e1460630590478-630x277.jpg" alt="sprechblasen-rechteck-kommunikation by geralt via Pixabay licensed CC0" width="630" height="277" /></a>Vor kurzem hielt ich unter diesem Titel einen Vortrag vor engagierten Bürgern in Lübeck. Dies geschah nicht, wie man vielleicht zur Zeit vermuten könnte, vor dem Hintergrund der Diskussion um PEGIDA oder Facebookhetzer, sondern es wurde diskutiert, ob und wie Online-Bürgerbeteiligung und -Bürgerservices helfen können, den allgemeinen Bürgerfrust zu mindern. Das Interessante ist, man kann das eine nicht mehr ohne das andere diskutieren, auch wenn es auf den ersten Blick wenig miteinander zu tun hat.</p>
<br/><div class="subcolumns">
             <div class="c75l">
               <div class="subcl">
                 <div class="entry-content-position">
                   <br />
Die These dazu ist, dass wir derzeit eine Form von Online-Bürgerbeteiligung erleben, wie es sich die Organisatoren und Unterstützer niemals vorgestellt oder gewünscht hätten. Zur Zeit müsste man deswegen die Titelfrage mit einem Nein beantworten. Das Internet hilft nicht gegen Bürgerfrust, sondern es befördert ihn sogar. Hass und Frust, der sonst unterhalb unserer Wahrnehmungsschwelle lag, wird auf einmal sichtbar und wir erschrecken aufgrund der Intensität dieser „Meinungen“ und der Masse an Wutbürgern, die auf einmal in nächster Nähe zu uns in den sozialen Netzwerken auftauchen.</p>
<p>Ganz so pessimistisch und negativ möchte ich es aber nicht stehen lassen. Denn es gibt eine Reihe von positiven Gegenbeispielen. Soziale Medien helfen auch, Vorurteile und Falschmeldungen zu widerlegen, dem Engagement eine Plattform zu geben, Hilfe zu koordinieren und Menschen miteinander zu vernetzen. Aber was wird hängenbleiben, an was werden wir uns in fünf Jahren erinnern?</p>
<p>Wir dürfen deswegen aufgrund der jetzigen schwierigen Situation nicht aufgeben, konstruktive Bürgerbeteiligung zu forcieren. Politik und Verwaltung müssen transparenter werden und mehr Angebote machen. Das Internet kann dazu eine Menge beitragen und tut dies bereits. Es gibt gerade auf kommunaler Ebene eine Menge guter Projekte, die zeigen, das eine konstruktive Beteiligung sowohl der Politik als auch den Bürgerinnen und Bürgern hilft. Deswegen kann es kein Argument sein, dass dort zu wenige mitmachen, sondern die derzeitige Situation muss ein Ansporn sein, dass alle Formen von Beteiligung besser werden müssen, aber auch, dass sie Zeit und Ressourcen benötigen.</p>
<p>Ob wir damit den „Bürgerfrust“ abbauen sei dahingestellt. Der hat meistens sowieso andere Gründe. Und da kann dann wiederum auch das Internet nicht helfen.</p>
<p>Titelbild: <a href="https://pixabay.com/de/users/geralt-9301/">Geralt</a> via  <a href="https://pixabay.com/">Pixabay </a>unter <a href="http://creativecommons.org/publicdomain/zero/1.0/">CCO</a></p>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png"><img decoding="async" class="alignnone  wp-image-139428" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" alt="CC-Lizenz-630x1101" width="378" height="66" /></a><br />

                 </div>
               </div>
             </div>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/hilft-das-internet-gegen-buergerfrust-148929/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>Hate-Speech: Wer muss handeln?</title>
		<link>https://www.politik-digital.de/news/hate-speech-wer-muss-handeln-147587/</link>
					<comments>https://www.politik-digital.de/news/hate-speech-wer-muss-handeln-147587/#respond</comments>
		
		<dc:creator><![CDATA[Katja Hellmys]]></dc:creator>
		<pubDate>Fri, 27 Nov 2015 17:12:13 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Ist das Web 2.0 tot?]]></category>
		<category><![CDATA[FES]]></category>
		<category><![CDATA[Zick]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[hate speech]]></category>
		<category><![CDATA[Pegida]]></category>
		<category><![CDATA[DigiKon]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=147587</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-0"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column text-lead" ><p>Muss der Journalismus auf Hate-Speech reagieren? Diese Frage stellte sich im Forum „Hate-Speech im Netz – ein neues Massenphänomen?“ im Rahmen der DigiKon 2015 der Friedrich-Ebert-Stiftung.</p>
</div><div class="uncode_text_column" ></p>
<h3>Die Funktion von Hate Speech</h3>
<p>Hate Speech stellt eine besondere Form der Ablehnung gegenüber Anderen dar. Sie findet signifikant im Netz statt, muss aber nicht darauf beschränkt sein. Kennzeichnend für das Internet ist jedoch die schnelle Verbreitung wie auch die Anonymität der Adressaten. Die Grenzen zwischen online und offline verschwimmen dabei zunehmend. Was im Netz stattfindet hat unmittelbare Auswirkungen auf die Realität und umgekehrt.</p>
<p>Prof. Dr. Andreas Zick, Leiter des <a href="https://ekvv.uni-bielefeld.de/pers_publ/publ/PersonDetail.jsp?personId=112507" target="_blank" rel="noopener noreferrer">Instituts für interdisziplinäre Konflikt- und Gewaltforschung</a>, erläuterte in seinem Vortrag bei der DigiKon, dass sich  Hasskommentare in ihrer Funktion unterscheiden: Handelt es sich um eine impulsartige, aber einmalige Botschaft oder um eine strategische Massenbewegung? Der Unterschied wird an dem Beispiel Pegida deutlich. Das Bündnis nutzt u.a. <a href="https://www.facebook.com/PEGIDADEUTSCHLAND2014/" target="_blank" rel="noopener noreferrer">Facebook</a> als Forum für Hasskommentare. Kommentare werden dabei nicht nur am Montag – dem Tag der eigentlichen Demo – gepostet, sondern durchgängig. Am 10.September 2015 veröffentlichte Pegida auf seiner Facebook-Seite eine Liste von <a href="https://www.facebook.com/PEGIDADEUTSCHLAND2014/posts/935976779789194" target="_blank" rel="noopener noreferrer">„Zehn Forderungen an die deutsche Asylpolitik“.</a> Bereits sprachlich ist der Kommentar von strategischen Herablassung einer bestimmten Gruppe gegenüber geprägt: Asylanten, Asyl-Notstandsgesetz, sofortiger Aufnahmestopp usw.</p>
<p>Hier zeigt sich, was Zick als vorgelagerte menschenfeindliche Mentalitäten bezeichnet: Hasskommentare bilden Emotionen und Stereotype ab, die in der radikalisierten Version als Hate Speech auftreten. Hate Speech erzeugt ein verzerrtes und hasserfülltes Bild der Wirklichkeit, dass von Einigen bewusst eingesetzt wird um populistische Meinungsbilder zu produzieren und zu verbreiten.</p>
<h3>Muss sich der Journalismus der Hate Speech annehmen?</h3>
<p>Die Berührungspunkte von Hate Speech und Journalismus zeigen sich am deutlichsten in der Kommentarzeile eines Artikels. Die Hasskommentare richten sich nicht nur gegen den Artikel, sondern auch gegen den Journalisten. Eine Abgrenzung zwischen individueller Hassbotschaft gegen einen Menschen oder Artikel ist nicht mehr oder nur schwer zu treffen. Die Kommentare entbehren <a href="http://europeanjournalists.org/blog/2015/08/13/media-should-speak-out-against-hate-speech/" target="_blank" rel="noopener noreferrer">jeglicher Objektivität oder Distanz</a> und beinhalten Beleidigungen, Drohungen usw. gegen den Journalisten.</p>
<p>Dabei fragt Zick, ob der Journalismus nicht bereits hier ansetzen müsse und die Kommentare selbst kommentieren sollte, statt sie nur zu verfolgen? Die Forderung stellt sich vor dem Hintergrund, ob es nicht gerade die Aufgabe des Journalisten sei, ein möglichst breites Meinungsbild der Gesellschaft wiederzugeben. Dazu sei es notwendig, die Kommentare selbst zu beachten und gegebenenfalls zu beantworten.</p>
<p>Die Forderung scheint aus diesem Verständnis heraus verständlich, ist aber faktisch mit Problemen behaftet. Hierzu sind die verschiedenen Facetten des Hate Speech zu berücksichtigen. Wesentlich ist dabei, ob Hate Speech von einer Person ausgeht, oder ob ein kollektives wie strategisches Vorgehen dahintersteckt, wie z. B. bei Pegida. Tatsächlich muss es sich aber nicht notwendigerweise um eine derart große Gruppe handeln. Flankiert wird dieses Vorgehen dabei aber in jedem Fall von ideologischen Einstellungen, die keiner eigenen Reflexion unterzogen werden. Auch darf die „kollektive Mission“, als die für viele Nutzer der Hasskommentar empfunden wird, nicht unterschätzt werden. Mit der kommunikativen Abwertung anderer Gruppen sollen <a href="http://geb.uni-giessen.de/geb/volltexte/2013/9251/pdf/HassredeMeibauer_2013.pdf" target="_blank" rel="noopener noreferrer">politische und soziale Prozesse gesteuert</a> werden.</p>
<p>Greift der Journalismus an dieser Stelle ein, wird er zu einem Teil dieses strategischen Vorgehens. Die Aufgabe des Journalismus ist es nicht Meinungen vorzugeben, sondern zur Meinungsbildung beizutragen. Insofern ist es an dieser Stelle die Aufgabe jedes Einzelnen, sich seine eigene – differenzierte – Meinung zu bilden. Soviel zur Theorie, in der Realität sollen Hasskommentare jedoch vor allem den Absendern Spaß machen und zugleich mobilisieren – Gewalt wird zum Erlebnis wie das Beispiel HOGESA zeigt. Ob das Mitkommentieren durch den Journalisten sinnvoll und zielführend ist, scheint in diesem Zusammenhang fraglich.</p>
<p>Letztlich muss jeder für sich alleine entscheiden, ob er sich von Hass instrumentalisieren lässt– und das gilt nicht nur für Journalisten.</p>
<p>Bild: <a href="https://www.flickr.com/photos/98706376@N00/6329770277/in/photolist-aDkJbi-gXArBC-nUAyJF-8SxTyh-nzdi73-opgPNg-46uZse-4TQZoA-op4wX5-brd3wj-nuiaTX-bE824i-8LP3B2-9tVAbA-rDX17d-qQi8GA-721w4-rnuuX7-rDXkjk-rDX1f9-j8XCPQ-57togn-dWiNtA-rntpFL-fw2wK1-49qUG-rnuvj9-56oiSP-7jG1M7-rDX1kQ-qHgpxM-rnuv1o-6tsrsE-dDip1m-4VXgjJ-jokak4-brcnWA-8gm6iz-aR3AfV-brcR9G-gWVZ1i-bE7VVB-osyf2N-bE7iuk-bE7jFx-q9xHav-jojF9p-bE824D-bE824v-brd3ws" target="_blank" rel="noopener noreferrer">No violence no hate speech</a> von <a href="https://www.flickr.com/photos/98706376@N00/" target="_blank" rel="noopener noreferrer">John S. Quarterman</a> unter <a href="https://creativecommons.org/licenses/by/2.0/" target="_blank" rel="noopener noreferrer">CC BY 2.0</a> via Flickr/ Orginal zugeschnitten</p>
<p><img decoding="async" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x1101-305x53.png" alt="CC-BY-SA" width="305" height="53" /></p>
</div></div></div></div></div></div><script id="script-row-unique-0" data-row="script-row-unique-0" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-0"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/hate-speech-wer-muss-handeln-147587/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Facebooks Politik des (Nicht-)Löschens</title>
		<link>https://www.politik-digital.de/news/facebooks-politik-des-nicht-loeschens-145629/</link>
					<comments>https://www.politik-digital.de/news/facebooks-politik-des-nicht-loeschens-145629/#comments</comments>
		
		<dc:creator><![CDATA[Julie Rothe]]></dc:creator>
		<pubDate>Tue, 12 May 2015 09:16:22 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Ist das Web 2.0 tot?]]></category>
		<category><![CDATA[Pegida]]></category>
		<category><![CDATA[Gemeinschaftsstandards]]></category>
		<category><![CDATA[Government Request Report]]></category>
		<category><![CDATA[Löschanträge]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[Volksverhetzung]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=145629</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-1"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column text-lead" ><p>Facebook gehört heute für viele genauso zum Alltag wie Zähneputzen und Abendessen. In Deutschland hat das Netzwerk über 28 Millionen aktive Nutzer, täglich entsteht eine unfassbare Menge an unterschiedlichsten Inhalten und Meinungen. Immer öfter wird jetzt diskutiert, ob Facebook extremistische oder beleidigende Beiträge überhaupt angemessen prüft und in ausreichendem Maße darauf reagiert. Wir haben uns die Löschpraxis des Unternehmens genauer angesehen.</p>
<p>
</div><div class="uncode_text_column" ><p>Fast eineinhalb Milliarden Menschen weltweit haben zurzeit ein Facebookprofil und nutzen es aktiv, das heißt mindestens <a href="http://www.statista.com/statistics/264810/number-of-monthly-active-facebook-users-worldwide/" target="_blank" rel="noopener noreferrer">einmal im Monat</a>. Dass bei der schieren Zahl von Nutzern unterschiedlichste Meinungen, Ideen und Weltbilder aufeinanderprallen, bleibt nicht aus. Daran ändert auch die <a href="http://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?language=de" target="_blank" rel="noopener noreferrer">Filterblase</a> nichts (<a href="http://www.netzpiloten.de/facebook-filter-bubble-studie/" target="_blank" rel="noopener noreferrer">wenn es sie denn gibt</a>), denn jeder kann seine Standpunkte durch eigene Beiträge, auf Seiten, in Gruppen und in den Kommentaren frei und sichtbar für alle äußern. Dass diese moderne Form der Speakers‘ Corner ihre Schattenseiten hat, wird immer dann deutlich, wenn extremistische, sexistische oder gewaltverherrlichende Seiten gestartet werden oder man einen Blick in die Kommentare unter Beiträgen von Medien, Politikern, Parteien oder Vereinen wirft. Die häufigste Reaktion der Nutzer auf solche Kommentare ist eine Mischung aus Neugier, Abscheu, Entsetzen und Belustigung. Wer solche Entgleisungen jedoch nicht hinnehmen will, kann die Inhalte und deren Urheber an Facebook melden – in der Hoffnung, dass diese gelöscht und der Nutzer im schlimmsten Fall gesperrt wird.</p>
<p>Insbesondere in der Hochphase der Pegida-Demonstrationen haben sich rechte oder menschenfeindliche Äußerungen zuhauf unter den Beiträgen nicht nur der zahlreichen Bündnisse gegen Pegida, sondern vor allem bei kritischen Nachrichtenseiten gefunden. Wenn gewünscht, können Nutzer auf Facebook in relativer Anonymität agieren. Denn das Netzwerk verlangt zwar seit einiger Zeit Klarnamen, überprüft aber selbstverständlich nicht, ob „Martin Meier“ wirklich der ist, für den er sich ausgibt. So suggerieren Pseudonyme und Abkürzungen ein sicheres Gefühl der Unerkanntheit. Man handelt also in einem in der Regel sehr homogenen Umfeld, im Schutz der Masse und – wenn gewollt – ziemlich inkognito. Doch wurden inzwischen gegen einige Pegida-Ableger und deren <a href="http://www.hna.de/kassel/strafbefehl-kagida-chef-michael-viehmann-4931593.html" target="_blank" rel="noopener noreferrer">Organisatoren</a> Strafbefehle aufgrund volksverhetzender Beiträge auf Facebook erlassen.</p>
<p>Neben ausgewiesenen Reizthemen wie die Unterbringung von Flüchtlingen, Integrations-, Innen- und Frauenpolitik scheint aber nahezu jedes Thema das Potential zu haben, zumindest beleidigende Kommentare zu produzieren. Wenn sich dann eine Gruppe Gleichgesinnter zusammenfindet, übernehmen solche Meinungen schnell die Wortführerschaft und schrecken andere Nutzer ab.</p>
<h3>Was macht Facebook dagegen?</h3>
<p>Bislang hat sich Facebook stets schwer damit getan, einzelne Postings aufgrund ihres Inhalts zu löschen. Vor allem die von Staat zu Staat unterschiedliche Bewertung dessen, was durch die Meinungsfreiheit abgedeckt ist und was über diese Grenze hinausgeht, macht den Community-Administratoren die Arbeit schwer. Facebook Deutschland ließ durch seine Kommunikationsagentur ausrichten, dass die Community-Standards ausnahmslos globale Gültigkeit haben, regionale Besonderheiten oder Empfindlichkeiten aber teilweise berücksichtigt werden. Während in den USA viele Beiträge mit dem Recht auf freie Meinungsäußerung legitimiert werden und vor allem Posts mit sexuellem oder gewaltverherrlichendem Inhalt gelöscht werden, werden in Deutschland rechte und rassistische Parolen besonders sensibel behandelt.</p>
<p>Angesichts der Masse an Beiträgen und Kommentaren ist eine Filterung durch Facebook schlicht nicht möglich, und es wird auch keine technische Lösung zur automatischen Blockierung bestimmter Wörter eingesetzt. Dafür können Nutzer fremde Beiträge melden und kategorisieren, die ihrer Meinung nach die Verhaltensrichtlinien verletzen. Diese Meldungen werden nach Auskunft von Facebooks Kommunikationsagentur von einem Team aus Muttersprachlern schnellstmöglich bearbeitet und auf die Verletzung der Gemeinschaftsstandards geprüft.</p>
<p>Erkennen die Mitarbeiter eine Regelverletzung, wird der gemeldete Beitrag gelöscht und der Autor verwarnt. Beiträge mit strafrechtlich relevantem Inhalt werden zwar gelöscht, Facebook stellt allerdings keine Strafanzeige gegen den betroffenen Nutzer. Die häufigste Kritik gibt es hinsichtlich der Einschätzung, ob eine Regelverletzung vorliegt. Denn oft werden Drohungen, Beleidigungen oder rassistische Kommentare nicht von Facebook gelöscht, mit der Begründung, ein Verstoß gegen die Gemeinschaftsregeln sei nicht erkannt worden. Die Standardabsage von Facebook lautet: „Wir haben die von dir [Grund der Meldung] gemeldete Seite geprüft und festgestellt, dass sie nicht gegen unsere Gemeinschaftsstandards verstößt.“ Eine äußerst unbefriedigende Antwort, die sich für den Nutzer wie ein Schlag ins Gesicht anfühlt, wenn Drohungen gegen Leib und Leben, offener Rassismus und härteste sexistische Beleidigungen nicht geahndet werden. Auf unsere Nachfrage ließ Facebooks durch seine Kommunikationsberatung bestätigen, dass die Prüfer zwar die Anzahl der gemeldeten Beiträge sehen, diese aber keine Rolle bei der Bewertung spiele. Dadurch sollen gezielte „Meldeangriffe“ von organisierten Gruppen neutralisiert werden.</p>
<p>Die Netzgemeinde setzt inzwischen auf Selbsthilfe. Auf Facebook wurden mittlerweile viele Seiten wie <a href="https://www.facebook.com/netzgegennaz?fref=ts" target="_blank" rel="noopener noreferrer">Netz gegen Nazis</a>, <a href="https://www.facebook.com/FUSSBALL.FANS.GEGEN.RECHTS?fref=ts" target="_blank" rel="noopener noreferrer">Fussballfans gegen Rechts</a>, <a href="https://www.facebook.com/stoerungsmelder?fref=ts" target="_blank" rel="noopener noreferrer">Störungsmelder</a> oder der <a href="https://www.facebook.com/weltpraktikant" target="_blank" rel="noopener noreferrer">„DIE WELT“-Praktikant</a> gegründet, die gezielt hetzerische Kommentare sammeln und veröffentlichen, so werden die Urheber aus dem Schatten des Netzwerks in die Öffentlichkeit gebracht.</p>
<h3>Transparenter Umgang mit Löschanträgen von Regierungen</h3>
<p>Die andere Seite dieser Diskussion wird von Facebook selbst deutlich offensiver angegangen. Seit 2013 veröffentlicht das Unternehmen halbjährlich den <a href="https://govtrequests.facebook.com/" target="_blank" rel="noopener noreferrer">Government Request Report</a>, in dem die Anfragen von Regierungen an Facebook offengelegt werden. In den Berichten wird nicht nur die Zahl der Anträge auf Herausgabe von Informationen genannt, es werden auch die hauptsächlich beanstandeten Inhalte aufgeführt. Anfragen nach spezifischen Nutzern werden vor allem im Zusammenhang mit der Verfolgung und Bekämpfung von Verbrechen gestellt und nach eigenen Angaben von Facebook sehr genau juristisch geprüft.</p>
<p>Ein Blick auf den aktuellen Bericht für das zweite Halbjahr 2014 zeigt, dass in <a href="https://govtrequests.facebook.com/country/Germany/2014-H2/" target="_blank" rel="noopener noreferrer">Deutschland</a> 2.132 Anfragen gestellt wurden und in 34,3 Prozent der Fälle Daten von Nutzern (zum Beispiel Name, Datum der Erstanmeldung und zum Teil IP-Adressen oder Inhalte von Beiträgen des Accounts) herausgegeben wurden. Im gleichen Zeitraum wurden in den <a href="https://govtrequests.facebook.com/country/United%20States/2014-H2/" target="_blank" rel="noopener noreferrer">USA</a> 14.274 Nutzerinformationen beantragt und in 79,1 Prozent Auskünfte gewährt. Hinzu kommen in den USA mehrere Hundert Datenanfragen im Zusammenhang mit der nationalen Sicherheit und der Auslandsüberwachung, die allerdings nur in Tausenderschritten angezeigt werden dürfen. In <a href="https://govtrequests.facebook.com/country/United%20Kingdom/2014-H2/" target="_blank" rel="noopener noreferrer">Großbritannien</a> liegt die Auskunftsquote bei 75,1 Prozent bei insgesamt 2.366 Anfragen. Offenbar werden in Deutschland im Vergleich also besonders viele unberechtigte Anfragen von Seiten der Strafverfolgungsbehörden oder der Regierung gestellt, die von Facebook nach Prüfung der gesetzlichen Grundlagen in Deutschland als unbegründet eingeschätzt werden.</p>
<p>Interessant ist auch, welche Inhalte in den verschiedenen Ländern als Verstoß gegen die nationalen Gesetze ausgemacht werden und für welche eine Zugangsbeschränkung oder Löschung beantragt wird. In Deutschland sind es im Einklang mit dem Jugendschutzgesetz vor allem Beiträge mit rechtsextremistischem Inhalt und Holocaustleugnungen. Solche Inhalte werden auch in <a href="https://govtrequests.facebook.com/country/Israel/2014-H2/" target="_blank" rel="noopener noreferrer">Israel</a> regelmäßig von staatlicher Seite angezeigt und im Zugang beschränkt, während <a href="https://govtrequests.facebook.com/country/Norway/2014-H2/" target="_blank" rel="noopener noreferrer">Norwegen</a> und Großbritannien Löschung für Inhalte beantragten, die das Glücksspiel illegal fördern. Dass nationale Besonderheiten Einfluss auf das Ausmaß der freien Meinungsäußerung haben, wird an den Beispielen Saudi-Arabien und der Türkei deutlich. <a href="https://govtrequests.facebook.com/country/Saudi%20Arabia/2014-H1/" target="_blank" rel="noopener noreferrer">Saudi-Arabien</a> erwirkte beispielsweise die Löschung von Beiträgen, die die königliche Familie kritisieren. <a href="https://govtrequests.facebook.com/country/Turkey/2014-H2/" target="_blank" rel="noopener noreferrer">Türkische Gerichte</a> haben bereits mehrfach Inhalte gemeldet und entfernen lassen, die den Staatsgründer Mustafa Kemal Atatürk diffamieren.</p>
<p>In vielen Fällen wäre es für Facebook sicher angezeigt, eine genauere juristische Betrachtung vorzunehmen, um im Einklang mit nationalen Gesetzen hetzerische oder beleidigende Post löschen zu können. Einige <a href="http://www.mdr.de/exakt/volksverhetzung104.html" target="_blank" rel="noopener noreferrer">Urteile</a> zu volksverhetzenden <a href="http://www.zeit.de/gesellschaft/zeitgeschehen/2015-01/pegida-lutz-bachmann-foto-postings-ermittelungen-streit" target="_blank" rel="noopener noreferrer">Beiträgen</a>, <a href="http://www.br.de/nachrichten/niederbayern/inhalt/anklage-volksverhetzung-rechtsextreme-kommentare-facebook-100.html" target="_blank" rel="noopener noreferrer">Kommentaren</a> und <a href="http://www.pnp.de/1173324" target="_blank" rel="noopener noreferrer">„Gefällt mir“</a>-Angaben aus den vergangenen Jahren lassen darauf schließen, dass der Spielraum für Facebook hier deutlich größer ist, als bislang angenommen. Insbesondere sollte das Netzwerk die Ahndung solcher Verfehlungen aber nicht ausschließlich den Nutzern aufbürden und ihnen die Übergabe der Informationen an die Gerichte überlassen, sondern seine Verantwortung als soziales Netzwerk selbstbewusster auslegen.</p>
<p>Bild: <a href="https://www.flickr.com/photos/mkhmarketing/8546850049/" target="_blank" rel="noopener noreferrer">mkhmarketing </a><a href="https://creativecommons.org/licenses/by/2.0/" target="_blank" rel="noopener noreferrer">(CC BY 2.0)</a></p>
<div id="yui_3_16_0_1_1430750988796_724" class="view follow-view clear-float photo-attribution"></div>
<div class="attribution-info"></div>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" target="_blank" rel="noopener noreferrer"><img decoding="async" class="alignleft wp-image-139428" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" alt="CC-Lizenz-630x1101" width="441" height="77" /></a></p>
</div></div></div></div></div></div><script id="script-row-unique-1" data-row="script-row-unique-1" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-1"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/facebooks-politik-des-nicht-loeschens-145629/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>Pegida: Einsam in der Echokammer</title>
		<link>https://www.politik-digital.de/news/pegida-einsam-in-der-echokammer-144659/</link>
					<comments>https://www.politik-digital.de/news/pegida-einsam-in-der-echokammer-144659/#comments</comments>
		
		<dc:creator><![CDATA[Franziska Türk]]></dc:creator>
		<pubDate>Tue, 10 Feb 2015 11:46:28 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Ist das Web 2.0 tot?]]></category>
		<category><![CDATA[Soziale Netzwerke]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[filter bubble]]></category>
		<category><![CDATA[Cass Sunstein]]></category>
		<category><![CDATA[Echokammer]]></category>
		<category><![CDATA[Pegida]]></category>
		<category><![CDATA[Christoph Bieber]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=144659</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-2"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column text-lead" ></p>
<p class="western">„Wir sind das Volk“ hallt es tausendfach durch das Netz. Es sind die Stimmen gleichgesinnter, aber meist unter sich bleibender Menschen, die kontinuierlich verstärkt und wiederholt werden. Der „Echokammereffekt“ erschwert den Austausch gegensätzlicher Standpunkte und fördert die Radikalisierung – nicht nur im Fall der Pegida-Diskussion in den sozialen Netzwerken.</p>
<p> </p>
</div><div class="uncode_text_column" ><p>Man könnte meinen, dass Menschen sich durch Diskussion einander annähern. Dass sie die Meinung des Anderen reflektieren, seinen Standpunkt zu verstehen versuchen, ja hin und wieder sogar ihre Meinung ändern. Liest man sich durch die hitzigen Debatten zu Pegida, die trotz abnehmender Demonstrantenzahlen noch immer auf Facebook geführt werden, merkt man schnell, wie falsch man mit dieser Annahme liegt – denn eine Diskussion mit gegensätzlichen Argumenten existiert nicht. Prof. Dr. Christoph Bieber vom Institut für Politikwissenschaft der Universität Duisburg-Essen sieht den Grund dafür hauptsächlich in der Organisation des Protests fast ausschließlich über soziale Netzwerke, die eine wesentlich engere Bindung zwischen Informationsanbietern und -nutzern zur Folge hat: „In der Fülle der Unterstützer gehen anderslautende Meinungen unter und werden kaum oder gar nicht wahrgenommen. Auf die Abschottung folgt eine Polarisierung und auch Radikalisierung des politischen Diskurses“.</p>
<p><a href="http://pup.princeton.edu/sunstein/echo.pdf" target="_blank" rel="noopener noreferrer">„Echokammer“</a> oder „Informationskokon“ nennt der amerikanische Rechtswissenschaftler Cass Sunstein das Phänomen, sich nur mit Menschen zu umgeben, die die eigene Meinung teilen. Abgeschirmt von äußeren Einflüssen, anderen Meinungen und kontroversen Standpunkten gelangen nur Bruchstücke der Realität ins Innere des eigenen Kokons, unangenehme Begegnungen können weitestgehend vermieden werden. „Patriotische Europäer” treffen auf andere „patriotische Europäer”, pluralistische Weltbürger auf pluralistische Weltbürger. Fehleinschätzungen bei Gruppendiskussionen werden dadurch reproduziert, die Meinung der Teilnehmer ist nach einer Diskussion meist extremer als zuvor. Denn alleine mögen wir unsicher bezüglich unseres Standpunkts sein – sobald wir jedoch Bestätigung durch Andere erfahren und weitere Argumente für den eigenen Standpunkt geliefert bekommen, werden wir selbstsicher – und entwickeln unweigerlich eine radikalere Meinung.</p>
<h3>Fakten und fremde Meinungen? Fehlanzeige</h3>
<p>Schöner könnte man die Theorie der Echokammer nicht stützen als mit den Links, Posts und Kommentaren, die auf der Pegida-Facebookseite zu finden sind. Dort stößt man auf das Video des Imam Sheikj Abdel Moez al Eila, der predigt, dass sich eine Frau einem Mann nicht verweigern darf, oder auf einen Artikel über die vergewaltigten Mädchen in Rothenham, deren Peiniger größtenteils ausländischer Herkunft waren. Kein Wort dagegen über die Zahlen und Fakten, die belegen, dass viele Einwanderer hoch gebildet sind und die deutschen Sozialkassen <a href="http://www.sueddeutsche.de/politik/faktencheck-zur-einwanderung-zahlen-gegen-vorurteile-1.2240831" target="_blank" rel="noopener noreferrer">auffüllen</a>, statt sie zu plündern; dass Deutschland eine vergleichsweise geringe Zahl an Flüchtlingen aufnimmt und dass es sich bei den Zuwanderern – im Gegensatz zu vielen Pegida-Anhängern – größtenteils um <a href="http://www.sueddeutsche.de/politik/migrationsbericht-der-bundesregierung-einwanderung-ist-katholisch-1.2314099" target="_blank" rel="noopener noreferrer">Christen</a> handelt. Um sich mit diesen Tatsachen auseinanderzusetzen, müsste man die eigenen Ansichten hinterfragen – wie unangenehm. Einfacher ist es natürlich, sich gegenseitig aufzuhetzen und in seiner kaum begründeten Hilflosigkeit zu bestärken. Finden doch einmal Informationen ihren Weg ins Forum, die nicht so recht ins Pegida-Weltbild passen wollen, werden sie als unwahr abgetan. „Fake“ und „Lügenpresse“ steht dann in großen Lettern und unter exzessivem Gebrauch von Ausrufezeichen unter den Bildern.</p>
<p>Trotz Abschottung: Prof. Dr. Bieber beobachtet, dass die Echokammern in gewisser Weise auch gläsern sind, denn die verbreiteten Inhalte sind auch für die Pegida-Gegner offen sichtbar und werden von diesen weiterverbreitet. „So entsteht zwar keine Kommunikation zwischen den Lagern, aber das Thema erfährt eine enorm schnelle Verbreitung und führt vielleicht auch zu verstärkten Gegenreaktionen. Gänzlich unverbunden sind die Pediga-/NoPegida-Lager im Netz also nicht, aber sie kommunizieren so gut wie nicht direkt miteinander”, erklärt Bieber. In der gläsernen Echokammer wird nicht nur sichtbar, was die Pegida-Anhänger fordern, sondern auch wer sie sind und wie sie ticken. Actionfilme, Verschwörungstheorien, Mario Barth und rechtsextreme Gruppierungen – laut einer <a href="www.zeit.de/gesellschaft/zeitgeschehen/2015-02/wer-ist-pegida-facebook-daten" target="_blank" rel="noopener noreferrer">Zeit Online-Analyse</a> von Facebookdaten ist das die Pegida-Welt.</p>
<p>Bereits Anfang der 1990er Jahre prägte der amerikanischen Informationstheoretiker Nicolas Negroponte das Konzept des <a href="http://openaccess.city.ac.uk/58/2/neil-thurman-making_the_daily_me.pdf" target="_blank" rel="noopener noreferrer">„Daily Me”:</a> In einem speziell für uns angefertigten Infopaket erhalten wir Tag für Tag nur die Informationen online, die in unser persönliches Profil passen – und die unsere Vorurteile bestärken. So schaffen wir uns einen eigenen Zugang zur Welt, die wir uns so machen, wie sie uns gerade gefällt. Im Internet sind es nicht nur die sozialen Netzwerke, die uns bestätigend auf die Schulter klopfen. Auch Suchmaschinen präsentieren uns keine unverzerrten Informationen, sondern genau das, was wir gerne lesen möchten – anhand von früheren Anfragen personalisieren sie unser Suchergebnis.<br />
Deshalb ist Sunstein der Meinung, dass ungeplante Begegnungen für einen politischen Diskurs unabdingbar sind. Genau diese werden in einem Internet, das mit Algorithmen unser Verhalten analysiert, aber immer seltener. Andererseits verbietet uns niemand, differierende Websites zu besuchen. Nur: Tun wir das auch? Und wissen wir überhaupt um deren Existenz?</p>
<p>Es gibt auch <a href="http://arxiv.org/pdf/1201.4145.pdf" target="_blank" rel="noopener noreferrer">Studien</a>, die Zweifel an Sunsteins Theorie der Echokammer aufkommen lassen. Der Facebook-Experte Eytan Bakshy konnte jüngst zeigen, dass auf Facebook insbesondere die Informationen von entfernten Bekannten einen großen Einfluss haben. Zwar fand er konsistent mit der Theorie der Echokammer: Je enger man mit einer Person auf Facebook befreundet ist, desto eher teilt man deren Links. Aber: Wir teilen auch die Informationen, die von unseren „schwachen Beziehungen” kommen – auf die wir außerhalb von Facebook nicht gestoßen wären und die uns zu Websites führen, die wir normalerweise nicht besuchen.</p>
<p>Da wir in unserem Facebook-Netzwerk deutlich mehr schwache als starke Beziehungen haben, sind flüchtige Bekannte im Aggregat demnach viel einflussreicher als gute Freunde. Folgt man Bakshys Argumentation, stoßen wir durch entfernte Bekannte also immer wieder auf Argumente, die uns bislang fremd waren – und die uns vielleicht ins Grübeln bringen. Ob die Pegida-Diskussion dieser Logik folgt, ist jedoch fraglich. Mit Tools lassen sich Pegida-Anhänger aus der Freundesliste entfernen, und auch diese lassen deutlich durchblicken, dass sie an einem Austausch nicht interessiert sind. Gegensätzliche Meinungen haben es somit schwer, Einzug in die Facebook-Timeline zu halten. Und sind nicht selbst unsere entfernten Facebook-Freunde meist ähnlicher Ansicht wie wir selbst? Möglich, dass sie uns Websites präsentieren, auf denen wir normalerweise nicht unterwegs sind – unsere Meinung spiegeln diese vermutlich aber trotzdem mehr oder weniger wieder.</p>
<h3>Ich mach mir die Welt, wie sie mir gefällt</h3>
<p>Und selbst wenn wir doch unterschiedlichen Informationen und Meinungen ausgesetzt sind, bedeutet das noch lange nicht, dass wir sie auch glauben –- Menschen sind äußerst geschickt darin, Tatsachen nach ihrem Gusto zu verdrehen. Auf die Interpretation kommt es an! Sunstein spricht hier von <a href="http://www.nytimes.com/2012/09/18/opinion/balanced-news-reports-may-only-inflame.html?_r=0" target="_blank" rel="noopener noreferrer">verzerrter Informationsaufnahme</a>. Denn unserer Meinung widersprechende Argumente und Standpunkte führen keinesfalls dazu, dass wir unsere Ansichten überdenken, nein, das Gegenteil ist der Fall. Studien konnten zeigen, dass sich die Meinungen von Probanden zu einem bestimmten Thema sogar verstärken anstatt sich abzuschwächen, wenn man ihnen ausgewogene Pro- und Contra-Argumente präsentiert. Der Grund: Widersprüchliche Informationen werden verworfen, die Quelle zum Beispiel als unseriös abgetan. Unterstützende Informationen dagegen werden als Argumente für den eigenen Standpunkt gewertet. Für die Pegida-Diskussion in den sozialen Netzwerken hätte das verheerende Folgen. Selbst wenn Pegida-Anhänger und -Gegner Argumente und Informationen austauschen, würden sich die jeweiligen Meinungen am Ende nur noch verstärken. Ist also alle Hoffnung auf Diskurs vergebens, weil wir um jeden Preis an unserer Meinung festhalten?</p>
<p>Nein. Wir fangen an, an uns und unserer Meinung zu zweifeln, wenn Gegenargumente von einer Quelle kommen, die nicht einfach als unseriös, verzerrt und falsch abgetan werden kann. Tricky ist allerdings wiederum, dass eine Quelle dann als authentisch wahrgenommen wird, wenn sie uns ähnlich ist – hier können selbst banale Dinge wie der Geschmack oder das Aussehen eine Rolle spielen. Dass Pegida-Anhänger allgemein als seriös geltende Quellen wie der Süddeutschen Zeitung oder dem Spiegel keinen Glauben schenken, skandieren sie auf höchst uncharmante Weise. Sunsteins Theorie folgend wäre ein Meinungsumschwung also nur dann möglich, wenn jemand aus den eigenen Reihen anfängt zu zweifelen. Auch deshalb wird es spannend sein zu sehen, wie sich die Bewegung nach der Distanzierung der zurückgetretenen Pegida-Sprecherin Kathrin Oertels vom ehemaligen Vorsitzenden Lutz Bachmann in den kommenden Wochen weiterentwickelt – wie es momentan aussieht, könnte das schon das Ende der Bewegung gewesen sein. Denn um es mit Sunsteins Worten zu sagen: „Was am meisten zählt ist nicht, was gesagt wird, sondern wer es sagt”.</p>
<p>Bild: <a href="http://www.flickr.com/photos/110931166@N08/16005798746/in/photolist-qqETjB-ptV5Vc-q9f2LK-q9duvx-qonUkm-q97hFJ-ptUefa-qqu3ig-qqAwFN-q9f1Jp-q9f1Ba-qqE1cM-q9f15t-qqDZQe-qqu1Sv-q9dsgT-q97ftC-q96ozY-qqtZP8-qonRpw-ptUbpv-q9eYix-q95Mzh-q95MpN-ptE9EN-qqDnJB-qqzTLL-ptE96w-ptTyTv-q95Loj-qMprpz-qK7ieJ-qMjJdS-qMkdhY-pZ26DB-qgpbHN-qgsu4M-pZ25YZ-pZ3xcB-qebezG-pZ25sP-pjtkmd-pZ3vDr-pjGzXa-qebcGU-pZ3uyk-pjGyWn-qgp7Uf-qgsqqV-pYTJtd" target="_blank" rel="noopener noreferrer">Caruso Pinguin</a></p>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" target="_blank" rel="noopener noreferrer"><img decoding="async" class="alignleft wp-image-139428" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" alt="CC-Lizenz-630x1101" width="441" height="77" /></a></p>
</div></div></div></div></div></div><script id="script-row-unique-2" data-row="script-row-unique-2" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-2"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/pegida-einsam-in-der-echokammer-144659/feed/</wfw:commentRss>
			<slash:comments>3</slash:comments>
		
		
			</item>
	</channel>
</rss>
