<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Algorithmus &#8211; politik-digital</title>
	<atom:link href="https://www.politik-digital.de/tag/algorithmus/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.politik-digital.de</link>
	<description>Information, Kommunikation, Partizipation</description>
	<lastBuildDate>Fri, 16 Sep 2022 11:58:43 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.politik-digital.de/wp-content/uploads/2020/07/cropped-Politik-Digital_Logo_Sign_Gradient-512-32x32.png</url>
	<title>Algorithmus &#8211; politik-digital</title>
	<link>https://www.politik-digital.de</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Interview mit der Bundesbeauftragten für Antidiskriminierung, Ferda Ataman, zum Thema digitalisierte Diskriminierung</title>
		<link>https://www.politik-digital.de/news/interview-mit-der-unabhaengigen-bundesbeauftragten-fuer-antidiskriminierung-ferda-ataman-zum-thema-digitalisierte-diskriminierung-164396/</link>
					<comments>https://www.politik-digital.de/news/interview-mit-der-unabhaengigen-bundesbeauftragten-fuer-antidiskriminierung-ferda-ataman-zum-thema-digitalisierte-diskriminierung-164396/#respond</comments>
		
		<dc:creator><![CDATA[Hannah Clar]]></dc:creator>
		<pubDate>Fri, 16 Sep 2022 09:58:34 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Themenseite]]></category>
		<category><![CDATA[Die dunklen Seiten des WWW]]></category>
		<category><![CDATA[Interview]]></category>
		<category><![CDATA[Ampelkoalition]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Algorithmus]]></category>
		<category><![CDATA[Diskriminierung]]></category>
		<category><![CDATA[Anti-Diskriminierungsstelle]]></category>
		<category><![CDATA[Ferda Ataman]]></category>
		<guid isPermaLink="false">https://www.politik-digital.de/?p=164396</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-0"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column text-lead" ><p><strong>Im Rahmen des <a href="https://www.politik-digital.de/themenseite/digitalisierung-als-diskriminierungstreiber-wie-algorithmen-strukturelle-ausgrenzung-reproduzieren-164373/">kürzlich erschienen Artikels zu digitalisierter Diskriminierung</a>, wurde eine Interviewanfrage an Ferda Ataman, unabhängige Bundesbeauftrage für Antidiskriminierung, zum Thema digitalisierte Diskriminierung, gestellt. Hier finden Sie das schriftliche Interview, welches von unserer Praktikantin Hannah Clar geführt wurde, in voller Länge.</strong></p>
</div><div class="uncode_text_column" ><p><strong>Clar:</strong> Aus dem von der Anti-Diskriminierungsstelle des Bundes (ADS) in Auftrag gegebene Forschungsprojekt Diskriminierungsrisiken bei Verwendung von Algorithmen“ aus dem Jahre 2019 gingen verschiedene Erkenntnisse hervor, unter anderem Feststellungen, wie die Anti-Diskriminierungsstelle selbst vorzugehen hat, um gegen digitalisierte Diskriminierung vorzugehen.</p>
<p><strong>Wie steht es um diese Ansprüche?</strong></p>
<p>Man kam zu der Erkenntnis, dass Ersteller von Algorithmen beraten und sensibilisiert werden müssten, um eine von vornherein diskriminierende Programmierung zu vermeiden. Es wurde zudem gefordert, dass die ADS in Entscheidungsprozesse bei Beschaffung von Algorithmen durch staatliche Behörden/Institutionen einbezogen werden sollte. Durch direkte Analysen und das Testen von Algorithmen, sollen diskriminierende Strukturen schneller erkannt werden.</p>
<p>Hier werden verschiedene Fragen aufgeworfen. Zum einen, in welchen Aspekten die ADS Fortschritte gemacht hat und ob es neue oder geplante Projekte gibt. Zum anderen, wie die aktuellen Entscheidungsprozesse ablaufen und welche Rolle die ADS in diesen spielt.</p>
<p><strong>Welchen der von Ihnen angeführten Punkte halten Sie für besonders akut?</strong></p>
</div><div class="uncode_text_column" ><p><strong>Ataman</strong> (Antwort auf alle vorstehenden Fragen): &#8220;Es gibt viel zu tun, um Diskriminierungsrisiken durch Algorithmen gut zu begegnen und wir stehen zugegebenermaßen immer noch am Anfang. Mein eigenes Amt ist ja noch ganz neu. Im April 2022 wurde das Allgemeine Gleichbehandlungsgesetz geändert und die Position einer Unabhängigen Bundesbeauftragten für Antidiskriminierung geschaffen, die gleichzeitig die Antidiskriminierungsstelle des Bundes leitet. Ich habe dieses Amt im Juli übernommen. Und zu meinen Befugnissen als Beauftragte gehört auch, dass Bundesbehörden mich bei allen Vorhaben, die meine Zuständigkeit berühren, zukünftig beteiligen müssen. Das gilt auch bei der Frage der Beschaffung von algorithmischen Entscheidungssystemen durch staatliche Stellen. Wichtig ist, dass Testing-Möglichkeiten geschaffen werden, um Diskriminierungsrisiken zu identifizieren. Ich werde diese Punkte als Unabhängige Beauftragte einbringen, wenn die Bundesregierung hier einen Gesetzentwurf vorlegt.&#8221;</p>
</div><div class="uncode_text_column" ><p><strong>Clar:</strong> Die Ampel-Koalition positioniert sich in Ihrem Koalitionsvertrag noch deutlicher als ihre Vorgänger gegen Diskriminierung. Zudem verweist der Vertrag auf die Ausweitung des Allgemeinen Gleichbehandlungsgesetzes, eine Möglichkeit, die sowohl in Ihrem Forschungsprojekt als auch im <a href="https://algorithmwatch.org/de/digital-autonomy-policy-brief-5/">Policy Brief #5 von der Nicht-Regierungsorganisation AlgorithmWatch</a> gefordert wird.</p>
<p><strong>Hat der Regierungswechsel bezüglich der Arbeit (Abläufe, Herangehensweise etc.) gegen digitalisierte Diskriminierung nennenswerte Veränderungen herbeigeführt oder sind diese zu erwarten?</strong></p>
</div><div class="uncode_text_column" ><p><strong>Ataman:</strong> &#8220;Klar ist: Das Thema Diskriminierungsschutz gehört auf die Agenda, und zwar jetzt. Es gab schon kurz nach dem Regierungswechsel die erste substanzielle Änderung des AGG seit vielen Jahren, die mir als Beauftragte und damit auch der Antidiskriminierungsstelle die Beteiligungsrechte gegeben hat, die ich erwähnt habe. Aber wie Sie selbst ansprechen, hat die Regierung sich noch eine grundsätzlichere AGG-Reform vorgenommen, die laut Koalitionsvertrag „Schutzlücken schließen, den Rechtsschutz verbessern und den Anwendungsbereich des Gesetzes“ ausweiten soll. Ich will mit daran arbeiten, dass dieser Anspruch auch erfüllt wird und die AGG-Novelle Menschen, die Diskriminierung erleben, tatsächlich hilft. Denn das Gesetz, das wissen wir seit langem, ist zu schwach und macht es Menschen zu schwer, zu ihrem Recht zu kommen. Das gilt auch im Umgang mit algorithmischen Systemen und die Bundesregierung steht da wirklich in der Pflicht. Als Antidiskriminierungsstelle haben wir ein Rechtsgutachten vergeben, das für uns ganz genau prüfen soll, ob und wie das Allgemeine Gleichbehandlungsgesetz angepasst werden muss, um mit Diskriminierung durch algorithmische Systeme angemessen umgehen zu können. Das Gutachten werde ich in einigen Monaten vorlegen können.</p>
<p>Ein Verbandsklagerecht und auch ein Klagerecht der Antidiskriminierungsstelle in Fällen von grundsätzlicher Bedeutung gehören aus meiner Sicht jedenfalls zu den Verbesserungen, die unbedingt kommen sollten.&#8221;</p>
</div><div class="uncode_text_column" ><p><strong>Clar:</strong> In den Schlussfolgerungen, welche Sie aus dem Forschungsprojekt ziehen, führen Sie auch verschiedene gesetzliche Möglichkeiten gegen digitale Diskriminierung vorzugehen auf.</p>
<p><strong>Wurden diese Vorschläge bereits von der Ampel-Koalition aufgegriffen oder rechnen Sie damit, dass dies in Zukunft passiert? </strong><strong>Rechnen Sie zudem mit Gesetzesentwürfen/gesetzlichen Anpassungen während der aktuellen Legislaturperiode?</strong></p>
</div><div class="uncode_text_column" ><p><strong>Ataman:</strong> &#8220;Wir sind ja mittendrin in der gesetzgeberischen Debatte, aktuell aber vor allem auf EU-Ebene, wo es um die Europäische Verordnung zu Künstlicher Intelligenz geht. Viele Expert*innen kritisieren, dass der Vorschlag den Diskriminierungsschutz eher als Nebensache behandelt. Ich sehe das auch kritisch. Die Betroffenen und ihre Rechte kamen im ersten Entwurf der Kommission eigentlich gar nicht vor. Wir dringen hier darauf, dass die Bundesregierung in den Verhandlungen möglichst viel für den Schutz vor Diskriminierung herausholt. Parallel gibt es jetzt auch einen ersten Entwurf für eine Konvention des Europarats zu Künstlicher Intelligenz, die besonders den Schutz der Grundrechte in den Blick nimmt.</p>
<p>Mir ist vor allem wichtig, dass wir Dokumentationspflichten für die Anwender algorithmischer Systeme in allen Bereichen haben, in denen Diskriminierung verboten ist, damit vor Gericht überhaupt nachgewiesen werden kann, nach welchen Kriterien eine Entscheidung gefällt wurde. Dass es Transparenzpflichten gibt und die Betroffenen überhaupt darüber informiert werden, dass z.B. in einem Bewerbungsverfahren Algorithmen eingesetzt werden. Und dass wir genau hinschauen, ob bestimmte Änderungen am bestehenden Antidiskriminierungsrecht</p>
<p>nötig sind, damit es zukünftig noch durchgesetzt werden kann. Um nur ein Beispiel zu nennen: Die Antidiskriminierungsstelle hat bisher keinen Auskunftsanspruch gegenüber privaten Unternehmen. Da hilft uns dann die schönste Dokumentation von Entscheidungskriterien eines Algorithmus nichts, wenn wir sie nicht anfordern können.</p>
<p>Ob auch nationale Gesetzgebung nötig wird, werden wir sehen, wenn die europäischen Verhandlungen abgeschlossen sind. Ich bin aber ziemlich sicher, dass wir am Ende der Legislaturperiode eine Rechtslage haben werden, die deutlich klarer ist.&#8221;</p>
</div><div class="uncode_text_column" ><p><strong>Clar:</strong> Der Policy Brief #5 von AlgorithmWatch ähnelt insbesondere in Bezug auf die Schlussfolgerungen und Handlungsansätze stark der Ihren.</p>
<p><strong>Bestätigt das Ihre Arbeit? Wie ist das weitere Vorgehen? Welchen Einfluss hat dies auf Sie?</strong></p>
</div><div class="uncode_text_column" ><p><strong>Ataman:</strong> &#8220;Tatsächlich kommt AlgorithmWatch zu sehr ähnlichen Empfehlungen wie das Gutachten, das Carsten Orwat vom KIT Karlsruhe für die Antidiskriminierungsstelle des Bundes erarbeitet hat. Und das ist auch gar nicht überraschend, denn beide liegen auf einer Linie mit den allermeisten Analysen aus der Wissenschaft und auch von europäischen und internationalen Fachgremien, die inzwischen vorliegen. Natürlich fühlen wir uns darin bestätigt, dass wir mit unseren grundsätzlichen Empfehlungen auf dem richtigen Kurs sind. Wir werden uns mit Organisationen wie AlgorithmWatch in Zukunft laufend inhaltlich austauschen. Ich finde es wichtig, dass wir in beiden Richtungen einen Wissenstransfer organisieren zwischen denen, die sich seit Jahren mit Algorithmen und KI beschäftigen, und denen, die Expert*innen für Antidiskriminierung sind. Da machen wir auch gute Fortschritte.&#8221;</p>
</div><div class="uncode_text_column" ><p><strong>Clar:</strong> Es besteht die Möglichkeit, dass es zu keinen konkreten Maßnahmen gegen digitale Diskriminierung kommt, oder diese erst in einigen Jahren wirken.</p>
<p><strong>Wie können sich Nutzer*innen aktuell schützen? Gibt es eventuell konkrete Plattformen/Betreiber*innen etc., die zu meiden sind?</strong></p>
</div><div class="uncode_text_column" ><p><strong>Ataman:</strong> &#8220;Es ist sehr schwierig, Einzelpersonen zu empfehlen, wie sie sich schützen können. Solange es keine Transparenzpflichten gibt, wissen sie ja oft gar nicht, dass ein algorithmischer Entscheidungsmechanismus zum Einsatz kommt. Und eigentlich sollte unser Ansatz doch auch ein anderer sein: Damit wir einen guten Schutz vor Diskriminierung erreichen, müssen wir uns an diejenigen richten, die gestalten können: Das sind die Anbieter*innen von KI und die Unternehmen, die solche Anwendungen nutzen. Das ist die Politik, die die Rahmenbedingungen setzen muss. Und das sind all diejenigen, die in Beratungsstellen aktiv mit Menschen arbeiten, die Diskriminierung erleben.</p>
<p>An der Stelle haben wir zuletzt angesetzt. Wir haben das Projekt AutoCheck von AlgorithmWatch gefördert, das einen Ratgeber zu „Automatisierten Entscheidungssystemen und Diskriminierung“ erarbeitet und Schulungsprogramme für die Antidiskriminierungsberatung entwickelt hat. Dadurch wollen wir die Berater*innen ansprechen, die überall im Land täglich Menschen unterstützen, die Diskriminierung erfahren. Sie sollen in die Lage versetzt werden, einen</p>
<p>Zusammenhang eines Diskriminierungsfalls mit algorithmischen Systemen besser zu erkennen. Das hilft in erster Linie den Betroffenen, weil sie besser beraten werden können. Es hilft uns aber auch dabei, solche Fälle besser zu dokumentieren, damit wir politische Schlüsse aus ihnen ziehen und dann eventuell auch die Öffentlichkeit besser über einzelne, problematische Anwendungen aufklären können.&#8221;</p>
</div></div></div></div></div></div><script id="script-row-unique-0" data-row="script-row-unique-0" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-0"));</script></div></div></div><div data-parent="true" class="vc_row row-container" id="row-unique-1"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p>Picture by <a href="https://pixabay.com/de/users/tobiasgolla-901494/">Tobias Golla</a> on <a href="https://pixabay.com/de/photos/bundestag-regierung-reichstag-732071/">pixabay</a></p>
</div></div></div></div></div></div><script id="script-row-unique-1" data-row="script-row-unique-1" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-1"));</script></div></div></div><div data-parent="true" class="vc_row styleptrl--cc-module has-bg need-focus style-color-gyho-bg limit-width boxed-row row-container" id="row-unique-3"><div class="row unequal col-no-gutter single-top-padding single-bottom-padding single-h-padding row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-middle pos-center align_left column_parent col-lg-4 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding  unradius-std" ><div class="uncont" ><div class="uncode_text_column" ><p>Text: <a href="https://creativecommons.org/licenses/by-sa/3.0/de/" target="_blank" rel="noopener noreferrer">CC-BY-SA 3.0</a></p>
</div></div></div></div></div></div><div class="wpb_column pos-middle pos-center align_right column_parent col-lg-8 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p><img decoding="async" class="alignnone size-medium wp-image-159021" src="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png" alt="" width="300" height="52" srcset="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png 300w, https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1.png 305w" sizes="(max-width: 300px) 100vw, 300px" /></p>
</div></div></div></div></div></div><script id="script-row-unique-3" data-row="script-row-unique-3" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-3"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/interview-mit-der-unabhaengigen-bundesbeauftragten-fuer-antidiskriminierung-ferda-ataman-zum-thema-digitalisierte-diskriminierung-164396/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Digitalisierung als Diskriminierungstreiber? Wie Algorithmen strukturelle Ausgrenzung reproduzieren</title>
		<link>https://www.politik-digital.de/news/digitalisierung-als-diskriminierungstreiber-wie-algorithmen-strukturelle-ausgrenzung-reproduzieren-164373/</link>
					<comments>https://www.politik-digital.de/news/digitalisierung-als-diskriminierungstreiber-wie-algorithmen-strukturelle-ausgrenzung-reproduzieren-164373/#respond</comments>
		
		<dc:creator><![CDATA[Hannah Clar]]></dc:creator>
		<pubDate>Wed, 31 Aug 2022 10:31:43 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Themenseite]]></category>
		<category><![CDATA[Die dunklen Seiten des WWW]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Algorithmus]]></category>
		<category><![CDATA[Digitalisierungspolitik]]></category>
		<category><![CDATA[Diskriminierung]]></category>
		<category><![CDATA[AlgorithmWatch]]></category>
		<guid isPermaLink="false">https://www.politik-digital.de/?p=164373</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-4"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column text-lead" ><p>Stellen Sie sich vor, Sie sind eine Frau und sowohl Sie als auch Ihr Mann fühlen sich körperlich krank. Sie geben beide die gleichen Symptome bei einer Gesundheitsapp ein, um über das Krankheitsbild aufgeklärt zu werden. Ihrem Mann wird empfohlen sich von einem Arzt untersuchen zu lassen, Ihnen hingegen reicht laut der App etwas Bettruhe aus. Woran kann das liegen? Es ist keine Neuigkeit, dass auch in verschiedenen medizinischen Aspekten Sexismus reproduziert wird und Frauen die Ernsthaftigkeit ihres Leidens abgesprochen wird, dies belegen mehrere Studien (bspw. <a href="https://www.nejm.org/doi/full/10.1056/nejm199907223410401">¹</a> <a href="https://pubmed.ncbi.nlm.nih.gov/12913047/">²</a> <a href="https://www.who.int/news-room/questions-and-answers/item/gender-and-health">³</a> ). Aber in diesem Fall hat ein ganz rationales und objektiv handelndes Programm die Entscheidung getroffen, oder? Nicht wirklich! Mit der sich immer schneller entwickelnden Digitalisierung, macht sich auch die Diskriminierung, in digitalen Räumen breit. Doch während der bewusste „Hass im Netz” bereits öffentlich wirksam thematisiert und teilweise bekämpft wird, sorgt programmierte Diskriminierung für eine viel breiter Gefächerte, wenn auch oft nicht direkt zu erkennbare, Einschränkung im alltäglichen Leben.</p>
</div><div class="uncode_text_column" ><p>Die aus der analogen Welt bekannten Formen der Diskriminierung, bspw. aufgrund von Geschlecht, Ethnie oder Sexualität, treten in der digitalen Welt in neuer Art und Weise zu Tage. Neben offensichtlicher, meist bewusst verübter Diskriminierung, wie Hasskommentare und Beiträge, kommt es zunehmend zu passiver Ausgrenzung durch Algorithmen, welche schlichtweg das unbewusst diskriminierende Verhalten der Menschen, die sie entwickelt haben bzw. nutzen reproduzieren und teilweise auch verstärken. Beispiele, für diese programmierte Diskriminierung gibt es zuhauf. In der Netflix-Dokumentation <a href="https://www.netflix.com/watch/81328723?trackId=255824129&amp;tctx=0%2C0%2CNAPA%40%40%7C148935e1-553a-4d62-b41b-7734d4ffc5f4-102622036_titles%2F1%2F%2Fcoded%20bias%2F0%2F0%2CNAPA%40%40%7C148935e1-553a-4d62-b41b-7734d4ffc5f4-102622036_titles%2F1%2F%2Fcoded%20bias%2F0%2F0%2Cunknown%2C%2C148935e1-553a-4d62-b41b-7734d4ffc5f4-102622036%7C1%2C%2C">„Coded Bias“</a> (zu Deutsch: Vorprogrammierte Diskriminierung), erklärt Joy Buolamwini, Programmiererin im MIT Media Lab, wie ihr Gesicht von einem Gesichtserkennungsprogramm, erst durch das Tragen einer weißen Maske erkannt wurde. Buolamwini ist Schwarz und die dunklere Farbe ihrer Haut konnte von dem Programm nicht erkannt werden, weil seine Programmierer*innen dem Algorithmus eine Datenbank mit mangelnder Diversität zugrunde legten. Das heißt, damit der Algorithmus fähig ist, Gesichter zu erkennen, müssen ihm möglichst viele Bilder von Gesichtern als Lernmaterial zu Verfügung gestellt werden. Da die Programmier-Szene aber hauptsächlich von weißen Männern dominiert wird, wurde höchstwahrscheinlich schlichtweg nicht berücksichtigt auch bzw. genügend Gesichter von nicht-weißen Frauen und Männern in die Datenbank einzuspeisen. Hier geht es also weniger um gewollte Ausgrenzung, vielmehr wird von sich selbst, als die gesellschaftliche Norm ausgegangen und „Abweichungen“ davon werden häufig vergessen.</p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span><strong>Das Problem der fehlenden Transparenz</strong></span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ><p>Dies ist nur eines von vielen Beispielen zu programmierter Diskriminierung. Doch während eine nur beschränkt funktionierende Gesichtserkennung schnell zu entdecken ist, gibt es Algorithmen bei denen eine potenziell diskriminierende Programmierung zunächst überhaupt nicht in Betracht gezogen, geschweige denn erkennbar ist. So arbeitete Amazon zeitweise mit einem Programm, welches eine Vorauswahl bei den eingeschickten Bewerbungen treffen sollte, um den Auswahlprozess zu beschleunigen oder zumindest zu erleichtern. Auch dieser Algorithmus wurde vorab mit Daten gefüttert. In diesem Fall, mit den Attributen von Personen, die in der Vergangenheit eingestellt wurden und sich erfolgreich im Unternehmen etablierten. Dieses Vorgehen führte dazu, dass das Programm größtenteils weiße Männer als Kandidaten vorschlug, da die zuvor von Menschen getroffenen Entscheidungen schlichtweg reproduziert wurden. Für die Bewerber*innen war dieser Prozess allerdings völlig undurchsichtig, durch die jeweils individuelle Ablehnung, konnte das Muster dahinter nicht bemerkt werden. Es besteht also zunehmend die Gefahr, nicht aufgrund von mangelnden Qualifikationen, sondern durch unfaire Algorithmen einen Job nicht zu bekommen.</p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span>Wer übernimmt die Verantwortung?</p></span><span><p></span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ><p>Natürlich sind diese Beispiele auch der Politik und dem Staat nicht verborgen geblieben. Seit einiger Zeit widmet sich deswegen auch die im Familienministerium angesiedelte <a href="https://www.antidiskriminierungsstelle.de/DE/ueber-uns/ueber-uns-node.html">Antidiskriminierungsstelle des Bundes</a> (ADS) dem Thema. Die ADS berät Menschen, die Diskriminierung erfahren haben, klärt durch leicht zugängliche Artikel und Videos auf, führt Forschungsprojekte durch bzw. gibt diese in Auftrag und formuliert aus den Ergebnissen Handlungsvorschläge für die Politik. Zudem unterstützt sie verschiedene Nicht-Regierungsorganisationen, welche sich ebenfalls der Bekämpfung unterschiedlichen Aspekten von Diskriminierung widmen. Zu diesen von der ADS unterstützten NRO zählt auch <a href="https://algorithmwatch.org/de/">AlgorithmWatch</a>, die sich auf die Beobachtung, Analyse und Bewertung von Algorithmen spezialisiert haben.</p>
</div><div class="uncode_text_column" ><p>Aber das Melden dieser diskriminierenden Vorfälle, sofern sie überhaupt entdeckt werden, führt meist zu keinerlei Konsequenzen für die Anbieter oder Unternehmen. Viele Opfer von digitalisierter Diskriminierung geben sich meist mit einer Entschuldigung oder Schmerzensgeld zufrieden, auch weil sie Angst haben, dass ein tatsächlicher Gerichtsprozess viel Zeit, Energie und Geld kosten würde. Obwohl es bereits Organisationen wie AlgorithmWatch gibt, die durch intensive Recherche und <a href="https://unding.de/">Diskriminierungs-Melde-Tools</a>  auf die Problematik aufmerksam machen, kann es nur durch flächendeckend staatliches Eingreifen, bzw. durch Präventivmaßnahmen zu einer tatsächlichen Besserung der Situation kommen.</p>
</div><div class="uncode_text_column" ><p>AlgorithmWatch veröffentlichte am 10. Februar 2022 den <a href="https://algorithmwatch.org/de/digital-autonomy-policy-brief-5/">Policy-Brief #5</a>, der neben einer detaillierten Darstellung der programmierten Diskriminierung auch klare Lösungsansätze formulierte und Forderungen an die aktuelle Bundesregierung stellte. Und tatsächlich findet man in dem aktuellen Koalitionsvertrag die Ankündigung, dass das Allgemeine Gleichstellungsgesetz auf den digitalen Raum ausgeweitet werden soll. Ein wichtiger Schritt, der eine stabilere rechtliche Grundlage für juristische Verfahren schaffen würde und sowohl von der Antidiskriminierungsstelle des Bundes (ADS) als auch von AlgorithmWatch als sinnvollen Schritt erachtet wird.</p>
</div><div class="uncode_text_column" ><p>Nachfragen bei der ADS, welche Ziele und Zukunftspläne bestehen und inwiefern der die Ankündigung der neuen Regierung bereits Einfluss auf ihre Arbeit genommen hat, blieben leider unbeantwortet. Die Entscheidung, über welches Budget die ADS künftig verfügt, liegt im Bundestag bzw. bei der derzeitigen Regierung. Diese hat in ihrem Koalitionsvertrag angegeben, sie wolle effektiver gegen Diskriminierung vorgehen. Eine sichtbare Besserung ist bis jetzt nicht zu erkennen.</p>
</div><div class="uncode_text_column" ><p>Vorprogrammierte Diskriminierung bleibt also weiterhin ein eher mangelhaft thematisiertes Problem. Die dafür zuständigen Behörden scheinen bis dato noch keine feste Strategie entwickelt zu haben. Somit wird es wohl weiterhin die Aufgabe der Vertreter*innen der Zivilgesellschaft sein, mit Aufklärung oder dem zur Verfügung stellen von Meldeportalen, ein Bewusstsein für das Thema zu schaffen.</p>
</div></div></div></div></div></div><script id="script-row-unique-4" data-row="script-row-unique-4" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-4"));</script></div></div></div><div data-parent="true" class="vc_row row-container" id="row-unique-5"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p>Picture by <a href="https://pixabay.com/de/illustrations/hacker-computer-geist-cyber-code-4031973/">pixel2013</a> on <a href="https://pixabay.com/de/illustrations/gesch%c3%a4ft-bild-unterzeichnen-3079910/">pixabay</a></p>
</div></div></div></div></div></div><script id="script-row-unique-5" data-row="script-row-unique-5" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-5"));</script></div></div></div><div data-parent="true" class="vc_row styleptrl--cc-module has-bg need-focus style-color-gyho-bg limit-width boxed-row row-container" id="row-unique-7"><div class="row unequal col-no-gutter single-top-padding single-bottom-padding single-h-padding row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-middle pos-center align_left column_parent col-lg-4 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding  unradius-std" ><div class="uncont" ><div class="uncode_text_column" ><p>Text: <a href="https://creativecommons.org/licenses/by-sa/3.0/de/" target="_blank" rel="noopener noreferrer">CC-BY-SA 3.0</a></p>
</div></div></div></div></div></div><div class="wpb_column pos-middle pos-center align_right column_parent col-lg-8 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p><img decoding="async" class="alignnone size-medium wp-image-159021" src="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png" alt="" width="300" height="52" srcset="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png 300w, https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1.png 305w" sizes="(max-width: 300px) 100vw, 300px" /></p>
</div></div></div></div></div></div><script id="script-row-unique-7" data-row="script-row-unique-7" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-7"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/digitalisierung-als-diskriminierungstreiber-wie-algorithmen-strukturelle-ausgrenzung-reproduzieren-164373/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Was machen Maschinen (mit uns)?- Buchrezension zu „Machine Habitus“</title>
		<link>https://www.politik-digital.de/news/machine-habitus-rezension-164275/</link>
					<comments>https://www.politik-digital.de/news/machine-habitus-rezension-164275/#respond</comments>
		
		<dc:creator><![CDATA[Stephan Raab]]></dc:creator>
		<pubDate>Thu, 24 Mar 2022 09:59:42 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Themenseite]]></category>
		<category><![CDATA[Rezension]]></category>
		<category><![CDATA[Algorithmus]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Deep learning]]></category>
		<category><![CDATA[machine learning]]></category>
		<category><![CDATA[Machine Habitus]]></category>
		<guid isPermaLink="false">https://www.politik-digital.de/?p=164275</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-8"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column text-lead" ><p>Seit Menschengedenken prägen Maschinen die Entwicklungen der Menschheit mit. Spätestens seit den Erfahrungen des Lockdowns ist zudem deutlich geworden, dass eine neue Art von Maschinen angetrieben durch künstliche Intelligenz nun Teil des Alltags geworden ist. Ob Kommunikation, Konsum oder Unterhaltung diese Alltagshelfer sind überall. Aber wissen deren Nutzer überhaupt was diese Maschinen wirklich (mit ihnen) tun? Das Buch „Machine Habitus“ wirft einen neuen Blick auf eine alte Frage zur Beziehung von Mensch zu Maschine.</p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span><strong>Alle Wege führen nach Rom aber jetzt mit Algorithmus</strong></span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ><p>Zu Beginn seines Buches nimmt der Autor Massimo Airoldi seine Leserschaft mit auf eine Reise in die ewige Stadt, fern ab der großen Sehenswürdigkeiten und Touristenströme. Der Stadtteil Tor Pignattara hat wenig von dem Glanz der klassischen Postkartenmotive. Auf etwa zwei Quadratkilometern leben etwa 50.000 Menschen unterschiedlichster Ethnien auf engsten Raum zusammen. Die Heterogenität dieses Viertels ist hoch genau wie seine Arbeitslosigkeit. In dieser Umgebung wächst IAQOS auf. Allerdings IAQOS ist kein gewöhnlicher Bewohner, denn sein Name bedeutet übersetzt „Künstliche Intelligenz im Stadtteil mit Open Source“. Mithilfe dieser KI können die Einheimischen ihre Wünsche und Anliegen rund um die Entwicklungen des Stadtteils kommunizieren und mit diesem digitalen Bewohner austauschen. Langfristig auf besondere Weise „aufgewachsen“ sammelt IAQOS die verschiedenen Daten der Bewohner von Tor Pignattara, um schließlich selbst ein digitales Mitglied davon zu werden.</p>
<p>Was aber würde passieren, wenn IAQOS in einem wohlhabenderen Stadtteil mit einer ganz anderen Geschichte, Gesellschaft und Kultur aufgewachsenen wäre? Würde sich IAQOS gleich oder angesichts anderer Umstände anders „entwickeln“? Diesen Fragen zur Interaktion zwischen Mensch und Maschine widmet sich dieses Buch. Motiviert wird „Machine Habitus“ vor allem durch zwei Annahmen, welche Airoldi zu widerlegen versucht. Zum einen kritisiert der französische Soziologieprofessor, dass Maschinen und Technologie oft als Objekte außerhalb der Gesellschaft gesehen werden. Zum anderen stört den Autor die Behauptung, dass Algorithmen auf Basis von mathematischen Verfahren stets neutral seien. Zentrales Anliegen seiner theoretischen Überlegungen ist es ein Verständnis zu vermitteln, dass moderne lernende Maschinen nicht neutral sind, sondern mit ihren Entwicklern und Nutzern im Austausch stehen als gemeinsam deren Umwelt, Verhalten und Wahrnehmung reproduzieren und verändern.</p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span><strong>Was wir mit Maschinen machen oder Maschinen mit uns </strong></span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ><p>Eine Betrachtung der Beziehung zwischen Mensch und Maschine scheint zunächst nicht viel Neues zu bieten. Seit Menschengedenken haben sie diese genutzt, um ihre Ziele zu erreichen. Angefangen von der Entdeckung des Feuers bis hin zum Entzünden von Raketen, um ins Weltall zu fliegen haben sich diese Maschinen immer weiterentwickelt. Gleiches gilt auch für Algorithmen, welche bereits existiert haben, bevor es hierfür überhaupt ein Wort gegeben hat. Was allerdings neu ist, dass ist die Beziehung zwischen Algorithmen, Mensch und Maschine.</p>
</div><div class="uncode_text_column" ><p>Wie sich die Menschheit weiterentwickelt hat, haben sich auch die Maschinen weiterentwickelt. Hierzu unterteilt der Autor die Geschichte in drei Epochen. Während der analogen Phase von der Antike bis etwa dem Ende des Zweiten Weltkrieges stand Computer noch für Personen, welche Berechnung per Auftrag durchführten. Erste Ansätze mechanischer Rechenmaschinen unterstützen diese Arbeit, aber die Algorithmen dienten vor allem dazu, um bestimmte bereits vorgegebene Ziele zu erreichen. In der digitalen Phase von 1946 bis 19998 entstanden zunehmend leistungsfähigere Computer. Erste Ansätze von „Good-Old-Fashioned AI“ kamen auf. Basierend auf bestimmten logischen Bedingungen konnten diese Maschinen einfache kognitive Prozesse des Menschen abbilden. Hierbei folgten die Maschinen klaren vorgegebenen Regeln, wie beispielsweise im Schach. Zwar hat dieses Spiel viele Möglichkeiten, diese sind jedoch klar begrenzt und berechenbar. In der Phase der Plattformen, deren Beginn der Autor um 1998 verortet, änderte sich diese Beziehung jedoch. Ursprünglich gedacht als Aufbewahrungsstätte für Informationen änderte sich die Struktur des Internets grundlegend, als die Erfinder von Google Larry Page und Sergey Brin das PageRanking einführten. Von da an waren alle Seiten nicht mehr gleichberechtigt, sondern stehen nun in unterschiedlichen Verhältnissen. Manche Seiten erhalten ein höheres Ranking und damit mehr Aufmerksamkeit als andere Seiten. Kurz gesagt aus einem digitalen Aufbewahrungsort wurde ein Netzwerk. Quantitativ hat sich in dieser Epoche die Anzahl der Geräte stark erhöht, tragen heute doch die meisten ständig das Smartphone als Inbegriff des digitalen Zeitalters mit sich herum. Zugleich haben sich qualitativ die Möglichkeiten erhöht, was diese neuen Geräte leisten können. Anders als bei allen Phasen zuvor agieren die Maschinen nun zunehmend autonom, wobei Ziele und Zweck derselbigen vielfach undeutlich werden. Diese neue Generation verarbeitet selbstständig die unzähligen Daten, welche die Nutzer des Internets jeden Augenblick als Spuren ihrer Präsenz im digitalen Raum hinterlassen. Gleichzeitig agieren die Nutzer wiederum mit den Ergebnissen, welche diese Maschinen produzieren. In diesem Sinne reproduziert die Mensch-Maschine-Interaktion aktuelle gesellschaftliche Entwicklungen und soziale Zustände. Algorithmen, Maschinen und Menschen sind verbunden durch ein komplexes soziotechnologisches Netzwerk, das soziale und technische Prozesse miteinander verwebt.</p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span><strong>Ein Wechselspiel zwischen Sozialisierung und Digitalisierung </strong></span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ><p>Allerdings regen die Überlegungen des Soziologen dazu an, selbst darüber nachzudenken, worin die Grenzen bestehen zwischen Maschinen, die immer mächtiger werden und Menschen, welche diese zwar bedienen aber immer weniger verstehen können. Beide haben viele Gemeinsamkeiten wie das Beispiel aus Tor Pignattara zeigt. Sowohl Menschen als auch Maschinen müssen zunächst sozialisiert werden, um ihrer jeweiligen Rolle gerecht zu werden. Dies bedeutet die Regeln und Normen einer Gesellschaft zu erlernen, um als Mitglied innerhalb einer sozialen Gemeinschaft agieren zu können. Beim Menschen geschieht dies durch die Erziehung. Indem diese durch Bezugspersonen, das soziale Umfeld oder Institutionen wie die Schule erzogen werden, erhalten sie bestimmte Verfahren, um die Vielzahl der kulturellen Codes, welche die soziale Interaktion mit anderen Menschen produzieren zu verarbeiten. Abhängig davon, in welchen Umfeldern dieser Prozess erfolgt, können die Personen ganz andere Muster entwickeln, auf welche sie in bestimmten Situationen zurückgreifen können. Einen ähnlichen Habitus, wie ihn der Soziologe Pierre Bourdieu beschrieben hat, können auch Maschinen entwickeln. Diese lernen bestimmte kulturelle Codes, welche in maschinenlesbarer Form vorliegen, zu verarbeiten und zu strukturieren. Während Menschen jedoch durch Erfahrungen sozialisiert werden, geschieht dies bei Algorithmen durch die Eigenschaften welchen ihnen zugeschrieben werden. Allerdings sind Menschen immer durch ihre kulturellen Prägungen in gewisser Weise voreingenommen, weshalb diese Überlegungen danach fragen, warum das gleiche nicht auch für Algorithmen gelten könnten. Schließlich müssen diese auch erst „sozialisiert werden“ um ihre gesellschaftlichen Anforderungen erfüllen zu können.</p>
</div><div class="uncode_text_column" ><p>Zentrales Argument des „Machine Habitus » ist es, Algorithmen nicht einfach nur als neutrale Maschinen, sondern als soziale Agenten zu begreifen, welche selbst gewisse Veränderungen herbeiführen können, somit eine gewisse Form von Macht ausüben können. Deutlich werden diese Überlegungen an Themen wie Filterblasen und Fakenews, oder der wachsenden Bedeutung von Bots, welche sich immer weniger von menschlichen Akteuren unterscheiden lassen. Ebenso wie Menschen, die sowohl als Individuum, als auch als Teil einer Gesellschaft agieren, sind Algorithmen soziale Agenten, welche in ein komplexes Netzwerk eingebunden sind. Jeder soziale Raum, sei dies die Gesellschaft oder soziale Netzwerke, ist eine Ansammlung von Beziehungen zwischen verschiedenen Positionen in der Gesellschaft. Diese Positionen werden durch das soziale Kapital bestimmt, sprich, die Möglichkeiten, welche sich für das Individuum ergeben, das über diese Verbindungen verfügt. Sowohl Menschen vergleichen ihre Position im sozialen Raum wie dies auch Maschinen tun. Beide unterscheiden sich lediglich darin, dass Menschen hierfür erlernte Muster nutzen, während Maschinen durch Wahrscheinlichkeitsrechnungen die Beziehungen zwischen Menschen, Objekten und Informationen bestimmen. Allerdings liegt hierin der große Unterschied zwischen Menschen und den Algorithmen komplexer Maschinen darin begründet, dass menschliche Akteure ein Bewusstsein für die Zwänge und Einschränkungen haben, die ihr Umfeld ihnen auferlegt. Hierauf können menschliche Akteure emotional reagieren und versuchen diese Umstände zu verändern, während technische Akteure diesen keine normativen Bedeutungen zuschreiben.</p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span><strong>Mensch und Maschine gegeneinander im Miteinander</strong></span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ><p>Mit seiner Anregung eines „Machine Habitus“ möchte der Soziologieprofessor Massimo Airoldi vor allem dazu anregen, Algorithmen nicht mehr als black boxes, außerhalb der Gesellschaft zu sehen, sondern als zentrale Akteure im gesellschaftlichen Wandlungsprozess der digitalen Transformation zu begreifen. Hierzu bietet der Autor einige Ansätze für mögliche zukünftige Beziehungen zwischen den Algorithmen und deren menschlichen Nutzern. Zwar erhalten die Algorithmen durch deren Konstrukteure eine erste Sozialisierung. Allerdings erfolgt eine weitere Sozialisierung, indem diese in verschiedenen Kontexten eingesetzt werden. Ähnliches passiert auch in der menschlichen Entwicklung. Zwar erhält jeder eine gewisse Prägung durch die Kindheit, aber andere Kontexte wie etwa der Beruf führen zu einer zweiteren Sozialisierung. Egal ob Maschine oder Mensch, die zweite Sozialisierung bringt neue Muster hervor, die Beziehung von sich zu anderen Akteuren und dem Umfeld einschätzen zu können.</p>
</div><div class="uncode_text_column" ><p>Ausblickend wird die Beziehung zwischen Menschen und Algorithmen als Maschinen vor allem durch zwei Faktoren bestimmt. Einerseits steht die Asymmetrie der Informationen, Je mehr die Algorithmen an Daten sammeln, desto besser können sie ihr Umfeld beschreiben, während Menschen immer größere Schwierigkeiten haben, die Funktionsweise der Algorithmen zu verstehen. Andererseits steht die Übereinstimmung der Ziele, welche der Algorithmus verfolgt und den Erwartungen, welche Menschen an deren Nutzung mitbringen. Hierbei können entweder Menschen den Habitus von Maschinen verändern oder aber Maschinen Menschen dazu anregen, ihre Verhalten zu verändern. Derart werden soziale Strukturen gleichsam reproduziert als auch grundlegend verändert je nach Beziehungsart.</p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span><strong>Wer ist der Algorithmus?</strong></span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ><p>Abschließend regt „Machine Habitus“ vor allem dazu an, selbst darüber nachzudenken, wie unser Alltagsleben zunehmend durch die Beziehung zu Algorithmen und Maschinen mitbestimmt wird, ohne dass wir es immer direkt merken. Allerdings wird auch deutlich, dass Maschinen nicht neutral sind, sondern die positiven, aber auch negativen Eigenschaften sowie Ungleichheiten der Gesellschaft reproduzieren. Jedoch anders als Maschinen können sich Menschen dessen bewusstwerden, denn als Ausblick gibt das Werk zu bedenken, dass wir am Ende als Menschen der eigentlich entscheidende Algorithmus sind, indem wir die Welt mit ihren vielen komplexen Zusammenhängen nach unseren Vorstellungen zu ordnen versuchen.</p>
</div><div class="uncode_text_column" ><p>Photo by <a href="https://unsplash.com/@beingabstrac">rishi</a> on <a href="https://unsplash.com/?utm_source=unsplash&amp;utm_medium=referral&amp;utm_content=creditCopyText">Unsplash</a></p>
</div></div></div></div></div></div><script id="script-row-unique-8" data-row="script-row-unique-8" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-8"));</script></div></div></div><div data-parent="true" class="vc_row styleptrl--cc-module has-bg need-focus style-color-gyho-bg limit-width boxed-row row-container" id="row-unique-10"><div class="row unequal col-no-gutter single-top-padding single-bottom-padding single-h-padding row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-middle pos-center align_left column_parent col-lg-4 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding  unradius-std" ><div class="uncont" ><div class="uncode_text_column" ><p>Text: <a href="https://creativecommons.org/licenses/by-sa/3.0/de/" target="_blank" rel="noopener noreferrer">CC-BY-SA 3.0</a></p>
</div></div></div></div></div></div><div class="wpb_column pos-middle pos-center align_right column_parent col-lg-8 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p><img decoding="async" class="alignnone size-medium wp-image-159021" src="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png" alt="" width="300" height="52" srcset="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png 300w, https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1.png 305w" sizes="(max-width: 300px) 100vw, 300px" /></p>
</div></div></div></div></div></div><script id="script-row-unique-10" data-row="script-row-unique-10" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-10"));</script></div></div></div><div data-parent="true" class="vc_row row-container" id="row-unique-11"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ></div></div></div></div></div><script id="script-row-unique-11" data-row="script-row-unique-11" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-11"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/machine-habitus-rezension-164275/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Die neuen Gatekeeper</title>
		<link>https://www.politik-digital.de/news/neue-gatekeeper-163460/</link>
					<comments>https://www.politik-digital.de/news/neue-gatekeeper-163460/#respond</comments>
		
		<dc:creator><![CDATA[Jan-Malte Hunfeld]]></dc:creator>
		<pubDate>Wed, 21 Oct 2020 10:57:30 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Themenseite]]></category>
		<category><![CDATA[Algorithmus]]></category>
		<category><![CDATA[Filteralgorithmen]]></category>
		<category><![CDATA[Kommunikation]]></category>
		<category><![CDATA[Social Media]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<guid isPermaLink="false">https://www.politik-digital.de/?p=163460</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-12"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column text-lead" ><p>Online-Plattformen spielen in den vergangenen Jahren eine immer wichtigere Rolle dafür, welche Medieninhalte Bürger*innen angezeigt werden und letztendlich dadurch auch, welche Inhalte konsumiert werden. Doch was bedeutet die neue Rolle dieser Gatekeeper für die Verbreitung von Informationen, für die Medien als Institution und letztlich für unsere Demokratie?</p>
</div></div></div></div></div></div><script id="script-row-unique-12" data-row="script-row-unique-12" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-12"));</script></div></div></div><div data-parent="true" class="vc_row row-container" id="row-unique-13"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p>Der <a href="https://www.politik-digital.de/news/paradigmenwechsel-162874/">erste Text</a> dieser Reihe widmete sich dem Wechselverhältnis vom politischen zum Medienakteur. Der <a href="https://www.politik-digital.de/news/politik-als-inszenierung-162957/">darauf folgende Text</a> thematisierte die politische Kommunikation in der Mediendemokratie und wie sich diese durch das Internet und durch Soziale Netzwerke verändert. Der <a href="https://www.politik-digital.de/news/neue-digitale-oeffentlichkeit-163418/">dritte Text</a> ging der Frage nach, inwiefern dadurch klassische Öffentlichkeitsverständnisse noch angebracht sind. In diesem Text geht es nun um neue Formen der Gatekeeper.</p>
</div><div class="uncode_text_column" ><p>Eine Funktion vom Journalismus ist es, Informationen aufzunehmen, zu selektieren, einzuordnen und weiter zu verbreiten. Vereinfacht ausgedrückt: Was in den Nachrichten gezeigt oder in der Zeitung abgedruckt wird, entscheiden die Medienvertreter*innen. Sie bestimmen über die Reichweite einer Nachricht.</p>
</div><div class="uncode_text_column" ><p>Mit dem Aufkommen der neuen Medien kann nun eine direkte Interaktion des politischen Akteurs mit Nutzer*innen eingegangen werden. Mit dem eigenen YouTube Kanal oder dem Twitter Profil können eigene Botschaften verbreitet werden und die Rezipient*innen können auf diese direkt reagieren. Die Einbahnstraßen Kommunikation vom politischen Akteur über die Medienakteure hin zur Öffentlichkeit(en) ist nicht mehr der einzige Weg der Informationsverbreitung.</p>
</div><div class="uncode_text_column" ><p>Jedoch ist mit der direkten Interaktion noch keine Reichweite gegeben. Um diese zu erhalten, müssen Nachrichten, Botschaften und Narrative einen gewissen Mehrwert für die Rezipient*innen enthalten. An dieser Stelle greifen neue Logiken. Anders, als bei der klassischen Informationsverbreitung, in der die Rezipient*innen die Informationen quasi passiv erreichen, müssen Sie in den Social Media-Weiten aktiv die Informationen und Informationsquellen suchen und sich eine Gruppe an “Zulieferern” (gefolgten Seiten, abonnierte Kanäle, etc.) selbst zusammenbauen. Proaktives Handeln ist Voraussetzung.</p>
</div><div class="uncode_text_column" ><p>Dennoch erreichen auch im Digitalen Beiträge die Rezipient*innen, ohne das diese bewusst aktiv werden müssen. Beispielsweise erscheinen auf der Timeline auf Facebook Nachrichtenbeiträge von gefolgten Fanpages, auf Twitter lassen sich unter Hashtags Beiträge aus Medien entdecken, die man selbst nicht aufgesucht hätte und auf YouTube wird einem am Ende eines Videos bereits das nächste vorgeschlagen. Verantwortlich hierfür sind die den Portalen zugrundeliegende Algorithmen.</p>
</div><div class="uncode_text_column" ><p>Wie die Nutzer*innen Informationen und Inhalte präsentiert bekommen, was sie oder er sieht und was nicht, in welcher Reihenfolge etwas gezeigt wird und in welchen Kontext dies gebracht wird – all dies „entscheiden“ Algorithmen. Sie berechnen eine mögliche Relevanz von Inhalten und bestimmen anhand individueller Eigenschaften der Nutzer*innen, was ihnen angezeigt oder vorgeschlagen wird. Algorithmen sind eine neue Form der Gatekeeper.</p>
</div><div class="uncode_text_column" ><p>Klassischerweise entscheiden Medienvertreter*innen anhand gewisser Kriterien über die Verbreitung und Einordnung von Inhalten. Ähnlich verhält es sich mit den Algorithmen. Auch diese “entscheiden” anhand von nicht-öffentlich einsehbaren Kriterien über Reichweite und Aufmerksamkeit. Diese Entscheidungen werden anhand nüchterner Berechnungen getroffen, können aber oftmals auch durch Targeting beeinflusst werden.</p>
</div><div class="uncode_text_column" ><p>Problematisch daran ist, dass Algorithmen auch immer einer Filterfunktion gleichkommen, sie die Meinungsbildungsprozesse so beeinflussen und dass es große Konzerne wie beispielsweise Facebook oder Google sind, die diese Algorithmen entwickeln und kontrollieren. Als gewinnorientierte Unternehmen sind sie den Eigentümer*innen bzw. den Aktionär*innen verpflichtet. Diese verfolgen andere Interessen als vermeintlich „öffentliche“ Interessen. Jederzeit können auch die Eigentümer*innen der Plattformen wechseln oder sich die Nutzungsbedingungen ändern. Es besteht das Risiko, das dann auch die Algorithmen geändert werden. Dies relativiert sich aber wiederum dadurch, dass auch die meisten Medienbetriebe gewinnorientierte Unternehmen sind.</p>
</div><div class="uncode_text_column" ><p>Zusammenfassend bedeutet dies, dass neben den Medienakteuren als klassische Gatekeeper mit<br />
den Algorithmen eine neue Form der Gatekeeper in Erscheinung getreten sind. So entscheiden nun auch neue Logiken über Reichweite und Aufmerksamkeit. Zudem war es nie so einfach mit politischen Akteuren in direkte Interaktion zu treten und die Gatekeeper zu umgehen. Die Möglichkeiten, wie uns Inhalte und Beiträge erreichen sind in den vergangenen Jahren deutlich vielfältiger geworden.</p>
</div><div class="uncode_text_column" ><p>Was bedeutet dies nun für die Gesellschaft? Einerseits ist zu begrüßen, dass die politische Partizipation auch ressourcenschwache Akteure gefördert wird, solange diese in ihrer Außenkommunikation die Logiken der Algorithmen berücksichtigen &#8211; vorausgesetzt diese Logiken sind in Ansätzen bekannt. So können eigene Netzwerköffentlichkeiten gebildet werden. Andererseits sind so auch Radikalisierungsprozesse möglich. Die aus den USA mittlerweile auch in<br />
Deutschland angekommene verschwörungsidologische QAnon Bewegung ist ein warnendes Beispiel. Die Attentäter von Halle und Hanau können der Bewegung zugerechnet werden.</p>
</div><div class="uncode_text_column" ><p>Auch hier zeigt sich, muss die Gesellschaft Lernprozesse durchmachen. In einer hoch durch Medien geprägten Gesellschaft ist Medienkompetenz eine nicht zu vernachlässigende Tugend. Das Internet im Allgemeinen und Soziale Netzwerke im Besonderen ändern demokratische und partizipative Spielregeln &#8211; und das nicht nur im positiven. Am Ende hängt es jedoch davon ab, wie und von wem diese neuen Kommunikations- und Austauschkanäle genutzt werden.</p>
</div></div></div></div></div></div><script id="script-row-unique-13" data-row="script-row-unique-13" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-13"));</script></div></div></div><div data-parent="true" class="vc_row row-container" id="row-unique-14"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p>Photo by <a href="https://unsplash.com/@lifeofteej?utm_source=unsplash&amp;utm_medium=referral&amp;utm_content=creditCopyText">Thomas Charters</a> on <a href="https://unsplash.com/?utm_source=unsplash&amp;utm_medium=referral&amp;utm_content=creditCopyText">Unsplash</a></p>
</div></div></div></div></div></div><script id="script-row-unique-14" data-row="script-row-unique-14" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-14"));</script></div></div></div><div data-parent="true" class="vc_row styleptrl--cc-module has-bg need-focus style-color-gyho-bg limit-width boxed-row row-container" id="row-unique-16"><div class="row unequal col-no-gutter single-top-padding single-bottom-padding single-h-padding row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-middle pos-center align_left column_parent col-lg-4 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding  unradius-std" ><div class="uncont" ><div class="uncode_text_column" ><p>Text: <a href="https://creativecommons.org/licenses/by-sa/3.0/de/" target="_blank" rel="noopener noreferrer">CC-BY-SA 3.0</a></p>
</div></div></div></div></div></div><div class="wpb_column pos-middle pos-center align_right column_parent col-lg-8 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p><img decoding="async" class="alignnone size-medium wp-image-159021" src="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png" alt="" width="300" height="52" srcset="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png 300w, https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1.png 305w" sizes="(max-width: 300px) 100vw, 300px" /></p>
</div></div></div></div></div></div><script id="script-row-unique-16" data-row="script-row-unique-16" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-16"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/neue-gatekeeper-163460/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Online-Wahlkampf ohne Regeln</title>
		<link>https://www.politik-digital.de/news/online-wahlkampf-ohne-regeln-153271/</link>
					<comments>https://www.politik-digital.de/news/online-wahlkampf-ohne-regeln-153271/#respond</comments>
		
		<dc:creator><![CDATA[admin]]></dc:creator>
		<pubDate>Fri, 22 Sep 2017 11:08:39 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Digitaler Wahlkampf]]></category>
		<category><![CDATA[Algorithmus]]></category>
		<category><![CDATA[Filterblase]]></category>
		<category><![CDATA[Dark Ads]]></category>
		<category><![CDATA[Monopolisiertes Internet]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=153271</guid>

					<description><![CDATA[Wie emotional demokratische Abstimmungen ablaufen können, zeigten in jüngster Vergangenheit die Ergebnisse der US-Wahl und des Brexit-Votums. Bei beiden Sieger-Kampagnen [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="http://politik-digital.de/wp-content/uploads/Smartphone-Indien.png"><img decoding="async" class="alignnone size-full wp-image-153195" src="http://politik-digital.de/wp-content/uploads/wahlurne.jpg" alt="wheelchair-538138_1920" width="640" height="309" /></a>Wie emotional demokratische Abstimmungen ablaufen können, zeigten in jüngster Vergangenheit die Ergebnisse der US-Wahl und des Brexit-Votums. Bei beiden Sieger-Kampagnen spielten digitale Aspekte eine zentrale Rolle. Brauchen wir verbindliche Regeln für den digitalen Wahlkampf?</p>
<p>Politik findet immer mehr online statt. Nicht nur Meinungsbildung und politische Diskussion verlagern sich in die neuen Medien, nahezu alle Politiker gehen in den sozialen Netzwerken auf Stimmenfang. Die Trumpschen Tweets zeigen, dass dies nicht immer mit fairen Mitteln abläuft. Doch wo liegen die tatsächlichen Gefahren des digitalen Wahlkampfs?</p>
<h3>Algorithmus, Filterblase, Dark Ads</h3>
<p>Ein reger Gedanken- und Meinungsaustausch ist die Basis einer jeden Demokratie und diesen in den sozialen Netzwerken zu führen, vermutlich die Zukunft der politischen Debatte. Nichtsdestotrotz gibt es Gefahren bei der Meinungsbildung im Internet. So steht die digitale Diskussion im Verdacht, politische Abschottung zu befördern &#8211; Stichwort Filterblase.</p>
<p>Doch wie entsteht dieses Phänomen? Ein Grund hierfür ist, dass der individuelle Aufbau der sozialen Netzwerke von einem <em>Algorithmus</em> gesteuert wird. Was einem User beispielsweise auf Facebook angezeigt wird, entscheidet ein Programm danach, wie dessen Interessen und Vorlieben aussehen. Dies führt in einer politischen Debatte dazu, dass nur Positionen angezeigt werden, mit denen man ohne hin schon sympathisiert. Andere Ansichten werden ausgeblendet und es kommt zu einer beschränkten Sicht auf das politische Spektrum.</p>
<p>Demokratie lebt vom Austausch verschiedener Meinungen, nicht dem Bestärken der eigenen. Werden nun ausschließlich innerhalb der eigenen politischen Lager Argumente ausgetauscht, können relevante Gegenpositionen nicht miteinbezogen werden. Dies führt zu einem Verlust an Information und Rationalität und verhindert den Fortschritt der politischen Debatte.</p>
<p>Ein weiteres Problem ist das sogenannte <em>Micro-Targeting.</em> Hierbei werden mit Hilfe gesammelter Daten psychologische Profile von Usern erstellt, welche dann wiederum verwendet werden, um hoch individualisierte Werbeanzeigen schalten zu können. Wie genau diese Persönlichkeitsprofile angeblich sind, ist in einem <a href="https://www.dasmagazin.ch/2016/12/03/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt/">Bericht über Michal Kosinski</a>, den Entwickler dieser Methode, nachzulesen: „70 Likes reichen, um die Menschenkenntnis eines Freundes zu überbieten, 150, um die der Eltern, mit 300 Likes kann die Maschine das Verhalten einer Person eindeutiger vorhersagen als deren Partner.&#8221; Auf diese Weise wurden in Donald Trumps Wahlkampagne Text, Bildmaterial und sogar die Farbe der Anzeigen auf die individuellen Persönlichkeitsprofile der angesprochenen Wähler abgestimmt.</p>
<p>Dieses Profiling stellt eine große Bedrohung für die Rationalität der politischen Debatte dar. Denn jemand, dessen Neigungen und Vorlieben, aber auch dessen Ängste man kennt, kann man deutlich einfacher beeinflussen. Diese Beeinflussung ist allerdings eine <em>emotionale</em> und <em>keine argumentativ-rationale</em>, wie es eine gesunde Demokratie verlangt. Mit psychologischen Tricks die Meinungsbildung zu beeinflussen, ist ein bewährtes Mittel autokratischer Staaten, um Schwächen des eigenen Regimes zu kaschieren. In modernen Demokratien haben solche Machenschaften nichts verloren.</p>
<p>Zudem haben politische Akteure beispielsweise auf Facebook die Möglichkeit, Werbeanzeigen zu schalten, welche nur einer bestimmten Zielgruppe angezeigt werden und auf den offiziellen Seiten der Politiker oder Parteien gar nicht erscheinen; Anzeigen also, die nicht unbedingt die ganze Wählerschaft sehen sollen.</p>
<p>Diese sogenannten <em>Dark-Ads</em> verletzen das Kriterium der Publizität. Denn was ist der Grund, warum diese Beiträge nicht alle sehen dürfen? Gibt´s da was zu verbergen? Würde es sich um legitime, wohlbegründete Positionen handeln, gäbe es keinen Anlass diese vor der Öffentlichkeit zu verheimlichen. Um einen Überblick über die im Bundestagwahlkampf eingesetzten Dark Posts zu gewinnen, haben die Journalistin Adrienne Fichter und der Politikberater Martin Fuchs <a href="https://twitter.com/hashtag/politikads?lang=de">#PolitikAds</a> initiiert: Social Media-Nutzer posten die Anzeigen, die Parteien und Politiker in ihrer Timeline geschaltet haben.</p>
<h3>Stimmgewicht ist kaufbar</h3>
<p>Nicht selten wird vor Wahlen das politische Klima rauer, nicht selten wird zu unsauberen Mitteln gegriffen, um die letzten Stimmen noch ins eigene Lager zu holen. Doch müssen trotz alledem demokratischen Grundbedingungen gewahrt bleiben. Eine dieser Grundbedingungen ist das Prinzip der Gleichheit. In den sozialen Medien besteht nun allerdings die Möglichkeit eigene politische Positionen in Beiträgen zu bewerben und sich auf diese Weise erhöhtes Stimmgewicht zu erkaufen. Dies gefährdet die Ausgewogenheit der Debatte.</p>
<p>Zunehmend wird nun auch der deutsche Wahlkampf in die neuen Medien verlegt. Nicht nur in Talkshows und Zeitungsberichten werben Politiker um die Gunst der Wähler, sondern längst auch auf Facebook, Twitter oder YouTube. Während nun allerdings die klassischen Medien (teils aufgrund staatlicher Auflagen) um eine ausgeglichene Abbildung der politischen Landschaft bemüht sind, fehlt in den neuen Medien ein Mechanismus, welcher die Wahrung des Prinzips der Gleichheit garantiert. Ist es einer Partei oder einem Politiker möglich, die eigene Ansicht zu bewerben und so gegenüber den Meinungen politische Gegner hervorzuheben, kommt es zu einer Wahrnehmungsverzerrung des politischen Spektrums.</p>
<p>Es ließe sich einwenden, dass auch konventionelle Wahlwerbung eine solche Verzerrung erzeuge. Hierbei wird allerdings nicht beachtet, dass mittels Wahlplakaten und Handzetteln nur indirekt in die politische Debatte eingegriffen werden kann, während durch Beiträge in den sozialen Netzwerken die Möglichkeit besteht, direkt an einer Diskussion teilzunehmen.</p>
<p>Ein möglicher Ansatz, die oben genannten Gefahren des digitalen Wahlkampfs anzugehen, ist in meinen Augen ein von Experten erarbeiteter Ethikkodex, anhand dessen einzelne Vergehen explizit angeprangert werden können. Denn kein Politiker lässt sich gerne unsauberes oder unethisches Verhalten nachsagen. Ein Imageschaden bedeutet nicht selten das Ende der politischen Karriere. Zudem würde eine solche Leitlinie für den Online-Wahlkampf die Bürger für Übertretungen der Politik sensibilisieren.</p>
<h3>Monopolisiertes Internet</h3>
<p>Ein großes Problem, dem sich der Wahlkampf in den sozialen Netzwerken stellen muss, ist das monopolisierte Internet. In den vergangenen Jahren hat es die Politik versäumt, den Vertreibern dieser neuen Technologie demokratische Grenzen zu setzen; mit der Folge, dass die gesamte digitale Infrastruktur von wenigen Konzernen bereitgestellt wird, deren Ziel vorrangig die eigene Gewinnmaximierung ist.</p>
<p>Dadurch entstehen für die politische Diskussion schwerwiegende Probleme. Konzerne haben an sich kein Interesse an einem funktionierenden Meinungsaustausch. Verständlicherweise stehen bei einem Wirtschaftsunternehmen wie Facebook ökonomische Aspekte im Mittelpunkt. Gesellschaftliche Interessen sind, wenn überhaupt, nur nachrangig von Bedeutung. So arbeitet Facebook <a href="https://www.nytimes.com/2016/11/22/technology/facebook-censorship-tool-china.html?rref=collection%2Ftimestopic%2FFacebook&amp;action=click&amp;contentCollection=business&amp;region=stream&amp;module=stream_unit&amp;version=latest&amp;contentPlacement=1&amp;pgtype=collection&amp;_r=0">Berichten der New York Times</a> zufolge momentan an einem Zensurtool, welches dem Unternehmen den Zugang zum chinesischen Markt eröffnen soll.</p>
<p>Ein weiteres Problem, welches durch fehlende Konkurrenz im digitalen Sektor entsteht, ist die Möglichkeit politischer Beeinflussung durch Monopolisten und Lobbyisten. Wird die digitale Infrastruktur von einigen wenigen Anbietern zur Verfügung gestellt, vereinfacht dies politische Einflussnahme, da im Zweifelsfall nicht auf andere Plattformen ausgewichen werden kann. So soll <a href="http://www.zeit.de/digital/internet/2017-09/bundestagswahl-afd-anzeige-google">Google eine AfD-Kampagne nicht genehmigt</a> und auf diese Weise massiv in die Wahlkampfstrategie der Partei eingegriffen haben.</p>
<p>Den politischen Einfluss der Internetriesen zu begrenzen, muss Aufgabe des Staates oder eines Staatenbündnisses sein und sollte in Zeiten der Digitalisierung zu einem Kernthema deutscher und europäischer Politik werden.</p>
<p>Titelbild: by <span style="padding: 2px 3px;"><a title="Download free do whatever you want high-resolution photos from Arnaud Jaegers" href="https://unsplash.com/@ajaegers?utm_medium=referral&amp;utm_campaign=photographer-credit&amp;utm_content=creditBadge" target="_blank" rel="noopener noreferrer">Arnaud Jaegers</a>, on <a class="external" href="https://unsplash.com/">unsplash</a></span></p>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" target="_blank" rel="noopener noreferrer"><img decoding="async" class="alignleft  wp-image-139428" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" alt="CC-Lizenz-630x1101" width="441" height="77" /></a></p>
<p><img decoding="async" src="http://vg05.met.vgwort.de/na/b76402208ee9466fb38ce67c7c48ef44" alt="" width="1" height="1" /></p>
<p><span style="color: #000000; font-family: HelveticaNeue;"> </span></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/online-wahlkampf-ohne-regeln-153271/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Predictive Policing &#8211; Dein Freund und Hellseher?!</title>
		<link>https://www.politik-digital.de/news/predictive-policing-in-deutschland-153215/</link>
					<comments>https://www.politik-digital.de/news/predictive-policing-in-deutschland-153215/#respond</comments>
		
		<dc:creator><![CDATA[admin]]></dc:creator>
		<pubDate>Thu, 14 Sep 2017 12:29:43 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Polizei]]></category>
		<category><![CDATA[Datenschutz]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Algorithmus]]></category>
		<category><![CDATA[Predictive Policing]]></category>
		<category><![CDATA[Precobs]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=153215</guid>

					<description><![CDATA[Die Big Data gestützte „vorhersagende Polizeiarbeit“ kommt auch in deutschen Bundesländern vermehrt zum Einsatz. Eine Studie des Max Planck Instituts [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><img decoding="async" class="alignleft size-full wp-image-153218" src="http://politik-digital.de/wp-content/uploads/tarot-640x241by_Rirriz_CC0_via_Flickr.jpg" alt="Tarotkarten by Rizzi via Flickr, CCo" width="640" height="241" />Die Big Data gestützte „vorhersagende Polizeiarbeit“ kommt auch in deutschen Bundesländern vermehrt zum Einsatz. Eine Studie des Max Planck Instituts für ausländisches und internationales Strafrecht fragt, wie das Verfahren bei der Kriminalitätsprävention hilft. Der Abschlussbericht liegt jetzt vor.</p>
<p>Welche Möglichkeiten gibt es, Verbrechen präventiv zu bekämpfen? Diese Frage ist für den Rechtsstaat zeitlos in ihrer Aktualität. Ein Blick auf die polizeiliche Kriminalstatistik zeigt, dass die Anzahl an Wohnungseinbrüchen trotz eines Rückgangs von 10 % zwischen den Jahren 2015 und 2016 mit rund 151.000 Einbrüchen deutlich höher liegt, als noch vor zehn Jahren. Um diesem Trend etwas entgegen zu setzen, nutzen die deutschen Bundesländer Predicitive Policing Software. Diese, ursprünglich aus den USA stammende, Technologie kommt dort seit nunmehr zehn Jahren in diversen Bundesstaaten zum Einsatz.</p>
<p>Der Grundgedanke fußt darauf, über Big Data-Analysen vergangener, für die Verbrechensprävention relevanter Daten Aussagen über die Wahrscheinlichkeit zukünftiger Straftaten zu treffen. In Analogie zu seismologischen Aktivitäten kommt es nach dieser Vorstellung häufiger zu Verbrechen an Orten, die bereits Tatort waren. Die verwendeten Programme nutzen dabei unterschiedliche Vorgehensweisen. PredPol, das unter anderem von der Polizei in Los Angeles eingesetzt wird, nutzt einen selbst lernenden Algorithmus nach einem „Epidemic Type Aftershock Sequence Model“. Dabei werden täglich erhobene Daten mit bereits existierenden Datenbänken abgeglichen und auf wiederkehrende Muster untersucht, um auf einem Gitternetz des Stadtgebietes festzulegen, wo vermehrte Polizeipräsenz notwendig sein könnte.</p>
<h3>Bisher nur dürftige Ergebnislage</h3>
<p>Ergebnisse des amerikanischen Predictive Policing lassen sich in Ermangelung objektiver Langzeitstudien zum jetzigen Zeitpunkt noch nicht absehen. Alexander Gluba, Referent des Landeskriminalamts Niedersachsen, bemerkt dabei zu Recht, dass die Erfolgsmeldungen aus Übersee zumeist auf „dünnen Pressemitteilungen“ oder euphorischen Angaben der Software-Hersteller basieren. Auch sei die Messung der Wirkung im Echtbetrieb schwierig, wenn auf eine Prognose fußende Maßnahmen schlussendlich dazu führen würden, dass diese gar nicht mehr zuträfe.</p>
<p>In Deutschland gibt es verschiedene Ansätze: Während einige Bundesländer eigene Softwarelösungen probieren, nutzt die Polizei in Bayern und Baden-Württemberg das Programm <a href="https://de.wikipedia.org/wiki/PRECOBS" target="_blank" rel="noopener noreferrer">PRECOBS</a>. Letzteres wurde vom Max Planck Institut für ausländisches und internationales Strafrecht im Rahmen eines baden-württembergischen Pilotprojektes evaluiert. Der <a href="https://www.mpicc.de/files/pdf4/rib_50_predictive_policing_version_2017_08_28.pdf" target="_blank" rel="noopener noreferrer">Abschlussbericht der Studie</a>, die einen Zeitraum vom Oktober 2015 bis April 2016 abdeckt, liegt jetzt vor.</p>
<p>PRECOBS arbeitet auf Grundlage des „Near Repeat“-Phänomens, welches Straftaten wie Wohnungseinbrüche als Folgetaten innerhalb kurzer zeitlicher Abstände von bis zu sieben Tagen beschreibt. Speziell Reihenhäuser und Doppelhaushälften seien nach kriminologischer Sicht anfällig für wiederkehrende Einbruchsdelikte. PRECOBS gleicht aktuelle Daten der Polizei mit vergangenen Datensätzen über Tathergänge und Tatbegehungsweisen nach Wenn-Dann-Entscheidungen ab, um die Wahrscheinlichkeit eines „Near Repeat“-Phänomens zu bestimmen.</p>
<p>Laut der Studie wurden im Evaluationszeitraum in den Polizeipräsidien von Stuttgart und Karlsruhe 183 Alarme durch PRECOBS ausgelöst. Auf einen ausgelösten Alarm kamen damit im Durchschnitt bis zu 48 Arbeitsstunden für die Polizeibeamten. In Stuttgart haben die Wissenschaftler einen besonders starken Rückgang der Wohnungseinbruchszahlen in den durch PRECOBS ausgemachten „Near Repeat Areas“ festgestellt, während in Karlsruhe die Fallzahlen über den Beobachtungszeitraum konstant blieben. Laut den Autoren der Studie lässt sich die Wirksamkeit von Predictive Policing trotzdem nicht eindeutig nachweisen. Das würde vor allem an Schwankungen und methodischen Einschränkungen liegen. So sei der Evaluationszeitraum recht kurz gewesen und ginge mit einem Verzicht auf ein experimentelles Design und eine eingeschränkte Anzahl an Testgebieten einher. Zudem würde sich PRECOBS in ländlichen Gebieten aufgrund eines geringeren Ballungsgebietes nach Expertenmeinung weniger eignen. Außerdem lässt sich die Wirksamkeit nicht losgelöst von den polizeilichen Folgemaßnahmen ermitteln.</p>
<p>Während die Hälfte der befragten Polizeibeamten den Einsatz befürwortet, haben vor allem Beamte, die mit einer Vielzahl von Alarmen konfrontiert wurden, eine negative Meinung über PRECOBS. Die Wissenschaftler gehen davon aus, dass diese Meinung wegen einer gefühlten Mehrbelastung zustande kommt, da die Beamten im Alarmfall andere Arbeiten liegen ließen.</p>
<h3>Einsatz contra Datenschutz?</h3>
<p>Für Alexander Gluba ist es daher wichtig, dass dem Personal die Skepsis gegenüber der Technologie genommen wird – auch weil damit Ängste vor einem Know how-Verfall oder vor Stellenabbau begegnet würde. Das Problem liegt hier überspitzt in einem Informationsdefizit der Beamten gegenüber den Analysten und der Notwendigkeit, die Funktionsweise der Algorithmen transparent zu gestalten. Auch aus der Perspektive des Datenschutzes ist dies wünschenswert. Alexander Sander vom Verein <a href="https://digitalegesellschaft.de/" target="_blank" rel="noopener noreferrer">Digitale Gesellschaft</a> weist in diesem Zusammenhang auf die Gefahr einer Verlagerung der Kriminalität hin. Wenn nur schon vorhandene Daten in die Prognosen einfließen würden, könnten andere Verbrechen übersehen werden. Auch gelten Daten, die bei der Einbruchsprävention helfen, nicht als sensibel, aber anhand des Testlaufs für die Gesichtserkennungssoftware am Berliner Bahnhof Südkreuz erkennt Sander auch in Deutschland eine Tendenz zu verstärkter Verhaltenskontrolle bei Personen. Zumindest in China ist die <a href="https://www.heise.de/newsticker/meldung/China-Gesichtserkennung-zur-Verkehrserziehung-3761915.html" target="_blank" rel="noopener noreferrer">Gesichtserkennung schon im Einsatz</a>, um Rotsünder durch Social Shaming zu disziplinieren.</p>
<p>Ob sich in Deutschland der Einsatz von Predictive Policing ähnlich entwickeln wird, bleibt kontrovers, denn personenbezogene Daten dürfen bisher aus Datenschutzgründen nicht genutzt werden. Deshalb wurde die Software PRECOBS vom Bayerischen Landesbeauftragten für den Datenschutz, Dr. Thomas Petri, auch nicht beanstandet. Eine eher negative Perzeption der Software liegt vielleicht auch an dem überschwänglichen Erfolgsmarketing der Hersteller und reißerischen Medienberichte á la „<a href="https://de.wikipedia.org/wiki/Minority_Report" target="_blank" rel="noopener noreferrer">Minority Report</a>“. Die Technologie ist nicht in der Lage, die Zukunft vorherzusehen. Das Risiko für mögliche Verbrechen wird auf der Grundlage von Mustern in vorhandenen Daten errechnet. Damit arbeiten die Algorithmen nur so gut, wie ihre Datenbasis es zulässt. Auch stellt sich die Frage, welche Arten von Verbrechen sich vorhersagen lassen – und welche nicht. Letztendlich müssen menschliche Analysten die Handlungsentscheidungen treffen. Predictive Policing könnte ohne die Verwendung personenbezogener Daten eine sinnvolle und legitime Ergänzung der polizeilichen Arbeit darstellen. Ob sich der Einsatz aber wirklich auszahlt, kann nur durch Langzeitstudien geklärt werden.</p>
<p>Titelbild: Tarot by Rirriz via <a href="https://pixabay.com/de/tarot-karten-verm%C3%B6gen-symbol-2414239/" target="_blank" rel="noopener noreferrer">Flickr</a>, <a href="https://creativecommons.org/publicdomain/zero/1.0/deed.de" target="_blank" rel="noopener noreferrer">CC0</a></p>
<p><img decoding="async" class="alignleft wp-image-139428 size-medium" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011-305x53.png" alt="CC-Lizenz-630x110" width="305" height="53" /></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/predictive-policing-in-deutschland-153215/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Der Algorithmus als Richter</title>
		<link>https://www.politik-digital.de/news/der-algorithmus-als-richter-149738/</link>
					<comments>https://www.politik-digital.de/news/der-algorithmus-als-richter-149738/#comments</comments>
		
		<dc:creator><![CDATA[Katharina Schuchmann]]></dc:creator>
		<pubDate>Thu, 21 Jul 2016 10:13:29 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Algorithmus]]></category>
		<category><![CDATA[Automatisierung]]></category>
		<category><![CDATA[Gerechtigkeit]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Niederlande]]></category>
		<category><![CDATA[Justiz]]></category>
		<category><![CDATA[Online-Service]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=149738</guid>

					<description><![CDATA[Automatisierte Justiz – ein Projekt aus den Niederlanden zeigt, wie es gehen kann und hat damit Erfolg. Der Robo-Richter ist [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="http://politik-digital.de/wp-content/uploads/download1.jpg"><img decoding="async" class="alignnone wp-image-149739 size-full" src="http://politik-digital.de/wp-content/uploads/download1.jpg" alt="Frau mit Justizapp" width="640" height="280" /></a>Automatisierte Justiz – ein Projekt aus den Niederlanden zeigt, wie es gehen kann und hat damit Erfolg. Der Robo-Richter ist wohl nur eine Frage der Zeit. Sind Justizirrtümer damit eine Sache der Vergangenheit?</p>
<p>Menschliche Entscheidungen sind häufig intuitiv und leicht beeinflussbar. Wir sind schlecht darin, Wahrscheinlichkeiten korrekt zu beurteilen und über- bzw. unterschätzen daher gerne Risiken. Wird zum Beispiel anhaltend über Terror berichtet, neigen wir dazu, unser eigenes Anschlagsrisiko grob zu überschätzen. Auch orientieren wir uns an gewissen Fixpunkten, unabhängig von ihrer tatsächlichen Relevanz. Man denke nur an den Impuls, etwas zu kaufen, weil es stark reduziert ist, ganz abgesehen von der Angemessenheit des Original- bzw. vermeintlichen Schnäppchenpreises. Während man in solchen Fällen vielleicht noch von einer gewissen Korrelation zwischen Preis und Qualität ausgehen kann, lässt sich ein solcher Anker-Effekt auch bei gänzlich unabhängigen Werten feststellen.</p>
<p>So wurden Richter_innen in einem Versuch gebeten zwei, den Probanden unbekannterweise gezinkte, Würfel zu werfen, deren Summe immer nur drei oder neun war. Anschließend präsentierte man ihnen einen fiktiven Fall von Ladendiebstahl mit der Frage, ob sie ein Strafmaß höher oder niedriger als die gerade gewürfelte Summe aussprechen würden. Solche, die eine Summe von neun gewürfelt hatten sprachen sich im Schnitt für eine Strafe von 8 Monaten aus. Die, deren Summe drei gezeigt hatte, im Mittel für 5 Monate. Nun kann man argumentieren, dass diese Tendenz zu Fehleinschätzungen uns vermehrt nur in solchen Momenten beeinflusst, in denen wir nicht ernsthaft nachdenken. Dennoch stellt sich die Frage, ob sich solche Willkür nicht unterbinden lässt.</p>
<h3>Scheidung per Algorithmus</h3>
<p>Zumindest in vergleichsweise simplen Entscheidungsprozessen könnten Algorithmen hier Abhilfe schaffen. Ein Pilotprojekt bildet das niederländische System Rechtswijzer (übersetzt soviel wie: „Wegweiser zum Recht“), ein komplett automatisierter Streitschlichtungsservice. Derzeit bietet das Portal Lösungen in Scheidungsangelegenheiten und bei Beschwerden zu Online-Käufen an. Module zur Schlichtung von Mietstreitigkeiten sowie zur Konfliktlösung am Arbeitsplatz sollen folgen. Nutzer_innen des Systems füllen umfangreiche Fragebögen zu unter anderem ihrer Vermögenssituation, Bildungsstand und gemeinsamen Kindern aus, auf Basis derer ein Algorithmus dann einen Lösungsvorschlag macht. Angeblich schalten nur fünf Prozent der Nutzer_innen darüber hinaus noch menschliche Richter_innen ein.</p>
<p>Vorteile solcher Schlichtungsalgorithmen sind neben der Reduktion der gerade genannten Willkür auch die Vereinheitlichung von Gebühren – so zahlen Paare 100€ für die Nutzung des Portals und weitere 360€, wenn menschliche Schlichter_innen eingeschaltet werden sollen. In Deutschland sind Rechtsanwaltskosten zwar klaren Regelungen unterworfen, steigen aber proportional mit dem Streitwert der Scheidung, der sich aus Einkommen und Vermögen der Parteien zusammensetzt. Ein Wert von unter 100€ oder auch 460€ ist so kaum erreichbar. Durch eine Vereinheitlichung per Algorithmus würden Scheidungen also jeden das Gleiche kosten – ob Fixkosten allerdings gerechter sind als proportional steigende, sei dahingestellt. Was außer Frage steht ist, dass eine Vereinheitlichung der Entscheidungskriterien, unabhängig von menschlichen Launen, zu bevorzugen ist.</p>
<p>Die Limitationen einer solchen Plattform sind allerdings schnell erreicht. Nur in Streitsituationen zwischen zwei Parteien, in denen es um eindeutig kalkulierbare Variablen geht, kann ein Algorithmus einen Lösungsvorschlag abgeben. Ist ein Prozess zu komplex oder beispielsweise eine richterliche Auslegung einer bestimmten Beweislage gefragt, könnte man aber dennoch von der preisreduzierenden Dimension einer zumindest Teilautomatisierung bestimmter Formalien profitieren.</p>
<h3>Zukunft der Justiz?</h3>
<p>Andererseits scheint es nur eine Frage der Zeit, bis lernende Algorithmen in der Lage sind, Urteile über weniger eindeutige Verhältnisse zu fällen. Vorstellbar ist, dass mittelfristig eine Umkehr der Verhältnisse stattfindet: anstatt, dass der Algorithmus Jurist_innen unterstützt, unterstützen diese den Algorithmus, füttern ihn mit Meinungen und menschlichen Einschätzungen und lassen ihn ansonsten walten.</p>
<p>Natürlich wäre so ein Algorithmus aber nur so gut wie seine Programmierer_innen und die zugrundeliegenden Daten. Brächte man einem Algorithmus beispielsweise bei, Entscheidungen auf Basis historischer Urteilssprechungen zu fällen, würden systematische Fehler in dieser Datenbank konsequenterweise auch von der Maschine übernommen. Hindernisse dieser Art sind aber keineswegs unüberbrückbar. Auch die gesellschaftliche Akzeptanz vollautomatisierter Gerichtsurteile ist vorstellbar, insbesondere, wenn sie schrittweise eingeführt wird – in diesem Sinne ist Rechtswijzer nicht nur ein Wegweiser zum Recht, sondern auch ein Wegweiser in die Zukunft.</p>
<p>Titelbild: <a href="https://unsplash.com/photos/Trs-x4A3z1w" target="_blank" rel="noopener noreferrer">Frau mit Smartphone</a> via <a href="https://unsplash.com/" target="_blank" rel="noopener noreferrer">unsplash</a> von <a href="https://unsplash.com/@bchild311" target="_blank" rel="noopener noreferrer">Benjamin Child</a>,<br />
<a href="https://pixabay.com/en/smartphone-mobile-phone-app-icon-569515/" target="_blank" rel="noopener noreferrer">Smartphone</a> via <a href="https://pixabay.com/" target="_blank" rel="noopener noreferrer">pixabay</a> von <a href="https://pixabay.com/en/users/geralt-9301/" target="_blank" rel="noopener noreferrer">geralt</a>, <span class="licensetpl_attr">licenced <a href="https://creativecommons.org/publicdomain/zero/1.0/deed.en" target="_blank" rel="noopener noreferrer">CC0</a>, </span>[bearbeitet]</p>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" target="_blank" rel="noopener noreferrer"><img decoding="async" class="alignleft  wp-image-139428" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" alt="CC-Lizenz-630x1101" width="441" height="77" /></a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/der-algorithmus-als-richter-149738/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>Leben und Sterben des Internets &#8211; Digitale Presseschau 14/2014</title>
		<link>https://www.politik-digital.de/news/leben-und-sterben-des-internets-digitale-presseschau-142014-138899/</link>
					<comments>https://www.politik-digital.de/news/leben-und-sterben-des-internets-digitale-presseschau-142014-138899/#respond</comments>
		
		<dc:creator><![CDATA[Florian Schmitt]]></dc:creator>
		<pubDate>Fri, 04 Apr 2014 15:01:43 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Presseschau]]></category>
		<category><![CDATA[Instrumentelle Vernunft]]></category>
		<category><![CDATA[Sascha Lobo]]></category>
		<category><![CDATA[Maschine]]></category>
		<category><![CDATA[Richard Gutjahr]]></category>
		<category><![CDATA[Robert M. Maier]]></category>
		<category><![CDATA[Deutscher Bundestag]]></category>
		<category><![CDATA[Volker Schütz]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[Algorithmus]]></category>
		<category><![CDATA[William Binney]]></category>
		<category><![CDATA[Kontrolle]]></category>
		<category><![CDATA[Daten]]></category>
		<category><![CDATA[NSA]]></category>
		<category><![CDATA[Geheimdienste]]></category>
		<category><![CDATA[Macht]]></category>
		<category><![CDATA[Monopol]]></category>
		<category><![CDATA[Berechnung]]></category>
		<category><![CDATA[Untersuchungsausschuss]]></category>
		<category><![CDATA[Datenökonomie]]></category>
		<category><![CDATA[Patrick Breitenbach]]></category>
		<category><![CDATA[Datensammeln]]></category>
		<category><![CDATA[Kapitalismus]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=138899</guid>

					<description><![CDATA[Drohnen als Herrscher über Leben und Tod: Mit diesem Horrorszenario befeuert Sascha Lobo die Debatte über Big Data und Überwachung. [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Drohnen als Herrscher über Leben und Tod: Mit diesem Horrorszenario befeuert Sascha Lobo die Debatte über Big Data und Überwachung. Patrick Breitenbach hingegen meint, dass zwischen verschiedenen Formen des Datensammelns unterschieden werden müsse. Immerhin scheint Lobo die Kränkung überwunden zu haben und fordert nun wieder einen neuen Internetoptimismus. Wir hatten da schon was geahnt. Das Internet und die Ansichten darüber pendeln zwischen Skeptizismus und Optimismus – also gewissermaßen zwischen Leben, Sterben und Auferstehung.</p>
<h3>Video der Woche</h3>
<p><iframe hcb-fetch-image-from="https://www.youtube.com/watch?v=n_qFlNrN2uo" title="NSA-Ausschuss: Statements der Mitglieder am 03.04.2014" width="840" height="473" src="https://www.youtube.com/embed/n_qFlNrN2uo?feature=oembed&#038;width=840&#038;height=1000&#038;discover=1" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe><br />
Der NSA-Untersuchungsausschuss hat sich diese Woche im Deutschen Bundestag konstituiert. Ob Edward Snowden als Zeuge geladen wird und was sich die Politiker von dem Ausschuss erwarten, sehen Sie in den Statements des Videos der Woche.</p>
<h3><a href="http://gutjahr.biz/2014/03/nsa-binney/" target="_blank" rel="noopener noreferrer">Kein Ende der Verstrickungen von und mit der NSA</a></h3>
<p>Der langjährige Mitarbeiter der NSA William Binney liefert im Interview mit Richard Gutjahr interessante Einsichten in Ziele und Motive des Geheimdienstes. Er hält eine echte Kontrolle der Geheimdienste durch die Politik für realisierbar – dazu müsse es aber einen politischen Willen geben.</p>
<h3><a href="http://www.faz.net/aktuell/feuilleton/sascha-lobo-digitale-daten-gefaehrden-leben-und-freiheit-12874992.html" target="_blank" rel="noopener noreferrer">Überwachung &#8211; Datenökonomie: Gefahr für die Freiheit?</a></h3>
<p>Mit der „Ökonomie der Überwachung“ setzt sich Sascha Lobo auseinander. Am Beispiel von Drohnen, die in naher Zukunft autonom entscheiden könnten, welche menschlichen Ziele zu erfassen und zu töten sind, setzt er zu einer fundamentalen Kritik der Datenakkumulation im Internet der „digitalen Supermächte“ an.<br />
Eine erste <a href="http://www.horizont.net/aktuell/digital/pages/protected/Digitale-Totalueberwachung-Sascha-Lobos-zornige-Abrechnung-mit-der-Werbeindustrie_119949.html" target="_blank" rel="noopener noreferrer">Entgegnung stammt von Volker Schütz</a>. Er wirft Lobo Undifferenziertheit vor, weil dieser mit dem Schlagwort „Big Data“ Datenerhebungen der NSA mit denen von Werbeagenturen über einen Kamm schere.<br />
Auch <a href="http://blog.karlshochschule.de/2014/04/02/was-ist-der-sinn-und-zweck-von-uberwachung-big-data-etc/" target="_blank" rel="noopener noreferrer">Patrick Breitenbach plädiert für eine genauere Unterscheidung</a>, welche Daten aus welchem Grund von wem gesammelt werden. Doch in einem zentralen Punkt ist er sich mit Lobo einig: Wir dürfen unsere Entscheidungen nicht Algorithmen überlassen.</p>
<h3><a href="http://www.faz.net/aktuell/feuilleton/debatten/weltmacht-google-ist-gefahr-fuer-die-gesellschaft-12877120.html" target="_blank" rel="noopener noreferrer">Macht von Quasi-Monopolen im Internet &#8211; Gefahr für die Gesellschaft?</a></h3>
<p>Robert M. Maier, Gründer der mittlerweile zum Springer-Konzern gehörenden Visual Meta GmbH, kritisiert in einem Artikel die Macht von Google und das Streben nach Marktführerschaft in immer weiteren ökonomischen Sparten – sei es bei Google als Suchmaschine, mobilen Betriebssystemen wie Android, Browsern wie Chrome, Online-Videodiensten wie YouTube oder Mailprogrammen wie Gmail. Er fordert eine diesbezügliche Kontrolle durch Politik, Kartellbehörden sowie gesellschaftliche Akteure.<br />
Bild: Screenshot Video<br />
<a href="http://politik-digital.de/4-berliner-hinterhofgespraech-ist-digital-besser-demokratie-und-buergerbeteiligung-im-netz/cc-lizenz-630x110/" rel="attachment wp-att-130752"><img decoding="async" alt="CC-Lizenz-630x110" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x1101.png" width="407" height="71" /></a><br />
&nbsp;</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/leben-und-sterben-des-internets-digitale-presseschau-142014-138899/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Druck machen &#8211; Digitale Presseschau KW 26</title>
		<link>https://www.politik-digital.de/news/druck-machen-digitale-presseschau-kw-26-129819/</link>
					<comments>https://www.politik-digital.de/news/druck-machen-digitale-presseschau-kw-26-129819/#respond</comments>
		
		<dc:creator><![CDATA[Ludwig Lagershausen]]></dc:creator>
		<pubDate>Fri, 28 Jun 2013 15:10:04 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Presseschau]]></category>
		<category><![CDATA[Geheimdienst]]></category>
		<category><![CDATA[Johannes Scheller]]></category>
		<category><![CDATA[NSA]]></category>
		<category><![CDATA[Tempora]]></category>
		<category><![CDATA[Netzneutralität]]></category>
		<category><![CDATA[Demokratie]]></category>
		<category><![CDATA[De-Mail]]></category>
		<category><![CDATA[PRISM]]></category>
		<category><![CDATA[Edward Snowden]]></category>
		<category><![CDATA[Hacker]]></category>
		<category><![CDATA[Algorithmus]]></category>
		<category><![CDATA[Überwachung]]></category>
		<category><![CDATA[Elektrischer Reporter]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[Hardware-Hacking]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=129819</guid>

					<description><![CDATA[Nimmt die Überwachung allmählich überhand? Dank PRISM und Tempora wissen Geheimdienste detailreich über das Leben der Bürgerinnen und Bürger Bescheid. [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Nimmt die Überwachung allmählich überhand? Dank PRISM und Tempora wissen Geheimdienste detailreich über das Leben der Bürgerinnen und Bürger Bescheid. Ein europäisches „Gegeninternet“ scheint zwar auf den ersten Blick eine reizvolle Idee, ist aber leider fernab jeder Realität. Aber man kann auch im Kleinen aktiv werden: „Runter von der Couch!&#8221; heißt es also, Meinung sagen, für die eigenen Rechte einstehen, Druck machen! Edward Snowden und Johannes Scheller machen es uns vor. Nicht weniger als die schwer greifbare „Zivilgesellschaft“ steht in der Pflicht, sich zu wehren.</p>
<h3>Video der Woche</h3>
<p>https://www.youtube.com/watch?v=AZdkdLxYbeo<br />
Die Wüstenstadt Vegas unweit der vielen Casinos und Amüsiermeilen im berühmten namensverwandten Las Vegas war lange ein verlassener Ort am Ende der Welt. Doch neuerdings ist er auch die Wiege vieler Internet-Start-Ups, die von hier aus die virtuelle Welt erobern wollen. Man will hier ein neues Sillicon Valley schaffen und aus der brachliegenden Innenstadt von Vegas einen lebendigen Ort des Zusammenlebens machen.<br />
Sonntag zur Prime-Time: Na klar, Tatort. Aber ist das alles realistisch, was wir dort gezeigt bekommen? @TatortWatch geht dem via Twitter nach und lädt zum Diskutieren über strittige Szenen ein.<br />
Aus ein paar Tuningarbeiten an einer Strickmaschine entwickelte Fabienne Serièrre eine neue Art des Hackens: Hardware-Hacking, also das Bauen von Maschinen, die es nicht zu kaufen gibt. Statt Computerprogramme umzuprogrammieren, verhelfen Hardware-Hacker technischen Geräten zu neuen Funktionalitäten.</p>
<h3><a href="http://blog.zdf.de/hyperland/2013/06/prism-debatte-kein-google-ist-auch-keine-loesung/" target="_blank" rel="noopener noreferrer">Unrealistisch</a></h3>
<p>Dass Google Weltmarktführer unten den Suchmaschinen (und vielen weiteren Anwendungen) ist, hat sich nicht erst seit Überwachungsenthüllungen à la PRISM herumgesprochen. Wie man sich allerdings gegen diese US-amerikanischen Spionagepraktiken effektiv zur Wehr setzen kann, darauf gibt es bisher gehaltvolle. SPD-Innenpolitiker Dieter Wiefelspütz empört sich über das Vorgehen der US-Geheimdienste und fordert eine „europäische Alternative zu den amerikanischen Internet-Konzernen“, vor allem aus Datenschutzgründen. Doch wie könnten derartige Alternativen aussehen? Oder besser gefragt: Würden solche Alternativen auf dem Markt überhaupt eine Überlebenschance haben?</p>
<h3><a href="http://www.heise.de/newsticker/meldung/Akut-gefaehrdet-Netzneutralitaet-im-Petitionsausschuss-1895492.html" target="_blank" rel="noopener noreferrer">Schwammig und unpräzise</a></h3>
<p>Da war er nun, der große Tag, an dem die Netzneutralität gerettet werden sollte: Am vergangenen Montag durfte der 19-jährige Student Johannes Scheller, der im Mai eine Petition zur gesetzlichen Festschreibung der Netzneutralität startete und fast 80.000 Mitschriften sammelte, sein Anliegen im Petitionsausschuss des Deutschen Bundestags vortragen. Dabei kritisierte er insbesondere, dass die bereits bestehende Verordnungsinitiative nicht weit genug ginge und durch „schwammige und unpräzise“ Formulierungen die Pläne der Telekom nicht verhindern könne. Scheller mahnte weiter, dass ohne gesetzliche Netzneutralität Internetprovider oder Geldbeutel darüber entscheiden, welche Inhalte der User im Netz noch zu Gesicht bekäme. Regierungspolitiker signalisierten Bereitschaft, die Forderung in ein Gesetz zu gießenund verwiesen auf „europäische Bestimmungen“ sowie darauf, dass das bestehende Telekommunikationsgesetz nicht ausreiche. Der aktuelle Entwurf könnte noch vor der Bundestagswahl im September beschlossen werden.</p>
<h3><a href="http://www.freitag.de/autoren/herrtheobald/auslegware-freiheitsrechte-1" target="_blank" rel="noopener noreferrer">Freiheit und Grenzen des Internets</a></h3>
<p>PRISM ist mächtig, Tempora scheint noch mächtiger zu sein. 200 Glasfaserverbindungen wurden angezapft, um Informationen aus E-Mails, sozialen Medien, Telefongesprächen und sonstigen Online-Informationen abzuschöpfen, alles zum Wohle unserer Sicherheit, behaupten die Regierungen. Und wer kontrolliert, dass die Daten tatsächlich nach 30 Tagen gelöscht werden? Wer versichert dem Bürger, dass seine Daten nicht missbraucht werden? Wer verbürgt sich dafür, dass dank Tempora und PRISM tatsächlich Terrorangriffe verhindert wurden? Trotz der Notwendigkeit, zur Abwehr terroristischer Angriffe Informationen aus dem Internet auszuwerten, hält „Herrtheobald“ auf freitag.de eine Debatte über Freiheiten und Grenzen des Internets und der staatlichen Überwachung für dringend nötig. Denn die oft bemühten Freiheitsrechte würden immer nur so ausgelegt, wie es Regierungen und Bürgern gerade passe.</p>
<h3><a href="http://www.taz.de/!118673/" target="_blank" rel="noopener noreferrer">Keine Angst vor Hackern</a></h3>
<p>Hacker. Das klingt nach Angriff, Cyberwar, IT-Terrorismus. Man denkt an verrückt gewordene, übernatürlich anmutende Nerds, die Systeme lahm legen und die Welt in ihren Grundfesten erschüttern wollen. Viele Menschen haben Angst vor Hackern, weil sie die Macht haben, sich Zugang zu unseren PCs zu verschaffen oder Konzerne ins Nirvana zu schicken. Ingo Arzt hält diese Sichtweise in der taz für deutlich übertrieben. Die wahre Macht ginge von Administratoren aus. Der lebende Beweis sei Edward Snowden. Er hatte die Macht, die Weltmacht USA bis auf die Knochen zu blamieren. Snowden und seinen moralischen Bedenken sei es zu verdanken, dass Licht ins Dunkel der Überwachungspraktiken und Spionage kommt.</p>
<h3><a href="http://www.zeit.de/2013/27/snowden-grundrechte-freiheitsrechte" target="_blank" rel="noopener noreferrer">Gefahr für die Demokratie</a></h3>
<p>Die Abhörprogramme Tempora und PRISM zeigen deutlich, wie sehr die Regierungen den Bürgern misstrauen und sich gegen das eigene Volk verschwören. Unschuldsvermutung? Grundrecht auf Privatsphäre und Unverletzbarkeit der Wohnung? Fehlanzeige, jede/r ist verdächtig. Auch wenn die Datensammelwut den nationalen Gesetzen in den USA und Großbritannien formal entsprechen mag, die Demokratie und entscheidende rechtsstaatliche Grundsätze unterliegen der Gefahr, ausgehöhlt zu werden, mahnt Malte Lehming auf Zeit Online. Doch wie kann diese außer Kontrolle geratene Maschinerie gebändigt werden? Wo gilt es, die Grenze zu setzen zwischen Sicherheit auf der einen und Freiheit auf der anderen Seite? Der Bürger müsse aktiv werden, fordert der Autor. Denn letztlich sei er es, der von der wahnwitzigen Überwachung betroffen ist. Europa sei nun am Zug, die Stimme zu heben.</p>
<h3><a href="http://www.zeit.de/digital/datenschutz/2013-04/harper-reed-datenschutz" target="_blank" rel="noopener noreferrer"> </a></h3>
<div><img decoding="async" title="Klett-Cotta " alt="" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x110.png" width="403" height="70" /></div>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/druck-machen-digitale-presseschau-kw-26-129819/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Herrliche Offenheit &#8211; Digitale Presseschau KW 25</title>
		<link>https://www.politik-digital.de/news/herrliche-offenheit-digitale-presseschau-kw-25-129638/</link>
					<comments>https://www.politik-digital.de/news/herrliche-offenheit-digitale-presseschau-kw-25-129638/#respond</comments>
		
		<dc:creator><![CDATA[Ludwig Lagershausen]]></dc:creator>
		<pubDate>Fri, 21 Jun 2013 14:21:53 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Presseschau]]></category>
		<category><![CDATA[Netzneutralität]]></category>
		<category><![CDATA[Breitband]]></category>
		<category><![CDATA[Recep Tayyip Erdogan]]></category>
		<category><![CDATA[Algorithmus]]></category>
		<category><![CDATA[Bot]]></category>
		<category><![CDATA[Überwachung]]></category>
		<category><![CDATA[Neuland]]></category>
		<category><![CDATA[Telekom]]></category>
		<category><![CDATA[Angela Merkel]]></category>
		<category><![CDATA[Pressefreiheit]]></category>
		<category><![CDATA[Wikipedia]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=129638</guid>

					<description><![CDATA[Tja, wie läuft das jetzt eigentlich genau mit dem Internet? Angela Merkel weiß es nicht, und gibt das auch zu. [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Tja, wie läuft das jetzt eigentlich genau mit dem Internet? Angela Merkel weiß es nicht, und gibt das auch zu. Viele viele andere wissen es auch nicht, geben das aber nicht zu. Erdogans Untertanen dürfen vieles gar nicht wissen, was Erdogan ganz offen zugibt. Hohe Innenpolitiker würden zugegebenermaßen gerne mehr wissen. Algorithmen wissen so manches, was man garnicht wissen kann. Und Wikipedia weiß  ja eh alles. Wer würde nicht zugeben, dort schon mal etwas nachgeforscht zu haben? Nun, viele Menschen aus ländlichen Regionen würden das sicherlich gerne zugeben, doch ohne Breitband surft es sich zugegebenermaßen etwas langsam. Schön, dass die Telekom wenigstens offen zugibt, nur das Beste für alle zu wollen, wie auch immer das aussehen mag.</p>
<h3>Video der Woche</h3>
<p><iframe hcb-fetch-image-from="http://www.youtube.com/watch?v=xY-oLwdprZg&amp;a" title="NDR-Zapp: Umkämpft - Telekom will ein Zwei-Klassen-Netz" width="840" height="473" src="https://www.youtube.com/embed/xY-oLwdprZg?feature=oembed&#038;width=840&#038;height=1000&#038;discover=1" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe><br />
Internet im Kuhstall – klingt komisch, ist aber so. Der moderne Landwirt – als altmodischer, technikängstlicher Landwirt ist das wirtschaftliche Leben heutzutage beinahe unmöglich – nutzt das Internet für seine Betriebsführung wie jede andere Firma auch. In vielen ländlichen Regionen kennt man schnelles Internet („Breitband“) allerdings höchstens vom Hörensagen. So muss dann erst eine Bürgergesellschaft gegründet werden, um auf sich aufmerksam zu machen. Fast wie ein Hohn klingen in diesem Zusammenhang die Zwei-Klassen-Netz-Pläne der Telekom. &#8216;Managed Service&#8217; und ähnliche Methoden, mit denen die Bonner sich vor allem des Wunsches des doppelten Kassierens und weniger der Demokratisierung des Internets verdächtig machen, bestimmen seit Wochen die rosa Schlagzeilen. Doch so langsam beginnt es auch in der Politik zu rumoren, der Ruf nach Netzneutralität scheint nach und nach auch in die äußeren Zonen des Machtepizentrums vorzudringen. Hoffentlich nicht nur aus wahlkämpferischen Gründen.</p>
<h3><a href="http://www.zeit.de/digital/datenschutz/2013-06/mustererkennung-algorithmen-terror" target="_blank" rel="noopener noreferrer">Der Verdacht liegt näher, als wir denken</a></h3>
<p>Um Überwachungsmaßnahmen, wie etwa aktuell die Internetüberwachung, zu rechtfertigen, wird häufig behauptet, dass Bürger, die nichts zu verbergen hätten, auch nichts befürchten müssten. Doch moderne Überwachungs- und Durchsuchungstechniken werden von Algorithmen gesteuert, die nach bestimmten, festgelegten Merkmalen und Verhaltensweisen suchen. So entstehen bestimmte Raster und Profile, nach denen gefahndet wird. Es ist demnach nicht unwahrscheinlich, dass derartige Suchmechanismen dazu führen, dass völlig unbescholtene Bürger rein zufällig ins Visier der Justiz geraten, die mit einem Verbrechen, das aufgeklärt oder vereitelt werden soll, nicht das Geringste zu tun haben. Ohne jegliche Verbindung zu einem Verbrechen oder dessen Drahtzieher kann man also leicht als verdächtig gelten, nur aufgrund zufälliger, den Suchkriterien entsprechender Merkmale. Dass Täter auf diese Weise identifiziert werden können, lässt sich kaum bestreiten. Die große Gefahr besteht jedoch darin, dass so quasi jeder ohne eigenes Zutun des Mordes verdächtigt werden kann; die Unschuldsvermutung – ein wesentlicher Grundpfeiler unseres Rechtsstaatsprinzips &#8211; ist da leicht ausgehebelt. Im Klartext: Wer etwas zu befürchten hat, entscheidet nicht das Individuum selbst, sondern allein der Suchalgorithmus und die gesuchten Merkmale.</p>
<h3><a href="http://www.sueddeutsche.de/digital/wikipedia-bots-schreiben-das-netz-voll-1.1699380" target="_blank" rel="noopener noreferrer">Selfmade?</a></h3>
<p>Lexika in Buchform, so könnte man sagen, sind eher ein Replik der Vergangenheit. Dank Wikipedia ist &#8216;Wissen&#8217; in digitaler Form immer und (mit mobilem Internet) überall verfügbar. Und dies auch ohne das zweifellos schöne, aber dennoch umständliche Ritual, ein dickbändiges, schweres Lexikon mit sich herumschleppen zu müssen. Die für jederman frei zugänglichen und kostenlosen Artikel in Wikipedia, so das Konzept, werden von Nutzern für Nutzer, also von Menschenhand, geschrieben, aufbereitet und gepflegt. Dies soll laut der Wikipedia Deutschland für alle deutschsprachigen Wikipedia-Artikel gelten. Doch andernorts scheint man auf diese klassische Arbeitsweise weniger Wert zu legen: Immer mehr Artikel werden, allen voran in kleineren Version des Formats, automatisch generiert. Diese Textroboter, sogenannte Bots, erstellen eigenständig Beiträge, ganz ohne Beteiligung menschlicher Schreiberlinge. So entstehen zwar sehr viele Artikel und das digitale Lexikon wächst und wächst – in der niederländischen und schwedischen Version sollen mehr als die Hälfte aller Einträge automatisch erstellt worden sein – jedoch leidet hierunter allzu oft die Qualität, da die Bot-Artikel meist sehr kurz sind und keine umfassenden Informationen enthalten. Die Frage lautet hier: Ist es gut, die Quantität auf Kosten der Qualität auszubauen? Weniger ist bekanntlich manchmal mehr&#8230;</p>
<h3><a href="http://www.cicero.de/blog/christian-jakubetz-unhipster/2013-06-18/ein-euro-google-ist-schwachsinn" target="_blank" rel="noopener noreferrer">Schotten dicht!</a></h3>
<p>Ganz Deutschland nutzt Facebook, Google, Skype, allesamt amerikanische Konzerne. Ganz Deutschland wundert sich, dass US-amerikanische Sicherheitsbehörden mit ihrem digitalen Durchsuchungsbefehl PRISM deutsche Nutzer überwachen und deren Daten ausspähen. Überwachung finden viele hiesige Politiker zwar gut, aber dies möchte man bitteschön selber machen und nicht den Amerikanern überlassen. Doch wie soll das geschehen, wenn deutsche Nutzer amerikanischen Firmen ihr Privatleben offenbaren? Nun kam die Idee auf den Tisch, ein deutsches Internet zu bauen. Deutsches Google, deutsches Facebook, so ließe sich die Überwachung angenehm von zuhause aus regeln. Die Innen- und Finanzressorts würden sicherlich übereinkommen, dass sich sowas auch ohne größere Probleme finanzieren lasse, es diene ja der allgemeinen Sicherheit. Dass dieser Vorschlag Unsinn ist, ließe sich schon allein daran ablesen, dass wohl nur die wenigsten Nutzer bereit wären, ein deutsches oder auch nur europäisches Internet zu nutzen, meint Christian Jakubetz im Cicero. Der Globalisierung und weltweiten Vernetzung sei Dank, dass viele Menschen Freunde in allen Teilen der Welt haben, mit denen, danke Facebook, der Kontakt so einfach und bequem ist wie nie zuvor. Die deutsche Politik wäre gut beraten, in der Internetsicherheitsdebatte Geld und Know-How in Medienkompetenz und digitale Bildung zu investieren, statt noch mehr Kontrolle zu fordern.</p>
<h3><a href="http://www.friedemannkarig.de/blog/2013/06/19/neuland/" target="_blank" rel="noopener noreferrer">Alles glänzt! So schön neu!</a></h3>
<p>Bundeskanzlerin Dr. Angela Merkel spricht vor US-Präsident Barak Obama und der weiteren Weltöffentlichkeit folgenden Satz: <a href="http://www.youtube.com/watch?v=DWqXsXR8h4E" target="_blank" rel="noopener noreferrer">„Das Internet ist für uns alle Neuland“.</a> Und das im Jahr 2013. Dass dies höhnisch, belustigend und fassungslos kommentiert würde, damit hätte man zumindest rechnen können; immerhin gibt es das Internet ja nun schon ein paar Tage länger. Von daher: Nein, das Internet ist nicht &#8216;neu&#8217;, denn wir kennen (?)  und benutzen es Tag für Tag, seit weit mehr als 10 Jahren. Dennoch ist diese Behauptung nicht ganz so aus der Luft gegriffen wie es auf den ersten Blick scheint. Heute aktuelle und allgegenwärtige Angebote wie Facebook und Twitter können, zumindest der Nutzung in Deutschland nach, noch auf keine allzu lange Unternehmensgeschichte verweisen; Netzpolitik hat sich so richtig erst in der laufenden Legislaturperiode als ernstzunehmendes Politikfeld etabliert und wer die Zukunft dieses sich jeden Tag rasant wandelnden Mediums vorhersagen möchte, muss wahlweise schon wahrsagerische Fähigkeiten haben oder seine Thesen bald revidieren. Bei genauer Betrachtung ist das Internet ein Raum, wo niemand so ganz allumfassend Bescheid weiß. Das tut Friedemann Karig sicher auch nicht, liefert aber Ansätze, die helfen könnten, Neuland zu Bekanntland zu machen: mehr miteinander statt übereinander reden, mehr echte Vermittlungsarbeit, weniger Besserwisserei, weniger Meinungshoheit und mehr Verständnis. Das könnte ein Weg sein, durch Aufklärung Akzeptanz und Transparenz zu schaffen. Einfach mal ein bisschen runter kommen von dem hohen Ross! Einen Versuch sollte es jedenfalls wert sein.</p>
<h3><a href="http://netzwertig.com/2013/06/17/bloggen-aus-istanbul-der-bittere-geschmack-der-selbstzensur/" target="_blank" rel="noopener noreferrer">Bitterer Beigeschmack</a></h3>
<p>Die Demonstrationen gegen den türkischen Präsidenten Erdogan sind seit Wochen eines der meistbeachtetsten Themen in den Nachrichten. Dafür sorgen vor allem Journalisten, die vor Ort über die Lage berichten. Doch ist auch bekannt, dass es Erdogan mit Dingen wie der Meinungs- und Pressefreiheit nicht so genau nimmt. Der türkischen Justiz wird vorgeworfen, des öfteren Verfasser kritischer Texte hinter schwedische Gardinen zu schicken oder zumindest auf Verdacht festzusetzen. Im Zuge der Protestwelle, wo etliche Menschen via Social Media über die Zustände um Polizeigewalt und Regierungskritik berichten, verschwimmt die Grenze zwischen journalistischer und privater Dokumentation zusehends. Der beängstigende Gedanke, die Neugierde der türkischen Polizei auf sich lenken zu können, liegt da nicht sehr fern. Martin Weigert, der in den letzten Wochen journalistisch in der Türkei tätig war, ließ Vorsicht walten, schaltete nahe seiner Unterkunft seine Mobilfunkverbindung aus und nutze für WLAN-Aktivitäten nur noch ausländische VPN-Services. Anlass war weniger die Angst um die eigene Sicherheit als vielmehr die Frage, wie man sich als „Privat-Berichterstatter in einem Umfeld aus staatlicher Zensur und Repression vor ungewollten Zugriffen und Abhöraktionen schützen könne. Schön ist solch eine Erfahrung sicher nicht, Weigerts Artikel könnte aber dazu beitragen, hierzulande als selbstverständlich wahrgenommene Privilegien wie Pressefreiheit und das Äußern der eigenen Meinung noch mehr schätzen zu lernen.</p>
<h3><a href="http://www.zeit.de/digital/datenschutz/2013-04/harper-reed-datenschutz" target="_blank" rel="noopener noreferrer"> </a></h3>
<div><img decoding="async" title="Klett-Cotta " alt="" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x110.png" width="403" height="70" /></div>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/herrliche-offenheit-digitale-presseschau-kw-25-129638/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
