<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Algorithm Watch &#8211; politik-digital</title>
	<atom:link href="https://www.politik-digital.de/tag/algorithm-watch/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.politik-digital.de</link>
	<description>Information, Kommunikation, Partizipation</description>
	<lastBuildDate>Fri, 02 Mar 2018 15:19:27 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.politik-digital.de/wp-content/uploads/2020/07/cropped-Politik-Digital_Logo_Sign_Gradient-512-32x32.png</url>
	<title>Algorithm Watch &#8211; politik-digital</title>
	<link>https://www.politik-digital.de</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Bundestagswahl 2017: Kaum Unterschiede bei der Google-Suche</title>
		<link>https://www.politik-digital.de/news/kaum-unterschiede-bei-der-google-suche-154299/</link>
					<comments>https://www.politik-digital.de/news/kaum-unterschiede-bei-der-google-suche-154299/#respond</comments>
		
		<dc:creator><![CDATA[Marie Adolph]]></dc:creator>
		<pubDate>Fri, 02 Mar 2018 15:19:27 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Bundestagswahl 2017]]></category>
		<category><![CDATA[Filteralgorithmen]]></category>
		<category><![CDATA[Studie]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[Filterbubble]]></category>
		<category><![CDATA[Algorithmen]]></category>
		<category><![CDATA[Algorithm Watch]]></category>
		<category><![CDATA[Filterblase]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=154299</guid>

					<description><![CDATA[Personalisiert Google meine politischen Suchergebnisse? Werden meinem Nachbar andere Inhalte angezeigt, wenn er im Internet nach der gleichen Partei sucht? [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="http://politik-digital.de/wp-content/uploads/Algorithmen.jpeg"><img fetchpriority="high" decoding="async" class="alignnone size-full wp-image-154300" src="http://politik-digital.de/wp-content/uploads/Algorithmen.jpeg" alt="Anzeige turi.indd" width="640" height="280" /></a>Personalisiert Google meine politischen Suchergebnisse? Werden meinem Nachbar andere Inhalte angezeigt, wenn er im Internet nach der gleichen Partei sucht? Nein, die Ergebnisse gleichen sich, lautet das Fazit einer Studie die am Mittwoch in Berlin vorgestellt wurde.</p>
<p>Die Studie „Datenspende: Google und die Bundestagwahl 2017“, eine Kooperation der Initiative „AlgorithmWatch“ und sechs Landesmedienanstalten, beschäftigte sich mit der personalisierten Google-Suche zum Thema „Bundestagswahl 2017“. Das im Juli 2017 gestartete Projekt wertete mithilfe eines Browserplugins die Suchanfragen 4.384 freiwilliger Teilnehmer aus und untersuchte ihre Google-Suchergebnisse auf Gemeinsamkeiten und Unterschiede. Erhalten Personen mit unterschiedlichen Meinungen und Vorlieben, die gleichen Suchergebnisse auf Google?</p>
<h3>Personensuche weist gleiches Ergebnis auf</h3>
<p>Katharina Zweig, Professorin an der TU Kaiserslautern stellte das überraschende Ergebnis vor. Die Filterblasentheorie von Eli Pariser aus dem Jahr 2011 konnte nach Auswertung der Daten nicht bestätigt werden. Begriffe wie „Cem Özdemir“, „Alexander Gauland“  oder „Angela Merkel“, die zeitgleich gesucht wurden, entsprachen bis zu neunzig Prozent den Suchergebnissen der anderen Teilnehmer.</p>
<p>Im Vergleich zur Personensuche wichen die Suchergebnisse nach Parteien stärker voneinander ab. Doch auch hier konnte die Theorie nicht bestätigt werden, da die Teilnehmern aufgrund regionaler Unterschiede abweichende Links zu ortsansässigen Parteien erhielten. Von einem personalisierten Suchergebnis kann daher nicht gesprochen werden.</p>
<h3>Filterblasen und Echokammern beeinflussen unsere Denkweise</h3>
<p>Die Filterblasentheorie von Eli Pariser aus dem Jahr 2011 findet zumindest in der Google-Suche von politischen Begriffen keine Anwendung.</p>
<p>Der Begriff einer „Filterblase“ wird im Zusammenhang mit Algorithmen häufig verwendet. Eli Pariser, ein amerikanischer Polit-Aktivist löste mit dem Begriff  der „Filter Bubble“ eine weltweite Debatte über personalisierte Inhalte im Internet aus. Die Idee: Durch das Klickverhalten im Netz offenbaren Menschen ihre Vorlieben. Ein Algorithmus lernt aus dem Verhalten des Nutzers und bietet ihm Inhalte an, die seinen Interessen und Präferenzen entsprechen, sprich: der Algorithmus personalisiert sein Suchergebnis. Dadurch sieht der Nutzer durch einen Filter nur noch den Ausschnitt der Welt, der mit seinen eigenen Interessen, Präferenzen und Überzeugungen übereinstimmt.  Allerdings ist die Theorie der Filter-Bubble umstritten, <a href="http://www.spiegel.de/netzwelt/web/twitter-datenanalyse-wir-hatten-eine-falsche-vorstellung-von-der-filterblase-a-1185406.html" target="_blank" rel="noopener noreferrer">auch Untersuchungen über Twitter haben die Vermutung nahgelegt, dass Nutzer weniger isoliert von anderen Ansichten sind, wie es Pariser zuvor annahm.</a></p>
<h3>Zukünftige Maßnahmen für den Umgang mit Algorithmen</h3>
<p>Nach der Präsentation der Ergebnisse ging es auf dem Podium um den Umgang mit Algorithmen. Da diese beim Sortieren von Informationen unverzichtbar sind, muss zukünftig gewährleistet sein, dass sie nicht missbräuchlich arbeiten.  Die Einführung eines „Algorithmen-TÜV“ soll die Aufgabe haben, Mindeststandards wie Transparenz, Berichtspflicht und Diskriminierungsfreiheit zu garantieren. Siegfried Schneider, Präsident der bayerischen Landeszentrale für neue Medien, fordert eine bessere Kontrolle von Personen, die Algorithmen entwickeln. Darüber hinaus soll der neue Beruf des „Data Scientist“ darauf abzielen, die Auswirkungen programmierter Algorithmen zu bewerten.  Die geforderte Transparenz stehe im Interesse der Verbraucher- und Persönlichkeitsrechte. Aber auch  Nutzer müssen an ihrer Medienkompetenz arbeiten und ihr Wissen über die Effekte algorithmischer Filterung vertiefen.</p>
<p>Dr. Anja Zimmer , Direktorin der Medienanstalt Berlin-Brandenburg (mabb), machte abschließend deutlich, dass die Studie lediglich eine Momentaufnahme eines begrenzten Zeitraums über einen Anbieter (hier: Google) ist. Man dürfe das Ergebnis nicht verallgemeinern und auf andere Anbieter wie Facebook projizieren. Auch für Google könnte das Ergebnis bei der nächsten Wahl schon anders ausfallen.</p>
<p>Titelbild: Veranstaltung &#8220;Algorithmen transparent machen&#8221;, bearbeitet</p>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizens-305x531.png"><img decoding="async" class="alignnone size-full wp-image-123698" src="http://politik-digital.de/wp-content/uploads/CC-Lizens-305x531.png" alt="Creative Commons Lizenz" width="305" height="53" /></a></p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/kaum-unterschiede-bei-der-google-suche-154299/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Internet Governance Forum Deutschland 2016: zur Ethik der Digitalisierung</title>
		<link>https://www.politik-digital.de/news/internet-governance-forum-deutschland-2016-zur-ethik-der-digitalisierung-150211/</link>
					<comments>https://www.politik-digital.de/news/internet-governance-forum-deutschland-2016-zur-ethik-der-digitalisierung-150211/#respond</comments>
		
		<dc:creator><![CDATA[Jana Donat]]></dc:creator>
		<pubDate>Mon, 12 Sep 2016 15:01:33 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Transparenz]]></category>
		<category><![CDATA[Objektivität]]></category>
		<category><![CDATA[Neutralität]]></category>
		<category><![CDATA[Transdisziplinarität]]></category>
		<category><![CDATA[Internet Governance Forum]]></category>
		<category><![CDATA[Wertekodex]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Algorithmen]]></category>
		<category><![CDATA[Algorithm Watch]]></category>
		<category><![CDATA[Ethik der Digitalisierung]]></category>
		<category><![CDATA[Encoding Values]]></category>
		<category><![CDATA[Ethik von Protokollen]]></category>
		<category><![CDATA[IGF-D 2016]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=150211</guid>

					<description><![CDATA[Personalisiertes E-Shopping, selbstfahrende Autos und Fitness-Tracker: einen bequemeren Alltag können Algorithmen sicherlich ermöglichen. Der Preis dafür ist aber hoch. So [&#8230;]]]></description>
										<content:encoded><![CDATA[<figure id="attachment_150213" aria-describedby="caption-attachment-150213" style="width: 640px" class="wp-caption alignnone"><a href="http://politik-digital.de/wp-content/uploads/DSC07712.jpg"><img decoding="async" class="size-full wp-image-150213" src="http://politik-digital.de/wp-content/uploads/DSC07712.jpg" alt="Panel des Internet Governance Forum Deutschland 2016 &quot;Encoding Values&quot;" width="640" height="280" /></a><figcaption id="caption-attachment-150213" class="wp-caption-text">Im Panel (v.l.n.r.): Matthias Spielkamp (iRights/Algorithm Watch), Dr. Mirja Kühlewind (Transport AD/ETH Zürich, IETF), Constanze Bürger (Bundesministerium der Innern), Prof. Dr. Iris Eisenberger (BOKU Uni Wien), Dr. Benedikt Köhler (DataLion), Moderatorin Lena-Sophie Müller (Initiative D21)</figcaption></figure>
<p><strong>Personalisiertes E-Shopping, selbstfahrende Autos und Fitness-Tracker: einen bequemeren Alltag können Algorithmen sicherlich ermöglichen. Der Preis dafür ist aber hoch. So diskutierten letzten Freitag auch die TeilnehmerInnen des Panels „Encoding Values – zur Ethik von Protokollen“ des diesjährigen Internet Governance Forum Deutschland (IGF-D) über die Ethik digitaler Gesellschaften und die technische (Un)Kontrollierbarkeit von Algorithmen.</strong></p>
<p>Kontrovers diskutierten die Panellisten auf dem IGF-D 2016 über die Objektivität von Algorithmen und die Frage, ob die Einführung eines allgemein gültigen Wertekodexes eine Lösung darstelle. Einigkeit herrschte jedoch in einem anderen Punkt: „Wie es wirklich funktioniert, wissen wir, glaub ich, alle nicht“, konstatierte Dr. Benedikt Köhler (<a href="http://datalion.com/de/home_de/" target="_blank" rel="noopener noreferrer">DataLion</a>). Dr. Mirja Kühlewind von der Internet Engineering Taskforce (<a href="https://www.ietf.org/" target="_blank" rel="noopener noreferrer">IETF</a>) stellte fest, dass „seit Snowden“ die Frage „Wie können wir Werte schützen?“ in das Zentrum der Aufmerksamkeit gerückt ist. Auch wenn die Ethik der Digitalisierung immer mehr zum Thema wird, so bleiben dennoch essentielle Fragen rund um die (Un)Kontrollierbarkeit von Algorithmen unbeantwortet.</p>
<h3>Kann ein Algorithmus überhaupt neutral sein?</h3>
<p>In der Debatte um die theoretische Möglichkeit digitaler Neutralität und Objektivität betonte Matthias Spielkamp (<a href="https://irights.info/" target="_blank" rel="noopener noreferrer">iRights</a>/<a href="http://algorithmwatch.org/" target="_blank" rel="noopener noreferrer">Algorithm Watch</a>), dass (halb-)automatisierte Prozesse auch nicht unbedingt wertneutral seien. Als Beispiel führte Spielkamp die Nutzung einer Software in den USA an, die helfen sollte, zukünftige Kriminelle zu prognostizieren. <a href="https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing" target="_blank" rel="noopener noreferrer">Das Ergebnis</a>: technisch generierte Parteilichkeit durch Algorithmen. Menschen mit schwarzer Hautfarbe wurden automatisch als höheres Risiko eingestuft. Zugleich warf Spielkamp die Frage auf, inwiefern eine alternative Handhabung durch Menschen überhaupt weniger diskriminierend verlaufen könne.</p>
<p>Mehr Informationen preiszugeben als beabsichtigt – die Erfahrung hat auch Benedikt Köhler bereits gemacht, durch Algorithmen. Im Sinne einer <a href="http://blog.metaroll.de/wp-content/uploads/2007/09/blogrolls.PNG" target="_blank" rel="noopener noreferrer">Kartographie</a> der deutschsprachigen Blogosphäre stellte er Blogvernetzungen – d.h. ein Blog verlinkt einen weiteren Blog – graphisch dar. Letztendlich kontaktierten ihn kartographierte Blogger, warum sie denn als nah vernetzt zu privat-bekannten BloggerInnen dargestellt wurden, ohne jemals einen Link zu ihrem Blog gesetzt zu haben. Köhler betonte, einen „neutralen Algorithmus“ genutzt zu haben. Dennoch: lediglich ähnliche NutzerInnen zweier Blogs können bereits private Vernetzungen andeuten. So verbinde ein neutraler Algorithmus auch Dinge auf eine Weise, die niemand steuern kann, geschweige denn offenbaren will. Köhler zufolge „macht das der Algorithmus selbst“. Auch den transparenten Umgang mit Algorithmen erachtet Köhler daher als „notwendig“, aber „nicht hinreichend“. Das sah Professorin Dr. Iris Eisenberger (<a href="https://www.boku.ac.at/" target="_blank" rel="noopener noreferrer">BOKU Uni Wien</a>) anders, da sie bereits zuvor den entscheidenden Schritt in Richtung Neutralität ausmache. Für sie sei ein Algorithmus bereits wertend, sobald sich ein Unternehmen für einen speziellen Algorithmus entscheide.</p>
<h3>Die Lösung für „interdisziplinären Analphabetismus“: Transdisziplinarität</h3>
<p>Moderatorin Lena-Sophie Müller (<a href="http://www.initiatived21.de/" target="_blank" rel="noopener noreferrer">Initiative D21</a>) fragte in die Runde, wie die Ethik nun zu den richtigen AkteurInnen kommt sowie von ihnen gestaltet und verinnerlicht werden könne. Constanze Bürger (<a href="http://www.bmi.bund.de/DE/Home/startseite_node.html" target="_blank" rel="noopener noreferrer">Bundesministerium des Innern</a>) stellte dazu fest, dass es einen allgemein gültigen Wertekodex bislang noch nicht gebe und sprach sich für einen internationalen Wertekatalog der digitalen Welt aus. Während die Regierungen derzeit keinen ethischen Gestaltungsrahmen setzen, sind nicht-staatliche Akteure schon einen Schritt weiter: Matthias Spielkamp berichtete, dass bei Algorithm Watch bereits ein <a href="http://algorithmwatch.org/das-adm-manifest-the-adm-manifesto/" target="_blank" rel="noopener noreferrer">Kriterienkatalog</a> erstellt wurde. Nichtsdestotrotz bleibe in der ethischen Diskussion die Frage eine ganz andere, so Spielkamp: „Man sollte sich als Gesellschaft fragen, welche Innovationen überhaupt eingeführt werden sollten, wenn sie nicht kontrollierbar scheinen. Manche Dinge sollte man nicht zulassen.“</p>
<p>Mit diesem Statement saß Spielkamp nicht alleine im Panel. Auch Prof. Dr. Iris Eisenberger plädierte für „Regeln von Menschen für Maschinen“ und diagnostiziert in der heutigen Zeit einen „interdisziplinären Analphabetismus“. Viele Menschen wüssten gar nicht, dass sie Werte implementieren. Zu Beginn gelte es, eine riesige Kommunikationslücke zwischen verschiedenen Disziplinen zu schließen, so Eisenberger. Dem schloss sich Spielkamp an, indem er sich abschließend für eine transdisziplinäre Betrachtung aussprach, die es bald geben werde und müsse – „aber nicht nächste Woche.“</p>
<p>Titelbild: Panel des IGF-D 2016 &#8220;Encoding Values&#8221; von <a href="http://politik-digital.de/user/jdonat/" target="_blank" rel="noopener noreferrer">Jana Donat</a> / <a href="http://politik-digital.de/" target="_blank" rel="noopener noreferrer">politik-digital.de</a>, licenced <a href="http://i0.wp.com/politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" target="_blank" rel="noopener noreferrer">CC BY SA 3.0</a></p>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" target="_blank" rel="noopener noreferrer"><img decoding="async" class="alignleft  wp-image-139428" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" alt="CC-Lizenz-630x1101" width="441" height="77" /></a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/internet-governance-forum-deutschland-2016-zur-ethik-der-digitalisierung-150211/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Wenn Algorithmen zu Entscheidern werden – AlgorithmWatch</title>
		<link>https://www.politik-digital.de/news/wenn-algorithmen-zu-entscheidern-werden-algorithmwatch-149194/</link>
					<comments>https://www.politik-digital.de/news/wenn-algorithmen-zu-entscheidern-werden-algorithmwatch-149194/#respond</comments>
		
		<dc:creator><![CDATA[Oliver Wolff]]></dc:creator>
		<pubDate>Wed, 04 May 2016 12:30:22 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Digitale Gesellschaft]]></category>
		<category><![CDATA[Demokratie]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Algorithmen]]></category>
		<category><![CDATA[Algorithm Watch]]></category>
		<category><![CDATA[Digitale Prozesse]]></category>
		<category><![CDATA[Entscheidungsfindung]]></category>
		<category><![CDATA[Internetdemokratie]]></category>
		<category><![CDATA[re:publica TEN]]></category>
		<category><![CDATA[Netzpolitik]]></category>
		<category><![CDATA[Wegweiser]]></category>
		<category><![CDATA[re:publica]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=149194</guid>

					<description><![CDATA[&#8220;KundInnen, die diesen Artikel kauften, kauften auch (… ).&#8221; Algorithmen erinnern uns und leiten unsere Wege im Internet. Doch Algorithmen [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="http://politik-digital.de/news/wenn-algorithmen-zu-entscheidern-werden-algorithmwatch-149194/attachment/ball-457334_640-1/" rel="attachment wp-att-149197"><img decoding="async" class="alignnone size-full wp-image-149197" src="http://politik-digital.de/wp-content/uploads/ball-457334_640-1.jpg" alt="ball-457334_640 (1)" width="640" height="280" /></a>&#8220;KundInnen, die diesen Artikel kauften, kauften auch (… ).&#8221; Algorithmen erinnern uns und leiten unsere Wege im Internet. Doch Algorithmen vergessen nie. Das machen sich Regierungen und die öffentliche Hand zu Nutze. Die Initiative AlgorithmWatch hat diese Gefahren erkannt und nimmt ihre gesellschaftliche und technologische Relevanz unter die Lupe.</p>
<h3>Algorithmen als Straßenschilder im Netz</h3>
<p>Algorithmen bestimmen unsere Wege im Internet und unterstützen unser Surfverhalten im Netz – das ist vielen NutzerInnen bewusst. Die Prozesse helfen uns Entscheidungen in den unüberschaubaren Weiten des Internet zu treffen, sie bestimmen Richtungen, geben Vorschläge. Für NutzerInnen verspricht das viele Vorteile, denn oft wird uns genau das vorgeschlagen, was wir sowieso schon gesucht hatten.</p>
<p>So grenzenlos wie die Weiten des Internet sind aber auch die Möglichkeiten algorithmischer Entscheidungsfindung. Von selbstfahrenden Autos über internetfähige Kühlschränke bis Smart-Homes, auch Unternehmen greifen immer häufiger auf Algorithmen zurück. Im Umkehrschluss heißt das aber auch: Je weniger wir eigene Entscheidungen treffen müssen, desto mehr gewinnt der Algorithmus die Oberhand in unserem Handeln.</p>
<h3>Verkehrsregeln auch für Algorithmen</h3>
<p>Der Einfluss den Algorithmen auf unsere Gesellschaft haben wird immer deutlicher. Besonders dort, wo Regierungen und die öffentliche Hand sich ebenfalls diese Prozesse zu nutzen machen wollen, sollten wir aber nicht unreflektiert zuschauen. Die Initiative <a href="http://algorithmwatch.org/" target="_blank" rel="noopener noreferrer">AlgorithmWatch</a>, die sich um Prof. Dr. Katharina Zweig von der TU Kaiserslautern gegründet hat, sieht hier deutliche Gefahren. Das Forscherteam setzt sich interdisziplinär aus JournalistInnen, SozialwissenschaftlerInnen und InformatikerInnen zusammen.</p>
<p>Ziel von AlgorithmWatch ist es, NutzerInnen dafür zu sensibilisieren, dass die vermeintlich objektiven, technischen Prozesse immer menschengemacht sind und damit bestimmten Werturteilen folgen. Aus diesem Grund nimmt das Team gesellschaftlich relevante Technologien unter die Lupe und zeigt uns, wie wichtig demokratische Kontrolle ist. Welchen gesellschaftlichen Einfluss können Algorithmen auf unsere politische Entscheidungsfindung haben? Wer kontrolliert sie, wie werden sie entwickelt?</p>
<p>Pünktlich zur re:publica TEN (02. bis 04. Mai) geht ihre <a href="http://algorithmwatch.org/">Plattform</a> nun online. Im Rahmen der Netzpolitik-Konferenz geht das Team um AlgorithmWatch erstmals diesen komplexen Fragen nach und versucht Antworten darauf zu finden.</p>
<p><span class="licensetpl_attr"><a href="https://pixabay.com/de/kugel-rund-ball-bin%C3%A4rball-457334/" target="_blank" rel="noopener noreferrer">Titelbild</a>: <a class="external" href="https://pixabay.com/de/users/geralt-9301/">geralt</a> via <a class="external" href="https://pixabay.com/">Pixabay</a> licensed <a class="external" href="http://creativecommons.org/publicdomain/zero/1.0/">CCO</a> </span></p>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" target="_blank" rel="noopener noreferrer"><img decoding="async" class="alignleft  wp-image-139428" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" alt="CC-Lizenz-630x1101" width="441" height="77" /></a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/wenn-algorithmen-zu-entscheidern-werden-algorithmwatch-149194/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
