<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Algorithmen &#8211; politik-digital</title>
	<atom:link href="https://www.politik-digital.de/tag/algorithmen/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.politik-digital.de</link>
	<description>Information, Kommunikation, Partizipation</description>
	<lastBuildDate>Fri, 08 Nov 2024 07:25:03 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.politik-digital.de/wp-content/uploads/2020/07/cropped-Politik-Digital_Logo_Sign_Gradient-512-32x32.png</url>
	<title>Algorithmen &#8211; politik-digital</title>
	<link>https://www.politik-digital.de</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Wenn Algorithmen richten &#8211; Künstliche Intelligenz in der Rechtsprechung auf dem Vormarsch</title>
		<link>https://www.politik-digital.de/news/algorithmen-richten-ki-rechtsprechung-165100/</link>
					<comments>https://www.politik-digital.de/news/algorithmen-richten-ki-rechtsprechung-165100/#respond</comments>
		
		<dc:creator><![CDATA[Johannes Beger]]></dc:creator>
		<pubDate>Tue, 13 Feb 2024 10:44:30 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Themenseite]]></category>
		<category><![CDATA[Algorithmen]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Rechtsprechung]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<guid isPermaLink="false">https://www.politik-digital.de/?p=165100</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-0"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column text-lead" ><p>Expert*innen beschäftigen sich zurzeit mit der Frage, ob in Bereichen wie der Justiz menschliche Urteilskraft unabdingbar sei. In dem Diskurs werden oft ethische und moralische Richtlinien angeführt, die mit der Vorstellung verknüpft sind, dass ein Algorithmus nicht über Gerechtigkeit und Moral entscheiden kann. Die Hoffnung besteht, dass KI-Systeme sogar dabei helfen können, gerechtere Urteile zu sprechen.</p>
</div><div class="uncode_text_column" ><p>Ohne Zweifel gibt es erschreckende Beispiele, die die Schattenseite individueller menschlicher Entscheidungshoheit im Rechtsystem offenbaren. <a href="https://www.pnas.org/doi/10.1073/pnas.1018033108">In einer prominenten Studie der New Yorker Columbia University und der israelischen Ben-Gurion-Universität</a> wurden mehr als tausend Urteile von acht unterschiedlichen Richter*innen an zwei israelischen Gerichten untersucht. Das Ergebnis macht in eindrucksvoller Weise die inhärente Willkür von verschiedenen Einflussfaktoren auf die Richter*innen in gerichtlichen Prozessen deutlich. Die Forscher*innen untersuchten, ob die Angeklagt*innen eine Bewährungs- anstatt einer angedrohten Haftstrafe erhalten. Das Ergebnis ist erstaunlich und sorgte nicht nur im soziologischen Diskurs für Aufmerksamkeit. Es stellte sich nämlich heraus, dass Richter*innen vor einer Mittagspause dazu tendieren, im Sinne des Status Quo zu urteilen, und dieser Effekt nach eingenommenen Mittagessen verblasst. Mit anderen Worten sind Gerichtsurteile davon beeinflusst, ob der oder die zuständige*r Richter*in <em>hangry</em> ist oder nicht.</p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span>Zwischen Nützlichkeit und impliziten Gefahren</span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ><p>Hinsichtlich der Ergebnisse der Studie scheint eine Utilisierung von emotionslosen, algorithmus-basierten KIs auf den ersten Blick sehr hilfreich. Die Mathematikprofessorin Hanna Fry identifiziert in ihrem Buch <em>Hello World &#8211; Was Algorithmen können und wie sie unser Leben verändern</em> verschiedene gerichtliche und anwaltliche Prozesse, bei denen künstliche Intelligenz bereits heute eine Rolle spielt. Zum Beispiel benutzen Anwält*innen innovative Instrumente, um Verträge zu erstellen oder lassen sich bei der Beurteilung und Einordnung von Beweisen unterstützen. Des Weiteren können sogenannte <em>Language Processing Models</em> Anwälte dabei unterstützen, <a href="https://www.researchgate.net/publication/358187814_The_Impacts_of_Artificial_Intelligence_on_Research_in_the_Legal_Profession">Vergleichsfälle und frühere Urteile zu recherchieren</a>. Dadurch können in manchen Fällen die Anwaltskosten signifikant gesenkt und somit der Zugang zu rechtlichem Beistand für viele erleichtert werden. Außerdem unterstützen KI-Systeme die Richter*innen bei der Einschätzung über die Wahrscheinlichkeit der Rückfälligkeit von Straftäter*innen durch die Auswertung von demografischen und personenbezogenen Daten oder schlagen passende Interventionsprogramme vor. In den USA sind diese sogenannten <em>Risk Assessment Tools</em> <a href="https://www.technologyreview.com/2019/01/21/137783/algorithms-criminal-justice-ai/">bereits fester Bestandteil der juristischen Praxis</a>. Jedoch sorgen diese seit der Implementation für Kritik und es wird gemahnt, dass durch die Funktionsweise des maschinellen Lernens ebenfalls Ungerechtigkeiten entstehen können.</p>
</div><div class="uncode_text_column" ><p>Das Justizsystem weiß selber, dass es nicht perfekt ist. Jedoch ist nicht ohne Grund der oft postulierte Anspruch: <strong>Justitia ist blind</strong>. Nichtsdestotrotz gibt es ungerechte Urteile beziehungsweise viele Urteile fühlen sich ungerecht an. Ist dementsprechend ein blinder Algorithmus, dem keine Intuition und Gefühlszustände zugrunde liegen, letzten Endes ein besserer Richter? KI kann zwar bei der Entscheidungsfindung der Gerichte helfen, birgt aber bei der Anwendung in juristischen Prozessen selbst auch gewisse Fallstricke. Grundlage für KI-Systeme sind immer Daten. Bei der Anwendung innerhalb der Rechtsprechung werden diese Daten zumeist direkt aus der juristischen Praxis entnommen. Die Algorithmen werden mit den Ergebnissen von vergangenen Prozessen trainiert &#8211; dadurch werden beispielsweise rassistische und sexistische Einschätzungen menschlicher Entscheidungsträger*innen direkt übernommen und somit herrschende Ungleichheiten reproduziert. Beispielsweise beschreibt das Deutsche Institut für Menschenrechte in seinem Bericht <a href="https://www.institut-fuer-menschenrechte.de/fileadmin/Redaktion/Publikationen/Praxis_Rassismus_in_der_Strafverfolgung.pdf"><em>Rassismus in der Strafverfolgung</em></a> in mehreren Fachbeiträgen Missstände in den gerichtlichen Arbeitsabläufen. Die Expert*innen stellen fest, dass ausländische Kläger*innen aufgrund verschiedener Gründe wie zum Beispiel Sprachbarrieren oder Vorurteilen weniger ernst genommen werden, aber auch explizit rassistisch motivierte Straftaten oft nicht hart genug bestraft werden würden. Dieselben Gefahren werden von der Rechtsprofessorin Giula Gentile skizziert. Sie betrachtet die Voreingenommenheit der Datengrundlage als eine der größten Risiken. Es gäbe keine Garantie dafür, dass <a href="https://blogs.lse.ac.uk/politicsandpolicy/trial-by-artificial-intelligence-how-technology-is-reshaping-our-legal-system/">KI-gestützte Gerichte mit grundlegenden Werten wie der Unabhängigkeit der Justiz und letztlich der Rechtsstaatlichkeit im Einklang stehen</a>.</p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span></p></span><span><div>Algorithmen als Unterstützer der Justiz</div></span><span><p></span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ><p>Verschiedene Wissenschaftler*innen sind sich zumindest einig, dass schon heute künstliche Intelligenz dazu beiträgt, eine Effizienzsteigerung bei juristischen Arbeitsprozessen zu erzielen. Diese Entwicklung wird sicherlich in den kommenden Jahren zunehmen. Giula Gentile mahnt, dass es in dem Zusammenhang jetzt die Aufgabe von Expert*innen sei, festzustellen, was bei der Algorithmisierung der Justiz verloren geht. Sie betont, dass KI kein Allheilmittel für die Fehlerhaftigkeit von Gerichten sein kann.<br />
Außerdem hält sie fest, dass sich durch den Einfluss von Algorithmen auf die Rechtspraxis das Bild von Richter*innen und deren Autorität verändern wird. Das Bild der Rechtsprechung als moralische Institution wird sich zunehmend wandeln. Schon heute kann künstliche Intelligenz durch Einschätzungen und Prognosen der Justiz dabei helfen, gerechtere Urteile zu fällen. Beispielsweise werden Empfehlungen zur Bewährungsdauer artikuliert, passende Interventionsprogramme vorgeschlagen oder die Höhe von Kautionen empfohlen. Hanna Fry fasst das wie folgt zusammen: Algorithmen seien zwar noch nicht in der Lage, Beweise zu analysieren und Reue zu bewerten und somit über Schuld zu entscheiden &#8211; jedoch können Sie die Richter*innen dabei unterstützen möglichst viele Aspekte in ihr Urteil mit einzubeziehen. Die juristische Entscheidung bleibt somit weiterhin (noch) in menschlicher Hand. Ob und wie Künstliche Intelligenz in der Rechtsprechung unterstützt, sollte zumindest in der Begründung von Urteilen transparent gemacht werden müssen. So gibt es zwar Diskussionen darüber, wie eine Transparenz, insbesondere bei komplexen maschinellen Lernsystemen, sichergestellt werden kann, inwiefern diese Bedenken auch im <a href="https://artificialintelligenceact.eu/de/">AI Act</a> ausreichend aufgegriffen werden, bleibt abzuwarten.</p>
</div></div></div></div></div></div><script id="script-row-unique-0" data-row="script-row-unique-0" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-0"));</script></div></div></div><div data-parent="true" class="vc_row styleptrl--cc-module has-bg need-focus style-color-gyho-bg limit-width boxed-row row-container" id="row-unique-2"><div class="row unequal col-no-gutter single-top-padding single-bottom-padding single-h-padding row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-middle pos-center align_left column_parent col-lg-4 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding  unradius-std" ><div class="uncont" ><div class="uncode_text_column" ><p>Text: <a href="https://creativecommons.org/licenses/by-sa/3.0/de/" target="_blank" rel="noopener noreferrer">CC-BY-SA 3.0</a></p>
</div></div></div></div></div></div><div class="wpb_column pos-middle pos-center align_right column_parent col-lg-8 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p><img decoding="async" class="alignnone size-medium wp-image-159021" src="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png" alt="" width="300" height="52" srcset="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png 300w, https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1.png 305w" sizes="(max-width: 300px) 100vw, 300px" /></p>
</div></div></div></div></div></div><script id="script-row-unique-2" data-row="script-row-unique-2" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-2"));</script></div></div></div><div data-parent="true" class="vc_row row-container" id="row-unique-3"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p>Foto von <a href="https://www.vecteezy.com/members/armmypicca">Titiwoot Weerawong</a> auf <a href="https://www.vecteezy.com/photo/11568822-lawsuit-and-justice-concept-lawyer-working-with-partner-at-law">vecteezy</a></p>
</div></div></div></div></div></div><script id="script-row-unique-3" data-row="script-row-unique-3" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-3"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/algorithmen-richten-ki-rechtsprechung-165100/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Wie sehr beeinflussen Algorithmen unsere politischen Einstellungen?</title>
		<link>https://www.politik-digital.de/themen/neue-studien-zu-facebook-und-instagram-wie-sehr-beeinflussen-algorithmen-wirklich-unsere-politischen-einstellungen-164975/</link>
					<comments>https://www.politik-digital.de/themen/neue-studien-zu-facebook-und-instagram-wie-sehr-beeinflussen-algorithmen-wirklich-unsere-politischen-einstellungen-164975/#respond</comments>
		
		<dc:creator><![CDATA[Johanna Wegner]]></dc:creator>
		<pubDate>Fri, 25 Aug 2023 09:23:08 +0000</pubDate>
				<category><![CDATA[Themenseite]]></category>
		<category><![CDATA[Thema]]></category>
		<category><![CDATA[Themen]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[Social Media]]></category>
		<category><![CDATA[Instagram]]></category>
		<category><![CDATA[Algorithmen]]></category>
		<category><![CDATA[Meta]]></category>
		<category><![CDATA[Polarisierung]]></category>
		<category><![CDATA[Meinungsbildung]]></category>
		<guid isPermaLink="false">https://www.politik-digital.de/?p=164975</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-4"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column text-lead" ></p>
<p class="paragraph" style="margin: 0cm; vertical-align: baseline; text-align: left;"><span class="normaltextrun"><span style="font-family: 'Calibri',sans-serif;">Was sind eigentlich Algorithmen? Ein Algorithmus kann als eine Art Rezept betrachtet werden, das beschreibt, wie eine bestimmte Eingabesequenz (z.B. eine Suchanfrage) in eine Ausgabesequenz (Antwort) umgewandelt werden kann. Dazu brauchen Algorithmen klar definierte Regeln, um ein „Problem“ zu lösen. Das Problem dabei ist: Wer definiert diese Regeln? Sind diese Regeln vielleicht diskriminierend, intransparent, ethisch bedenklich oder manipulierend? </span></span><span class="eop"><span style="font-family: 'Calibri',sans-serif; color: #d13438;"> </span></span></p>
<p>
</div><div class="uncode_text_column" ></p>
<p class="paragraph" style="margin: 0cm; vertical-align: baseline; text-align: left;"><span class="normaltextrun"><span style="font-family: 'Calibri',sans-serif;">Oft werden deswegen die Algorithmen von sozialen Medien wie Facebook und Instagram kritisiert, weil sie zumindest intransparent sind und vermutet wird, dass sie für eine zunehmende Polarisierung der Gesellschaft mitverantwortlich sind. So wird die Entstehung von sogenannten Filterblasen in sozialen Netzwerken als potenzielle Bedrohung für die Demokratie betrachtet, da Algorithmen dort populistische und ideologisierte Meinungen verstärken können. Nun deuten aktuelle Studien darauf hin, dass die Auswirkungen von Algorithmen möglicherweise weniger gravierend sind, als sie in den vergangenen Jahren dargestellt wurden. Wie valide sind diese Erkenntnisse? In welchem Maße beeinflussen uns Algorithmen tatsächlich?</span></span><span class="eop"><span style="font-family: 'Calibri',sans-serif;"> </span></span></p>
<p>
</div><div class="uncode_text_column" ></p>
<p style="text-align: left;">In insgesamt 16 Studien wurde untersucht, welchen Einfluss Facebook und Instagram auf die Verbreitung von Falschinformationen, politische Beteiligung und Polarisierung haben. Die ersten Studien wurden jetzt in den wissenschaftlichen Zeitschriften „Science“ und „Nature“ veröffentlicht. Die Forschungsarbeit ist eine Kooperation zwischen externen Wissenschaftler*innen und Wissenschaftler*innen vom Konzern Meta, dem Mutterkonzern von Facebook und Instagram, der auch die Studien finanzierte. Es ist das erste Mal, dass das Unternehmen mit externen Forscher*innen kooperiert und ihnen Zugang zu Daten von ihren sozialen Plattformen zur Verfügung stellt.</p>
<p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span>Ergebnisse der Studien</span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ></p>
<p class="paragraph" style="margin: 0cm; vertical-align: baseline; text-align: left;"><span class="normaltextrun"><span style="font-family: 'Calibri',sans-serif;">An drei der Studien beteiligten sich freiwillig mehrere zehntausend US-amerikanische Facebook- und Instagram- Nutzer*innen. In Umfragen wurden die Studienteilnehmer*innen vor, während und nach den Studien zu ihren politischen Einstellungen befragt. Darüber hinaus wurde das Wissen über politische Standpunkte der Präsidentschaftskandidaten Donald Trump und Joe Biden abgefragt.</span></span><span class="eop"><span style="font-family: 'Calibri',sans-serif;"> </span></span></p>
<p>
</div><div class="uncode_text_column" ></p>
<p class="paragraph" style="margin: 0cm; vertical-align: baseline; text-align: left;"><span class="normaltextrun"><span style="font-family: 'Calibri',sans-serif;">Die </span></span><a href="https://www.science.org/doi/10.1126/science.abp9364" target="_blank" rel="noopener"><span class="normaltextrun"><span style="font-family: 'Calibri',sans-serif; color: #0563c1;">erste Studie</span></span></a><span class="normaltextrun"><span style="font-family: 'Calibri',sans-serif;"> untersuchte das Verhalten von knapp 23.400 Facebook Nutzer*innen und knapp 21.380 Instagram Nutzer*innen über einen Zeitraum von drei Monaten. Die Teilnehmer*innen wurden in zwei Gruppen aufgeteilt: Eine Hälfte sah die Beiträge auf ihren Startseiten in chronologischer Reihenfolge, während die andere Hälfte Beiträge erhielt, die vom bestehenden Algorithmus der Plattform ausgewählt wurden. </span></span><span class="eop"><span style="font-family: 'Calibri',sans-serif;"> </span></span></p>
<p class="paragraph" style="margin: 0cm; vertical-align: baseline; text-align: left;"><span class="normaltextrun"><span style="font-family: 'Calibri',sans-serif;">Die Hypothese war, dass eine Abkehr vom typischen Algorithmus der Plattformen zu einer Abschwächung der Polarisierung führen würde. Diese wurde anhand des Grades der Unterstützung für die Partei, mit der die Teilnehmer*innen sympathisierten, ermittelt. Jedoch konnte diese Hypothese nicht bestätigt werden.</span></span></p>
<p class="paragraph" style="margin: 0cm; vertical-align: baseline; text-align: left;"><span class="normaltextrun"><span style="font-family: 'Calibri',sans-serif;">Bei der chronologischen Anzeige des Feeds wurden den Nutzer*innen mehr politische Inhalte angezeigt. Auch der Anteil von politischen Inhalten aus nicht vertrauenswürdigen Quellen stieg im Vergleich zum algorithmischen Feed um mehr als zwei Drittel an. Obwohl das Verhalten der Nutzer*innen durch die chronologische Sortierung beeinflusst wurde – sie interagierten weniger mit den Beiträgen und verbrachten insgesamt weniger Zeit auf den Social-Media-Plattformen – konnte keine Reduzierung der Polarisierung oder ein Einfluss auf politisches Wissen und Überzeugungen festgestellt werden. Die erhebliche Bedeutung des Algorithmus für Meta aus ökonomischer Sicht wird aber deutlich, da dieser dazu beiträgt, Nutzer*innen länger auf der Plattform zu halten.</span></span><span class="eop"><span style="font-family: 'Calibri',sans-serif;"> </span></span></p>
<p>
</div><div class="uncode_text_column" ></p>
<p style="text-align: left;">Bei einer <a href="https://www.nature.com/articles/s41586-023-06297-w">zweiten Studie</a> wurde die Auswirkung von den sogenannten Filterblasen (oder auch Echokammern genannt) untersucht. Dafür wurde der Algorithmus für eine Gruppe der Teilnehmer*innen so angepasst, dass Inhalte aus gleichgesinnten Quellen im Feed nicht mehr priorisiert worden sind.  Inhalte, die der Meinung des Nutzers/ der Nutzerin entsprechen, wurden damit um rund ein Drittel reduziert. Infolgedessen wurden vermehrt Inhalte aus Quellen außerhalb der politischen Einstellung angezeigt. Auch hier konnte nicht festgestellt werden, dass die Änderung des Algorithmus Auswirkungen auf die politische Extremität, die Polarisierung und die Meinung zu den Präsidentschaftskandidaten hatte. Die Studienteilnehmer*innen interagierten weniger mit den Inhalten, die nicht ihren politischen Überzeugungen entsprachen, einen Einfluss auf ihre politischen Meinungen hatten diese aber nicht.</p>
<p>
</div><div class="uncode_text_column" ></p>
<p class="paragraph" style="margin: 0cm; vertical-align: baseline; text-align: left;"><span class="normaltextrun"><span style="font-family: 'Calibri',sans-serif;">In einer </span></span><a href="https://www.science.org/doi/10.1126/science.add8424" target="_blank" rel="noopener"><span class="normaltextrun"><span style="font-family: 'Calibri',sans-serif; color: #0563c1;">dritten Studie</span></span></a><span class="normaltextrun"><span style="font-family: 'Calibri',sans-serif;"> wurden bei einer Gruppe von Teilnehmer*innen alle Reshares (Beiträge, die im Feed auftauchen, weil sie von anderen Seiten geteilt wurden) aus dem Feed entfernt. Die Entfernung von Reshares führte zu einer Verringerung der Anzahl von Medienbeiträgen zu politischen Themen. Auch der Anteil an Posts aus nicht vertrauenswürdigen Quellen verringerte sich. Mit dem veränderten Algorithmus hatte sich das Nachrichtenwissen der Teilnehmer*innen verschlechtert und sie interagierten weniger mit den angezeigten Beiträgen. Auch in diesem Fall konnte aber kein Einfluss auf die Polarisierung oder politische Einstellungen der Proband*innen festgestellt werden. </span></span><span class="eop"><span style="font-family: 'Calibri',sans-serif;"> </span></span></p>
<p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span>Kritik</span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ></p>
<p class="paragraph" style="margin: 0cm; vertical-align: baseline; text-align: left;"><span class="normaltextrun"><span style="font-family: 'Calibri',sans-serif;">Alle Studien bestätigen, dass die Algorithmen der Plattformen von Meta die Inhalte beeinflussen, die von Nutzer*innen gesehen werden. Sie beeinflussen auch das Verhalten auf den Plattformen, zum Beispiel die Nutzungszeit oder die Interaktion mit Beiträgen. Es gibt aber wenig Beweise dafür, dass Algorithmen die Nutzer*innen auch außerhalb der Plattform beeinflussen. Denn es konnte nicht nachgewiesen werden, dass die Algorithmen von Meta einen Einfluss auf politische Überzeugung der Nutzer*innen haben oder zur Polarisierung beitragen. Die bisherigen Forschungsergebnisse werfen also ein positives Licht auf Meta.</span></span><span class="eop"><span style="font-family: 'Calibri',sans-serif;"> </span></span></p>
<p class="paragraph" style="margin: 0cm; vertical-align: baseline; text-align: left;"><span class="normaltextrun"><span style="font-family: 'Calibri',sans-serif;">Kritiker*innen betonen, dass Meta trotz der Ergebnisse nicht aus der Verantwortung gezogen werden darf. Die Studienergebnisse würden lediglich zeigen, dass die Problematik der zunehmenden gesellschaftlichen Polarisierung weitaus komplexer ist und nicht durch einfache Änderungen des Algorithmus lösbar. Auch Andreas Jungherr, Politikwissenschaftler an der Otto-Friedrich-Universität Bamberg zweifelt an der Übertragbarkeit der Studienergebnisse auf die gesamte Gesellschaft: „Die Ergebnisse der Studien sind nicht über den Einzelfall hinaus verallgemeinerbar. Sicherlich kann man mit den Autorinnen und Autoren sagen, dass auf Basis dieser Befunde keine Polarisierung in der Breite der an der Studie Teilnehmenden festzustellen ist. Darüber hinaus wird es dünn.“</span></span><span class="eop"><span style="font-family: 'Calibri',sans-serif;"> </span></span></p>
<p>
</div><div class="uncode_text_column" ></p>
<p class="paragraph" style="margin: 0cm; vertical-align: baseline; text-align: left;"><span class="normaltextrun"><span style="font-family: 'Calibri',sans-serif;">Weitere Kritiker*innen heben die Limitationen der Studien hervor: Zum einen sei der <b>Zeitpunkt</b> <b>und die Dauer der Studiendurchführung</b> (3 Monate) nicht optimal gewesen. Die Ergebnisse könnten anderes ausgefallen sein, wenn die Studien nicht während eines polarisierten Wahlkampfes und in dem spezifischen politischen Kontext der Vereinigten Staaten durchgeführt worden wären. Insbesondere im <b>US-amerikanischen Zweiparteiensystem</b> sei es schwierig, die politischen Überzeugungen der Wähler*innen zu verändern.</span></span><span class="eop"><span style="font-family: 'Calibri',sans-serif;"> </span></span></p>
<p>
</div><div class="uncode_text_column" ></p>
<p class="paragraph" style="margin: 0cm; vertical-align: baseline; text-align: left;"><span class="normaltextrun"><span style="font-family: 'Calibri',sans-serif;">Nach Andreas Jungherr seien die Studienergebnisse lediglich eine <b>Momentaufnahme</b>, da Newsfeed-Algorithmen sich ständig verändern. Auch Whistleblowerin Frances Haugen, die 2021 Tausende von internen Facebook-Dokumenten an die Börsenaufsichtsbehörde weitergab, betont, dass Meta bereits in den Monaten vor der US-Präsidentschaftswahl den Algorithmus der Plattformen verändert habe, um gegen extreme Beiträge vorzugehen. Eine generelle Aussage über den Einfluss von Instagram und Facebook in Wahlkämpfen könne also nicht getroffen werden.</span></span><span class="eop"><span style="font-family: 'Calibri',sans-serif;"> </span></span></p>
<p>
</div><div class="uncode_text_column" ></p>
<p class="paragraph" style="margin: 0cm; vertical-align: baseline; text-align: left;"><span class="normaltextrun"><span style="font-family: 'Calibri',sans-serif;">Zum anderen wird kritisiert, dass die Teilnahme an den ersten drei Studien auf <b>Freiwilligkeit </b>basierte. So sind die Studienteilnehmer*innen wahrscheinlich überdurchschnittlich aktive Nutzer*innen mit überdurchschnittlichem politischem Interesse. Daher können die Ergebnisse nicht unmittelbar auf die Gesamtbevölkerung übertragen werden. Frühere Studien zeigen bereits, dass bestimmte Gruppen (zum Beispiel ältere, eher rechte Männer) eher polarisierende Nachrichten in sozialen Medien konsumieren als andere. Eine Untersuchung der Auswirkung des Algorithmus auf solche spezifischen Gruppen könnte also lohnenswert sein. </span></span><span class="eop"><span style="font-family: 'Calibri',sans-serif;"> </span></span></p>
<p>
</div><div class="uncode_text_column" ></p>
<p style="text-align: left;">Die Leiter*innen der externen Forscher*innen der Studien Talia Jomini Stroud und Joshua A. Tucker kommentieren die Ergebnisse wie folgt: „Wir wissen jetzt, wie einflussreich der Algorithmus ist, aber wir wissen auch, dass eine Änderung des Algorithmus, und sei es auch nur für ein paar Monate, die politischen Einstellungen der Menschen wahrscheinlich nicht verändern wird. Was wir nicht wissen, ist, warum. Es könnte daran liegen, dass der Zeitraum, in dem die Algorithmen geändert wurden, nicht lang genug war, oder dass es diese Plattformen schon seit Jahrzehnten gibt, oder dass Facebook und Instagram zwar einflussreiche Informationsquellen sind, aber nicht die einzigen Quellen, die Menschen verwenden.&#8221;</p>
<p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span>Wie unabhängig sind die Ergebnisse?</span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ></p>
<p style="text-align: left;">Die Forschung zu den Auswirkungen von digitalen Plattformen ist schwierig, da der Zugang zu Daten von Social-Media-Plattformen begrenzt ist. Die Zusammenarbeit zwischen Meta und externen Wissenschaftler*innen verspricht erste Einblicke auf den Einfluss von Algorithmen. Wie bei jeder Industrie-Wissenschaftskooperation muss aber die Unabhängigkeit der Ergebnisse kritisch hinterfragt werden. Die Studien sind von Meta finanziert worden und der Konzern habe Einfluss auf das Forschungsteam und die Forschungsfragen gehabt.</p>
<p>
</div><div class="uncode_text_column" ></p>
<p class="paragraph" style="margin: 0cm; vertical-align: baseline; text-align: left;"><span class="normaltextrun"><span style="font-family: 'Calibri',sans-serif;">Die Ergebnisse der Studien stellen Meta positiv dar. Zudem haben die Studien nach Jungherr eine „große rhetorische Kraft“, durch ihren renommierten Publikationsort, die große Menge an Daten und die Beteiligung von renommierten Wissenschaftler*innen. Das sei besonders bedenklich, da die Studienergebnisse jetzt mit großer Wahrscheinlichkeit in der Öffentlichkeit und gegenüber der Politik benutzt werden, um Facebook und Instagram als ungefährlich darzustellen. Es sei zu erwarten, dass „die Grenzen der Generalisierbarkeit der Arbeiten dabei keine allzu große Beachtung finden“.</span></span><span class="eop"><span style="font-family: 'Calibri',sans-serif;"> </span></span></p>
<p>
</div><div class="uncode_text_column" ></p>
<p class="paragraph" style="margin: 0cm; vertical-align: baseline; text-align: left;"><span class="normaltextrun"><span style="font-family: 'Calibri',sans-serif;">Er betont die Notwendigkeit zur Entwicklung von Leitlinien für die Zusammenarbeit mit der Tech-Industrie. Nur so können Potenziale genutzt werden, aber gleichzeitig sichergestellt werden, dass Unternehmen keine Forschungsagenda prägen und Forschungsergebnisse nicht für PR-Zwecke manipuliert werden können.</span></span><span class="eop"><span style="font-family: 'Calibri',sans-serif;"> </span></span></p>
<p>
</div></div></div></div></div></div><script id="script-row-unique-4" data-row="script-row-unique-4" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-4"));</script></div></div></div><div data-parent="true" class="vc_row row-container" id="row-unique-5"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p>Foto von <a href="https://unsplash.com/de/@wflwong?utm_source=unsplash&amp;utm_medium=referral&amp;utm_content=creditCopyText">Warren</a> auf <a href="https://unsplash.com/de/fotos/4l-e7U6c5ek?utm_source=unsplash&amp;utm_medium=referral&amp;utm_content=creditCopyText">Unsplash</a>.</p>
</div></div></div></div></div></div><script id="script-row-unique-5" data-row="script-row-unique-5" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-5"));</script></div></div></div><div data-parent="true" class="vc_row styleptrl--cc-module has-bg need-focus style-color-gyho-bg limit-width boxed-row row-container" id="row-unique-7"><div class="row unequal col-no-gutter single-top-padding single-bottom-padding single-h-padding row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-middle pos-center align_left column_parent col-lg-4 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding  unradius-std" ><div class="uncont" ><div class="uncode_text_column" ><p>Text: <a href="https://creativecommons.org/licenses/by-sa/3.0/de/" target="_blank" rel="noopener noreferrer">CC-BY-SA 3.0</a></p>
</div></div></div></div></div></div><div class="wpb_column pos-middle pos-center align_right column_parent col-lg-8 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p><img decoding="async" class="alignnone size-medium wp-image-159021" src="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png" alt="" width="300" height="52" srcset="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png 300w, https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1.png 305w" sizes="(max-width: 300px) 100vw, 300px" /></p>
</div></div></div></div></div></div><script id="script-row-unique-7" data-row="script-row-unique-7" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-7"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/themen/neue-studien-zu-facebook-und-instagram-wie-sehr-beeinflussen-algorithmen-wirklich-unsere-politischen-einstellungen-164975/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Moralische Algorithmen</title>
		<link>https://www.politik-digital.de/news/datenethikkomission-veroeffentlicht-bericht-156923/</link>
					<comments>https://www.politik-digital.de/news/datenethikkomission-veroeffentlicht-bericht-156923/#respond</comments>
		
		<dc:creator><![CDATA[Cai Schultz]]></dc:creator>
		<pubDate>Wed, 23 Oct 2019 16:46:18 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Algorithmen]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Datenethikkommission]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=156923</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-8"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column text-lead" ><p>Die Datenethikkommission (DEK) hat in ihrem heute veröffentlichen Bericht Handlungsempfehlungen zum rechtlichen Umgang mit Daten und algorithmischen Systemen vorgelegt.</p>
</div><div class="uncode_text_column" ></p>
<h3>Anwendung und Bewusstsein</h3>
<p>Generell bemängelt die im Sommer 2018 von der Bundesregierung eingesetzte Kommission die Anwendung des bisher schon geltenden Rechts, vor allem der Datenschutz-Grundverordnung (DSGVO). Diese gibt dem Gesetzgeber zwar rechtliche Instrumente zur ethische Datennutzung an die Hand, die dieser aber nur ungenügend einsetzt. Darüber hinaus wünscht sich die Kommission ein verstärktes Bewusstsein der Akteure in den Behörden ob der bestehenden Möglichkeiten.</p>
<h3>Zentrale Forderungen</h3>
<p>Kernelement des Berichts ist ein Regulierungsansatz, der algorithmische Systeme in fünf verschiedene Risikostufen einordnet und dementsprechend Handlungsempfehlungen formuliert. Beginnend mit der ersten, risikoarmen Stufe ohne Regulierungsmaßnahmen über sukzessive Erhöhung von Kontrolle und Zulassung in den Stufen zwei, drei und vier, bis zur fünften und restriktivsten Stufe, die auch Vorbote vorsieht. Vor allem „Medienintermediäre“ wie Facebook oder YouTube sollen bei meinungsrelevanten Themen in höhere Risikobereiche eingestuft werden. Das Gleiche gilt für staatliche Akteure, vor allen in den sensiblen Bereichen der Rechtssetzung und Rechtsprechung. Hier hält die DEK eine umfassende Risikoabschätzung für algorithmische Systeme für notwendig.</p>
<p>Diese Einstufungen sollen in einem übergreifenden Modell eingebunden werden, welches weitere, verschiedene Elemente, wie eine Kennzeichungspflicht für algorithmische Systeme, Zugangsbestimmungen zu Informationen für Wissenschaftler*innen und Journalist*innen und eine digitale Erweiterung des Diskriminierungsgesetzes beinhaltet. Darüber hinaus schlägt die DEK Kompetenzerweiterungen im staatlichen und wirtschaftlichen Sektor in Form eines bundesweiten Kompetenzzentrums für algorithmische Systeme und Algorithmusbeauftragte für Unternehmen vor. Schließlich sollen die Maßnahmen auf EU-Ebene beschlossen und nationalstaatlich konkretisiert werden.</p>
<h3>Reaktionen</h3>
<p>Während Tabea Rößner und Konstantin von Notz von den Grünen wohlwollend <a href="https://gruen-digital.de/2019/10/bundesregierung-muss-vorschlaege-der-datenethikkommission-zuegig-umsetzen/" target="_blank" rel="noopener noreferrer">kommentieren</a>, dass die Vorschläge die Betreiber in die Pflicht nehmen und Verbote für vollautomatisierte Systeme nicht kategorisch ausschließen, <a href="https://www.handelsblatt.com/politik/deutschland/abschlussbericht-datenethikkommission-bringt-algorithmen-verbot-ins-spiel/25144398.html" target="_blank" rel="noopener noreferrer">kritisiert</a> der Präsident des IT-Verbands Bitcom, Achim Berg, in einer Stellungnahme für das Handelsblatt den Generalverdacht gegenüber „fast allen Algorithmen“. Auch für Oliver J. Süme vom eco &#8211; Verband der Internetwirtschaft e.V. „ist die Kommission deutlich übers Ziel hinausgeschossen.“ Er <a href="https://www.eco.de/presse/eco-kommentiert-abschlussbericht-der-datenethikkommission-regulierungsphantasien-werden-zur-digitalisierungs-bremse/" target="_blank" rel="noopener noreferrer">warnt</a> vor einer „Digitalisierungs-Bremse“.</p>
<p>Lorenz Matzat von der Organisation Algorithm Watch <a href="https://algorithmwatch.org/bericht-der-datenethikkommission-steilvorlage-fuer-die-zivilgesellschaft/" target="_blank" rel="noopener noreferrer">begrüßt</a> die Empfehlungen der DEK, kritisiert diese allerdings als zu schwammig formuliert. Für Carla Hustedt und Falk Steiner von Algorithmenethik, einem Projekt der Bertelsmann-Stiftung, <a href="https://algorithmenethik.de/2019/10/23/datenethikkommission-liefert-viele-antworten-und-einige-streitpunkte/" target="_blank" rel="noopener noreferrer">ist</a> der Bericht „der konkreteste Entwurf eines regulatorischen Rahmens mit definierten politischen Gestaltungszielen, über den zu streiten sich lohnt.“</p>
<h3>Über die Datenethikkommission</h3>
<p>Die <a href="https://datenethikkommission.de/" target="_blank" rel="noopener noreferrer">Datenethikkommission</a> wurde im Juli 2018 von Bundesregierung ins Leben gerufen, um ethische und rechtliche Fragen im Zusammenhang mit Algorithmen, Künstlicher Intelligenz sowie den Umgang mit Daten zu beantworten. Sie besteht aus 16 Expert*innen aus den Bereichen Technik, Ethik und Recht.</p>
</div></div></div></div></div></div><script id="script-row-unique-8" data-row="script-row-unique-8" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-8"));</script></div></div></div><div data-parent="true" class="vc_row styleptrl--cc-module has-bg need-focus style-color-gyho-bg limit-width boxed-row row-container" id="row-unique-10"><div class="row unequal col-no-gutter single-top-padding single-bottom-padding single-h-padding row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-middle pos-center align_left column_parent col-lg-4 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding  unradius-std" ><div class="uncont" ><div class="uncode_text_column" ><p>Text: <a href="https://creativecommons.org/licenses/by-sa/3.0/de/" target="_blank" rel="noopener noreferrer">CC-BY-SA 3.0</a></p>
</div></div></div></div></div></div><div class="wpb_column pos-middle pos-center align_right column_parent col-lg-8 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p><img decoding="async" class="alignnone size-medium wp-image-159021" src="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png" alt="" width="300" height="52" srcset="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png 300w, https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1.png 305w" sizes="(max-width: 300px) 100vw, 300px" /></p>
</div></div></div></div></div></div><script id="script-row-unique-10" data-row="script-row-unique-10" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-10"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/datenethikkomission-veroeffentlicht-bericht-156923/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>„Wenn Algorithmen Leben retten“ – Panel zur Zukunft der Medizin</title>
		<link>https://www.politik-digital.de/news/panel-generali-wenn-algorithmen-leben-retten-156079/</link>
					<comments>https://www.politik-digital.de/news/panel-generali-wenn-algorithmen-leben-retten-156079/#respond</comments>
		
		<dc:creator><![CDATA[Paulina Fried]]></dc:creator>
		<pubDate>Thu, 16 May 2019 14:07:45 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Algorithmen]]></category>
		<category><![CDATA[Digitalisierung der Medizin]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Gesundheitsbereich]]></category>
		<category><![CDATA[E-Health]]></category>
		<category><![CDATA[Veranstaltung]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=156079</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-11"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column text-lead" ><p>Algorithmen und KI-Anwendungen sind im medizinischen Bereich nicht mehr wegzudenken. Doch wie ist es um Dr. Algorithmus in der Praxis wirklich bestellt? Darüber diskutierten vier Experten auf dem Panel der Generali // Open minded Veranstaltung am 15. Mai in Berlin.</p>
</div><div class="uncode_text_column" ></p>
<h3>Einsatz von Algorithmen und KI im Gesundheitsbereich: What’s new?</h3>
<p>Um einen Einstieg in das komplexe Thema des Abends zu finden, fragte die Moderatorin Dr. Andrea Timmesfeld (Head of Public Affairs &amp; Community Engagement der Generali Deutschland AG) ihre Panelisten, was sich durch den Einsatz von KI im Monitoring von Krankheiten getan habe. Prof. Dr. Bert Arnrich (Professor für Digital Health &#8211; Connected Healthcare am Hasso-Plattner-Institut der Universität Potsdam) konstatiert: „Neu ist, dass viele der Technologien und Sensoren jetzt in Alltagsgegenstände eingebaut sind. Sie sind so klein, dass wir sie nicht bemerken.“ EKGs in Apple Watches und Smartphones, die gesundheitsrelevante Daten messen, seien nur zwei Beispiele für diese Entwicklung. Prof. Dr. med. Jörg Debatin (Chairman Health Innovation Hub) findet, diese Features funktionierten „verdammt gut“. Wichtig sei aber, aus den gesammelten Daten das Relevante zu filtern. Ein Vorteil der Nutzung von Sensorik im Alltag sei, dass körperliche Veränderungen früher erkannt würden, so Debatin. Die Features arbeiteten sozusagen präventiv: „Man muss nicht mehr auf die Krise warten, bis der Patient zum Arzt geht.“ Wenn man beispielsweise eine offene Wunde ständig mittels einer App dokumentiert und Bilder an einen Dermatologen übersenden lässt, könne bei Infektionen schneller eingegriffen werden. Zudem bestünde dann kein Laboreffekt, der möglicherweise die Ergebnisse verfälscht.</p>
<h3>„Ich werde bei Ihrer Untersuchung Künstliche Intelligenz verwenden“</h3>
<p>Ist das ein Satz, den Patienten eigentlich öfter hören müssten? Ist die Ärzteschaft stets in der Verpflichtung ihre Patienten über den Einsatz von Algorithmen und KI-Anwendungen aufzuklären? Dr. Frank Niggemeier (Leiter des Referats Ethik im Gesundheitswesen im Bundesministerium für Gesundheit) findet, nur wenn die KI-Methode Teil des akzeptierten Behandlungsverfahrens ist, müsse keine gesonderte Aufklärung erfolgen. Und was, wenn KI genutzt wird, um Empfehlungen für die weitere Behandlung des Patienten zu geben? Niggemeier ist sich sicher: „Eine optimale Behandlung erfolgt dann, wenn der Patient beide Meinungen hört, die der KI und des Arztes. Wenn es zwischen ihnen Ambivalenzen gibt, muss ein mündiger Patient selbst entscheiden was er möchte“, denn wie Ingeborg Bachmann schon sagte: „Die Wahrheit ist dem Menschen zumutbar.“ Grundsätzlich, so Niggemeier, sollten Patienten solange über die Nutzung von KI im Gesundheitsbereich aufgeklärt werden, bis sie sich vollends etabliert habe. Schließlich würde man heute auch keinem Patienten mehr über die Benutzung eines Stethoskops unterrichten.</p>
<h3>„Solange wir die Kernprobleme in der Gesundheit nicht angehen, werden wir die Möglichkeiten der KI nicht ausschöpfen“</h3>
<p>Das findet zumindest Prof. Dr. Gerd Gigerenzer (Direktor des Harding Zentrums für Risikokompetenz). Studien hätten gezeigt, dass ¾ der Ärzte in Deutschland Gesundheitsstatistiken und Kernbegriffe nicht verstehen würden. Dies läge vor allem an der schlechten Ausbildung der Medizinstudierenden. Big Data könne nur da Probleme lösen, wo alles stabil sei: „Einen Hautkrebs kann KI erkennen. Wenn es aber volatil wird, da hilft Big Data wenig. Da sind einfache Methoden besser. Digitalisierung hilft eben nicht, wenn sie nicht verstanden wird.“ Debatin bricht an dieser Stelle eine Lanze für die Mediziner. Durch NC-Verfahren selektiert, seien die meisten von ihnen ziemlich kompetent. Wichtiger findet er, dass sie sich der Grenzen der KI bewusst würden.</p>
<h3>Digitalisierung und Gesundheit: Verlierer Deutschland</h3>
<p>Laut einer Bertelsmann Studie von 2018 hinkt Deutschland im Bereich Digitalisierung und Gesundheit stark hinterher. Anrich sieht das Problem vor allem darin, dass es in Krankenhäusern und Praxen zu viele unterschiedliche digitale Systeme zum Sammeln von Patientendaten gibt, die untereinander nicht kompatibel seien. In Ländern wie China und USA sei dies anders. Niggemeier erwähnt in diesem Kontext die kulturgeschichtlichen Erfahrungen Deutschlands. Der (Daten-)Schutz des Individuums würde in Deutschland nicht umsonst groß geschrieben: „Vor 80 Jahren hätten die Daten, die wir heute haben, das Mordinstrument Staat was es damals gab, noch besser funktionieren lassen“.</p>
<p>Wie sieht also die Zukunft des Gesundheitswesens in Bezug auf KI-Anwendungen aus? Anrich findet, KI-Verfahren sollten genutzt werden, um Ärzten zu assistieren, nicht um sie zu ersetzen. Debatin stimmt zu und glaubt dennoch, dass der Einsatz von KI zu massiven Veränderungen im Gesundheitsbereich führen könne. Und auch Niggemeier denkt, dass es in 20-30 Jahren etwa das Berufsbild des Radiologen so nicht mehr geben wird.</p>
<p>In der Schlussrunde bittet Timmesfeld darum, dass sich ihre Diskutanten, in ein Zukunftsszenario reindenken: „Es ist 2030. KI wird in der Früherkennung von Krankheiten genutzt und kommt in 99 % der Fälle zum richtigen Ergebnis. Würden sie am Verfahren teilnehmen?“ Der Konsens lautet: „Ja.“ Lediglich Ginzerer ist und bleibt skeptisch.</p>
<p><strong>Titebild by:</strong> politik-digital</p>
<p>
</div></div></div></div></div></div><script id="script-row-unique-11" data-row="script-row-unique-11" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-11"));</script></div></div></div><div data-parent="true" class="vc_row styleptrl--cc-module has-bg need-focus style-color-gyho-bg limit-width boxed-row row-container" id="row-unique-13"><div class="row unequal col-no-gutter single-top-padding single-bottom-padding single-h-padding row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-middle pos-center align_left column_parent col-lg-4 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding  unradius-std" ><div class="uncont" ><div class="uncode_text_column" ><p>Text: <a href="https://creativecommons.org/licenses/by-sa/3.0/de/" target="_blank" rel="noopener noreferrer">CC-BY-SA 3.0</a></p>
</div></div></div></div></div></div><div class="wpb_column pos-middle pos-center align_right column_parent col-lg-8 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p><img decoding="async" class="alignnone size-medium wp-image-159021" src="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png" alt="" width="300" height="52" srcset="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png 300w, https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1.png 305w" sizes="(max-width: 300px) 100vw, 300px" /></p>
</div></div></div></div></div></div><script id="script-row-unique-13" data-row="script-row-unique-13" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-13"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/panel-generali-wenn-algorithmen-leben-retten-156079/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Daten, Denker, Demokratien &#8211; das war 2018 digital</title>
		<link>https://www.politik-digital.de/news/jahresrueckblick-2018-155661/</link>
					<comments>https://www.politik-digital.de/news/jahresrueckblick-2018-155661/#respond</comments>
		
		<dc:creator><![CDATA[Stephan Raab]]></dc:creator>
		<pubDate>Sun, 30 Dec 2018 10:27:12 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Algorithmen]]></category>
		<category><![CDATA[Jahresrückblick]]></category>
		<category><![CDATA[Smart City]]></category>
		<category><![CDATA[2018]]></category>
		<category><![CDATA[Digitale Bildung]]></category>
		<category><![CDATA[Digitale Debatte]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=155661</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-14"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ></p>
<p>„Computer sind unbrauchbar. Sie können nur Fragen beantworten;“ stellte einmal der Maler Pablo Picasso fest. Am Ende eines jeden Jahres steht die wichtige Frage: „Was für ein Jahr?!“</p>
<p>Fest steht bereits, 2018 wird wohl als das wärmste Jahr seit Beginn der Wetteraufzeichnungen in die Geschichte eingehen. Aber heiß her ging es auch on- wie offline. politik-digital war wieder dabei und blickt zurück. Was für ein Jahr?! Das war das digitale Jahr 2018.</p>
<h3>Digitales Durcheinander</h3>
<p>Die gute Nachricht gleich vorab: <a href="https://politik-digital.de/news/kommentar-wann-wird-deutschland-spitze-in-sachen-digitalisierung-153901/" target="_blank" rel="noopener noreferrer">Deutschland ist Spitzenreiter in Sachen Digitalisierung</a>. Ok,diese Meldung wünschen sich wohl viele für die Zukunft. Wir kommunizieren, konsumieren, leben und lernen immer mehr im Netz. Aber sobald es um die <a href="https://politik-digital.de/news/eine-annaeherung-an-die-digitalisierung-der-verwaltung-153862/" target="_blank" rel="noopener noreferrer">öffentliche Verwaltung</a> geht, da klopft noch immer das 20. Jahrhundert an. Sprühten die Parteien im Bundestagswahlkampf noch vor Ideen für den digitalen Wandel, werden die digitalen Aufgaben nicht weniger, sondern mehr. Aber die neue Staatsministerin für Digitales <a href="https://politik-digital.de/news/interview-dorothee-baer-155542/" target="_blank" rel="noopener noreferrer">Dorothee Bär</a> zeigt sich durchaus optimistisch: „Ich habe es mir schwieriger und komplizierter vorgestellt!“ Vielleicht neigt das digitale Deutschland auch zu digitalem Durcheinander: „Wir sind sehr perfektionistisch und warten lieber, bis wir 110 Prozent haben, anstatt mit 80 Prozent einfach mal loszulegen!“</p>
<p>Wer nun loslegen möchte, kann sich gleich über <a href="https://politik-digital.de/news/mobile-recruiting-mit-einem-wisch-zum-traumjob-154653/" target="_blank" rel="noopener noreferrer">Mobile Recruiting</a> via App und Algorithmen um eine Tätigkeit bewerben, ganz flexibel und mobil wie die digitale <a href="https://politik-digital.de/news/schluss-mit-social-media-155252/" target="_blank" rel="noopener noreferrer">Generation Z</a>. Es ist zu vermuten, dass sie einige gute Ideen hätten. Sie erkennen immer besser die Chancen und Risiken der sozialen Medien und beginnen, diese Angebote immer bewusster (nicht) zu nutzen.</p>
<h3>Smarte Cities und schlaue Dörfer</h3>
<p>Deutschland wird digitaler und Deutschland wird urbaner. Immer mehr Menschen ziehen aufgrund der besseren Arbeitsmöglichkeiten und Chancen in die Großstädte. Bis 2050 wird geschätzt, dass etwa 75% der Weltbevölkerung in urbanen Regionen leben werden. Angesichts dieses Zuwachses wird nach nachhaltigen intelligenten Lösungen gesucht, den <a href="https://politik-digital.de/news/smart-cities-eine-reise-durch-die-stadte-von-morgen-154873/" target="_blank" rel="noopener noreferrer">Smart Cities</a>. Mithilfe modernster Informations- und Kommunikationstechnologie sollen Nachhaltigkeit, Wachstum und ein hoher Lebensstandard in den Städten von morgen umgesetzt werden.</p>
<p>Sommerzeit ist Reisezeit, daher machte sich politik-digital auf, die Smart Cities von morgen schon heute zu erkunden. Mithilfe der <a href="https://politik-digital.de/news/smart-citiesteil-1-rio-de-janeiro-154888/" target="_blank" rel="noopener noreferrer">Smart Favela App</a> ging es durch die im wahrsten Sinne des Wortes unbekannten Ecken und Kanten von Rio de Janeiro. Mit diesen gesammelten Daten führte die Reise nach Kopenhagen zum <a href="https://politik-digital.de/news/smart-cities-teil-2-kopenhagen-154895/" target="_blank" rel="noopener noreferrer">„Big Data Marketplace“</a>, auf dem Daten gesammelt, erworben oder selbst hochgeladen werden können. Der <a href="https://politik-digital.de/news/smart-cities-teil-3-dubai-154901/" target="_blank" rel="noopener noreferrer">Robocop</a> fuhr Streife durch den Wüstensand von Dubai. Für eine spritzige Erfrischung sorgte ein Abstecher nach Wien zum Projekt <a href="https://politik-digital.de/news/smart-cities-teil-4-wien-154912/" target="_blank" rel="noopener noreferrer">„Viertel Zwei“</a>. In diesem Neubaugebiet werden die Möglichkeiten von Blockchain genutzt, um aus Konsumenten Produzenten zu machen, die Energieversorgung der Zukunft zu revolutionieren. Das kleine <a href="https://politik-digital.de/news/smart-cities-teil-5-santander-154917/" target="_blank" rel="noopener noreferrer">Santander</a> macht eines besonderes deutlich: Eine smarte Stadt braucht vor allem auch smarte Bürgerinnen und Bürger, die diese Stadt annehmen, gestalten und weiterentwickeln wollen.</p>
<p>Bei allen schönen Urlaubserinnerungen dürfen die ländlichen Räume nicht vergessen werden. Hier macht sich der demographische Wandel besonders deutlich. Immer mehr Arztpraxen schließen. Daher sind neue Ansätze der <a href="https://politik-digital.de/news/wie-telemedizin-neue-moeglichkeiten-eroeffnet-154561/" target="_blank" rel="noopener noreferrer">Telemedizin</a> gefragt, die digitalen Möglichkeiten der Diagnose zu nutzen ohne dabei die Sensibilität dieser Daten außer Acht zu lassen. Im besten Fall könnte es sogar gelingen, Menschen wieder auf das Land zu holen, fernab des Großstadtstresses im <a href="https://politik-digital.de/news/das-vergessene-land-wie-digitalisierung-die-landflucht-stoppen-kann-154501/" target="_blank" rel="noopener noreferrer">Coworking Space</a> gemeinsam lokale und globale Ideen zu erarbeiten. Bisher scheitert dies immer noch am Breitbandausbau, so dass viele Gemeinden wie im Projekt <a href="https://politik-digital.de/news/morodigital-155226/" target="_blank" rel="noopener noreferrer">MOROdigital</a> selbst die Initiative ergreifen und den Breitbandausbau vorantreiben. Digitalisierung eröffnet neue Chancen, doch müssen dazu noch viele Fragen geklärt werden.</p>
<h3>Das Spiel mit den Daten</h3>
<p>Das ganze Leben ist ein Quiz, und wir raten, raten, raten! Wir produzieren Daten, Daten, Daten! Es war in einem Sommer, der niemals enden sollte, in einem Wahlkampf, der niemals enden wollte. Im Spiel um die Macht probierten Politik und Gesellschaft wieder einmal andere Wege. In Italien versucht sich beispielsweise die <a href="https://politik-digital.de/news/politik-via-app-movimento-5-stelle-154282/" target="_blank" rel="noopener noreferrer">Fünf-Sterne-Bewegung</a> an eine App basierten Demokratie, jedoch mit eher zweifelhaften Erfolg. <a href="https://politik-digital.de/news/wichtig-waehlen-dgb-landtagswahl-hessen-155082/" target="_blank" rel="noopener noreferrer">Stimmungsbarometer</a> versuchten, Wählerschaft und Wahlprogramme in Hessen zu verbinden. Für ein vielleicht passendes Match zu den Landtagswahlen sorgte der <a href="https://politik-digital.de/news/durchs-swipen-zur-wahlentscheidung-interaktive-wahltools-155147/" target="_blank" rel="noopener noreferrer">Wahlswiper</a>, der Schritt für Schritt zur Wahl wischen sollte.</p>
<p>Demokratie in Echtzeit, dass verspricht die App <a href="https://politik-digital.de/news/app-democracy-1810-155346/" target="_blank" rel="noopener noreferrer">Democracy</a> mit aktuellen Gesetzesentwürfen. Endlich entdeckte auch die Politik die Gamerszene für sich, eine Anerkennung des <a href="https://politik-digital.de/news/e-sport-aus-der-nische-ins-rampenlicht-154482/" target="_blank" rel="noopener noreferrer">E-Sport</a> als offizielle Sportart bleibt jedoch noch abzuwarten. Was Politiker von Gamer allerding alles lernen können, das zeigt ein Blick in die Hochburgen der Gamerszene nach Asien, genauer gesagt China. Das neue <a href="https://politik-digital.de/news/jede-handlung-wird-bewertet-willkommen-in-der-zukunft-154096/" target="_blank" rel="noopener noreferrer">Social Scoring System</a> funktioniert wie ein großes Spiel mit über einer Milliarde Mitspieler. Wie im Game werden gute Taten, in diesem Fall parteikonformes Verhalten, belohnt und neue Level bzw. Zugänge zu gesellschaftlichen Positionen eröffnet. Fehlverhalten im Sinne der Spielemacher, hier der Kommunistischen Partei Chinas, werden im Gegenzug geahndet und bestimmte Rechte entzogen. Natürlich mag dies für den westlichen Beobachter befremdlich wirken, einer permanenten Überwachung ausgesetzt zu sein. Allerdings verfolgen <a href="https://politik-digital.de/news/big-mama-is-watching-you-154693/" target="_blank" rel="noopener noreferrer">Smart Toys</a> mit GPS Funktion nicht eine ähnliche Zielsetzung?</p>
<p>In diesem Jahr trat nun die europäische Datenschutzgrundverordnung in Kraft. Trotz der teils berechtigten Kritik werden hierin grundlegende Rechte für die digitale Demokratie festgelegt. In diesem Jahr wurde erneut deutlich, dass es für den demokratischen Diskurs nicht reicht, <a href="https://politik-digital.de/news/die-digitale-protestkultur-engagement-auf-dem-sofa-154001/" target="_blank" rel="noopener noreferrer">online oder offline</a> zu sein. Wichtig ist viel eher, dass die Demokratie durch die Herausforderungen der Digitalisierung nicht erstarrt sondern weiterhin in <a href="https://politik-digital.de/news/kreativer-protest-on-und-offline-154818/" target="_blank" rel="noopener noreferrer">Bewegung</a> bleibt.</p>
<h3>Denken wir mal digital</h3>
<p>„Will ich nachvollziehen, wie eine Entscheidung getroffen wird, und akzeptiere dafür häufiger, dass das Ergebnis nicht korrekt ist, oder will ich es häufiger korrekt haben – und verstehe es dafür nicht, habe also die Black Box?“ Angesichts der vielen aktuellen Fragen erscheint so manche politische Entscheidung kaum nachvollziehbar und je nach Betrachtung intelligent. Vielleicht kann hier ja eines der Schlagworte des Jahres, die <a href="https://politik-digital.de/news/kuenstliche-intelligenz-155485/" target="_blank" rel="noopener noreferrer">künstliche Intelligenz</a> helfen.  Zunächst klingt dies auch einfach wie vielversprechend. Unter KI sind vor allem Algorithmen zu verstehen, also ein Lösungsweg für ein Problem. Diese lernen indem sie aus Erfahrungen generalisieren, Muster erkennen, sowie mit Hilfe von Rückkopplungen <a href="https://politik-digital.de/news/algorithmen-die-den-weg-vorgeben-153846/" target="_blank" rel="noopener noreferrer">Wege</a> vorgeben. Ganz bescheiden müssen wir hier zugegeben, dass Algorithmen uns hier um viele Sequenzen voraus sind. <a href="https://politik-digital.de/news/kuenstliche-intelligenz-teil-3-155492/" target="_blank" rel="noopener noreferrer">Menschliche Intelligenz</a> ist also, theoretisch, durchaus von Algorithmen zu erreichen.</p>
<p>Schon heute bestimmen Algorithmen unseren Musikgeschmack beeinflussen aber auch in riesigen Echokammern die politische Debatte, indem sie bestimmte Tendenzen verstärken. Technologie ist hier nicht neutral, sondern kann <a href="https://politik-digital.de/news/kuenstliche-intelligenz-teil-2-155488/" target="_blank" rel="noopener noreferrer">diskriminierend</a> wirken, wenn es um bestimmte Eigenschaften wie Herkunft, Geschlecht oder Einkommen geht. Die Anwendung von Algorithmen befreit somit nicht aus der Verantwortung, sondern bedingt diese geradezu.</p>
<p>Bereits der IT-Pionier Alan Turing erkannte, dass Menschen keine Maschinen sein können. Anders als diese besitzen <a href="https://politik-digital.de/news/rezension-digitaler-humanismus-155310/" target="_blank" rel="noopener noreferrer">Menschen</a> Intentionen, sind in der Lage sich selbst Ziele zu stecken und diese zu verwirklichen. Digital ist daher nicht immer gut und analog nicht immer besser.</p>
<h3>Digital und dann?</h3>
<p>Mittlerweile ist Digitalisierung zu einem Buzzword geworden. Alles spricht darüber, doch wer versteht wovon wir sprechen? Das Internet ist im Kern eine große <a href="https://politik-digital.de/news/die-veraenderte-kommunikation-im-digitalen-zeitalter-153968/" target="_blank" rel="noopener noreferrer">Kommunikationsplattform</a>. Die Gespräche hier haben keinen Anfang und kein Ende, sondern können jederzeit weitergehen.</p>
<p><a href="https://politik-digital.de/news/wie-die-kuenstliche-intelligenz-vom-menschlichen-gehirn-lernt-154055/" target="_blank" rel="noopener noreferrer">Was unterscheidet den Menschen von der Maschine</a>? Ein Kind erlernt innerhalb von drei Jahren auf Basis von etwa einem Gigabyte genetischer Information weitgehend autonomes, intelligentes Verhalten, sich in einer komplexen Umwelt zurechtzufinden. Hier versagen die Maschinen trotz viel höherer Rechenleistungen immer noch, da sie zu unstrukturiert starr sind.</p>
<p>Aus diesem Grund endet <a href="https://politik-digital.de/news/thorsten-schaefer-guembel-digitale-bildung-ist-mehr-als-ein-whitebboard-154724/" target="_blank" rel="noopener noreferrer">digitale Bildung</a> nicht mit der Infrastruktur, sondern muss hier beginnen. „Es ist wie mit alten, kaputten <a href="https://politik-digital.de/news/digitalisierung-an-meiner-schule-ein-erfahrungsbericht-154007/" target="_blank" rel="noopener noreferrer">Schulbüchern</a>. Wenn die Seiten fehlen oder nicht mehr lesbar sind, kann man nichts lernen. Der Unterschied ist nur, unsere Bücher werden ersetzt, die Computer nicht“, lautetet eine Beobachtung aus dem Schulalltag. „Was wir wissen ist ein Tropfen, was wir nicht Wissen ist ein Ozean“, soll einmal Sir Isaac Newton gesagt haben. Angesichts der Datenmeere vermehrt sich das <a href="https://politik-digital.de/news/mit-mehr-diversitaet-zu-einer-universitaet-der-zukunft-154151/" target="_blank" rel="noopener noreferrer">Weltwissen</a> stetig und immer dynamischer. Daher wird es immer wichtiger zu wissen, wie dieses Wissen erarbeiten und anzuwenden ist.</p>
<p>Einst waren <a href="https://politik-digital.de/news/bibliotheken-im-wandel-ein-ort-fuer-kreativitaet-und-austausch-154407/" target="_blank" rel="noopener noreferrer">Bibliotheken</a> die Zentren des Wissens. In Zeiten von E-Books könnten sie dies wieder werden. Heute werden Bibliotheken zu Treffpunkten für Do it yourself und vor allem Do it together, gemeinsam zu lernen. Der digitale Wandel erfordert Bildung für jedes Alter. Vielleicht wird der Generationenvertrag durch einen <a href="https://politik-digital.de/news/digitale-bildung-kompetenzen-lernorte-und-erwachsenenbildung-154577/" target="_blank" rel="noopener noreferrer">Digitalpakt</a> ergänzt, in welchem technikaffine Menschen die Verantwortung für technikferne übernehmen, ihnen in diese Welt zu erklären.</p>
<h3>Die digitale Debatte geht weiter? Ein Ausblick</h3>
<p>„Die Demokratie kann die Grundlagen nicht schaffen, auf denen sie steht“ machte der ehemalige Bildungsminister Klaus von Dohnanyi deutlich. Wer sind wir, wenn wir online sind? Welche Regeln sollen für die digitale Gesellschaft online wie offline gelten? Dieser Frage widmeten sich die <a href="https://politik-digital.de/news/dialogperspektiven-digital-155340/" target="_blank" rel="noopener noreferrer">Dialogperspektiven</a>. Hier wurden die Fragen nach Identität und Integration, die Suche nach Zugehörigkeit betrachtet. Digitale Technologien sind wie ein Fenster in die Welt. Verschiedene Erfahrungen, Prägungen aber auch Meinungen liefern den Rahmen für diese Fenster. Einflussreiche Organisationen haben dies längst für sich entdeckt und liefern mit ihrer Wortwahl das entsprechende <a href="https://politik-digital.de/news/die-macht-der-worte-154767/" target="_blank" rel="noopener noreferrer">Framing</a>. Unterschiedliche Meinungen treffen im digitalen Raum aufeinander, werden zunehmend nicht diskutiert, sondern auch bewusst polarisiert. Initiativen wie <a href="https://politik-digital.de/news/hate-speech-interview-das-nettz-154850/" target="_blank" rel="noopener noreferrer">DAS NETTZ</a> versuchen diese Meinungen zu vernetzen, die demokratische Debatte zu fördern. Manchmal ist es weniger entscheidend, was gesprochen wird, sondern das überhaupt gesprochen wird. Vielfach wird diese Debatte eher verkürzt, emotionalisiert, um rasch an Aufmerksamkeit zu gewinnen. „In einer immer komplexeren Welt, die wir alle nur noch bruchstückhaft verstehen können, wird <a href="https://politik-digital.de/news/rhetorik-im-digitalen-zeitalter-interview-155060/" target="_blank" rel="noopener noreferrer">Glaubwürdigkeit</a> zur entscheidenden Währung.“ Die Frage nach dem besten Argument kann nicht nur durch Wissen, sondern auch durch Werte und Wertungen beantwortet werden. Es braucht ein <a href="https://politik-digital.de/news/rhetorik-heute-eine-frage-des-gefuehls-155163/" target="_blank" rel="noopener noreferrer">Gefühl</a> für die digitalen ethischen Fragen. Entscheidend ist an dieser Stelle: „<a href="https://politik-digital.de/news/freiwilligendienst-fsj-digital-jetzt-bundesweit-marten-gerdnun-im-interview-154665/" target="_blank" rel="noopener noreferrer">Digitalisierung</a> darf zu keinem Unwort werden!“</p>
<p>Das Datenvolumen für 2018 ist nun aufgebraucht. Wie geht es 2019 weiter? „Am Schluss werden wir alle erkennen, dass jeder von uns ein <a href="https://politik-digital.de/news/die-rolle-der-roboter-in-unserem-leben-153607/" target="_blank" rel="noopener noreferrer">‘Algorithmus’</a> ist“.  Was für ein Jahr?! Die Antwort kann wohl niemand besser geben, als der berühmte Wissenschaftler Albert Einstein: „Wenn&#8217;s alte Jahr erfolgreich war, dann freue dich aufs Neue. Und war es schlecht, ja dann erst recht.“</p>
<p>Die Autorinnen und Autoren von politik-digital wünschen allen Leserinnen und Lesern einen guten Start in das digitale und analoge Jahr 2019.</p>
<div class="mof3x">
<div class="_1l8RX _1ByhS"><strong>Photo by:</strong> <a href="https://unsplash.com/@swviiphotography?utm_source=unsplash&amp;utm_medium=referral&amp;utm_content=creditCopyText">Steven VanDesande Jr</a> on <a href="https://unsplash.com/@swviiphotography?utm_source=unsplash&amp;utm_medium=referral&amp;utm_content=creditCopyText">Unsplash</a></div>
</div>
<p>
</div></div></div></div></div></div><script id="script-row-unique-14" data-row="script-row-unique-14" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-14"));</script></div></div></div><div data-parent="true" class="vc_row styleptrl--cc-module has-bg need-focus style-color-gyho-bg limit-width boxed-row row-container" id="row-unique-16"><div class="row unequal col-no-gutter single-top-padding single-bottom-padding single-h-padding row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-middle pos-center align_left column_parent col-lg-4 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding  unradius-std" ><div class="uncont" ><div class="uncode_text_column" ><p>Text: <a href="https://creativecommons.org/licenses/by-sa/3.0/de/" target="_blank" rel="noopener noreferrer">CC-BY-SA 3.0</a></p>
</div></div></div></div></div></div><div class="wpb_column pos-middle pos-center align_right column_parent col-lg-8 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p><img decoding="async" class="alignnone size-medium wp-image-159021" src="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png" alt="" width="300" height="52" srcset="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png 300w, https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1.png 305w" sizes="(max-width: 300px) 100vw, 300px" /></p>
</div></div></div></div></div></div><script id="script-row-unique-16" data-row="script-row-unique-16" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-16"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/jahresrueckblick-2018-155661/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Was wäre wenn? Warum wir auch über das sprechen müssen, was KI noch nicht kann</title>
		<link>https://www.politik-digital.de/news/kuenstliche-intelligenz-teil-3-155492/</link>
					<comments>https://www.politik-digital.de/news/kuenstliche-intelligenz-teil-3-155492/#respond</comments>
		
		<dc:creator><![CDATA[Julia Schymura]]></dc:creator>
		<pubDate>Thu, 08 Nov 2018 09:46:44 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Zukunft]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Algorithmen]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Deep learning]]></category>
		<category><![CDATA[Maschinelles Lernen]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=155492</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-17"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column text-lead" ><p>Wenn man das Wort Künstliche Intelligenz (oder auch Artifical Intelligence) in die Google-Suchmaske eingibt und die Bildersuche laufen lässt, stößt man auf ein Meer von Fotos, die Roboter, Gehirne und finster dreinschauende Augen zeigen. Ähnlich verhält es sich bei der Bebilderung von Artikeln, Meldungen, Fernsehbeiträgen. Das suggeriert das Bild einer bedrohlichen, menschenähnlichen Technologie, das auch in den Köpfen vieler Menschen verankert zu sein scheint – und das sich noch nicht so ganz decken mag mit dem, was wir in unserem Alltag vorfinden. Aber was wäre wenn? Und wie weit ist die Realität wirklich von der Vorstellung entfernt, die durch solche Fotos ausgedrückt wird?</p>
</div><div class="uncode_text_column" ></p>
<p>Um es gleich vorwegzunehmen: Das, was solche Bilder vermitteln, hat wenig bis gar nichts mit der Technologie zu tun, die wir heute haben. Was wir heute haben, ist höchstens eine narrow AI, eine schwache künstliche Intelligenz. Das sind Algorithmen, die jeweils eine Aufgabe sehr gut ausführen; die Input bekommen und einen Output zu einer bestimmten Zielfunktion ausgeben. Auch, wenn es eine Definitionsfrage ist, was wir genau als intelligent bezeichnen – diese Algorithmen werden wohl nicht dazu gehören. Sie können keine Aufgaben kombinieren, weder reflektieren noch erklären, was sie tun. Diese schwache KI, sie hat wenig gemein, mit dem, was in Science-Fiction-Filmen oder der Google Suche vermittelt wird.</p>
<p>Dennoch halten sich anfangs beschriebene Assoziationen hartnäckig. Und damit verbundenes Unbehagen. Das scheint auch nicht völlig unbegründet, denkt man beispielsweise an die im letzten Jahr begonnene Diskussion zwischen Mark Zuckerberg und Elon Musk: Musk nimmt dabei die eher dystopische Seite ein; warnt davor, dass KI gefährlicher sei als nordkoreanische Atomwaffen. Als unverantwortlich betitelte Zuckerberg hingegen solche stark negativen Äußerungen. Hat er damit Recht – ist es unverantwortlich, so eindrücklich eine Warnung auszusprechen?</p>
<h3>Die generelle künstliche Intelligenz</h3>
<p>Die KI, von der Musk spricht, ist eine generelle KI. Eine, die viel leistungsfähiger ist als die Algorithmen, die wir kennen; die nicht nur eine einzige Aufgabe oder Zielfunktion löst, sondern zu viel mehr in der Lage ist. Was dieses „viel mehr“ genau impliziert, ist abhängig von unserem Verständnis von Intelligenz. Was benötigt ein System, damit es sich künstlich intelligent nennen kann? „Das ist eine Definitionsfrage. Sagen wir mal, sie sollte wirklich sein wie der Mensch –  es gibt dann immer noch die Frage, was den Menschen als intelligentes Wesen ausmacht“, sagt Professor Florian Ellsaesser vom Centre for Human and Machine Intelligence der Frankfurt School of Finance and Management. Aber was bedeutet Intelligenz, intelligent sein?</p>
<p>Dr. Sebastian Thieme, Bioinformatiker und –physiker, spricht von einer KI als ein System, das Intuition und Kreativität besitzt, und damit gemeinsam mit seinen Erfahrungen Entscheidungen treffen kann: „Wie ein Mensch, nur als Computer.“ Wenn wir diese Stufe erreichen, wird es sehr spannend, ist er sich sicher. „Das bedeutet ja, dass wir ein Objekt geschaffen haben, das selbst denkt. Wenn wir es herunterbrechen, wäre der Mensch ja quasi die erste Stufe der künstlichen Intelligenz &#8211; bloß nicht künstlich, sondern biologisch. Im Prinzip werden wir durch unser Gehirn komplett gesteuert, alles findet in unserem Kopf statt. Mit der KI bauen wir ja eine Art künstliches Gehirn. Das heißt, wir wären in der Lage, eine Lebensform zu schaffen – und weil wir sie schaffen, ist sie nun mal künstlich. Aber sobald es eine Lebensform ist, ist sie eigentlich auch nicht mehr künstlich.“</p>
<h3>„Nur, weil wir Blut, Herz und Puls haben – ist das Leben?“</h3>
<p>Wenn wir dort erst einmal angekommen sind, werden wir uns grundlegenden Fragen stellen müssen.  „Wo beginnt Leben? Wie definieren wir das? Nur, weil wir Blut, ein schlagendes Herz und Puls haben, &#8211; ist das Leben? Oder heißt Leben, Intuition, Intelligenz und Gefühle zu haben?“ Das sind momentan rein hypothetische Überlegungen, wir haben so etwas derzeit noch nicht. Ob eine KI Gefühle haben oder entwickeln könnte, irgendwann einmal, das weiß er selbst nicht genau. Aber solche Fragen sind nicht nur relevant, wenn wir über KI sprechen, sie offenbaren viel über das Menschen- und Weltbild, das wir haben. Was definiert uns als Menschen, uns als Gesellschaft? Würde ich mich einer Maschine, die ähnlich denkt wie ich, mit der ich Gespräche führen könnte, näher fühlen, als beispielsweise einem Frosch, mit dem ich nichts gemeinsam habe, außer einem Herzschlag? Oder ist es eben im Endeffekt doch dieser Herzschlag, der auf eine Weise verbindet, die schlichtweg nicht imitierbar oder ersetzbar ist?</p>
<h3>„Das ist wie ein Geist, den man aus der Flasche lässt – schwierig, den wieder hineinzubekommen“</h3>
<p>Noch ist es Zukunftsmusik. Aber wie lange wird das noch der Fall sein? „Ich glaube, dass der Computer irgendwann diese menschliche Intelligenz erreicht“, sagt Ellsaesser. „Aber was es momentan gibt, hat damit nichts zu tun. Diese Algorithmen können sehr gut Zusammenhänge extrahieren – wir geben Ihnen Daten und Zielfunktion, und sie optimieren dahingehend.“ Trotzdem glaubt Thieme, dass es nicht mehr in allzu ferner Zukunft liegt. „Teilweise wird geplant, das innerhalb der nächsten zehn Jahre zu schaffen &#8211; das wäre tatsächlich relativ zeitnah“, sagt er. Selbst wenn zehn Jahre noch eine zu optimistische Schätzung seien; seiner Einschätzung nach werden es die Generation der jetzigen Mittzwanziger und –dreißiger mindestens noch erleben. „Ich glaube, dass wir näher dran sind, als wir denken. Wir reden nicht mehr von hunderten von Jahren sondern einigen Jahrzehnten.“</p>
<p>Dass wir noch einige Jahre davon entfernt sind, bedeutet allerdings nicht, dass wir nicht über das sprechen sollten, was sein kann. Auch, wenn man dabei aufpassen muss: „Man muss darüber nachdenken, das ist wichtig, aber man muss differenzieren: Was ist derzeit mit den Algorithmen möglich; was, wenn sie noch besser werden und was ist Fantasie. Das heißt nicht, dass man darüber nicht nachdenken darf &#8211; man darf nur eben eines nicht verwechseln: Ist das eine Idee von der Zukunft oder bereits Realität?“, warnt Ellsaesser. Damit hat er selbstverständlich recht: Wenn wir darüber sprechen, wenn wir überlegen, was es bedeuten würde, eine generelle KI zu haben, müssen wir uns immer vor Augen führen, dass wir mit etwas Hypothetischem hantieren. Sonst überschätzen wir das, was wir im Alltag an Technologie finden, oder reden an der Realität vorbei. Es gibt allerdings Fragen, die wir uns heute schon stellen müssen, auf die wir heute schon versuchen müssen, Antworten zu finden. Das Monitoring von Algorithmen, also das Überwachen oder Prüfen von der Technologie, ist eine davon: „Das ist ein wichtiger Schritt, Algorithmenmonitoring, den wir gehen müssen, bevor wir eine generelle KI haben.“ Thieme ist sich sicher, dass wir uns jetzt schon Gedanken darüber machen müssen, welchen Rahmen eine generelle KI bekommen würde, welche Grenzen, die sie wirklich nicht verlassen dürfte. Denn: „Wenn wir es erst danach tun, wird es wahrscheinlich zu spät sein. Das ist wie ein Geist, den man aus der Flasche lässt – schwierig, den wieder hineinzubekommen.</p>
<p>Menschliche Intelligenz ist also, theoretisch, durchaus von Algorithmen zu erreichen – auch wenn es derzeit noch nicht geschehen ist. Trotzdem müssen wir uns fragen, was derartige Technologie darf und was nicht. Und wir werden uns fragen müssen, wie wir Leben und Intelligenz definieren, und wie wir uns als Menschen eigentlich verstehen. Was für ein Weltbild wir vertreten. Es wird spannend.</p>
<p>&nbsp;</p>
<p>Titelbild: Photo by <a href="https://unsplash.com/@notmarcliu" target="_blank" rel="noopener noreferrer">Marc Liu</a> on <a href="https://unsplash.com/photos/Z8epsqHdYeM" target="_blank" rel="noopener noreferrer">Unsplash</a>, CCO</p>
<p>
</div></div></div></div></div></div><script id="script-row-unique-17" data-row="script-row-unique-17" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-17"));</script></div></div></div><div data-parent="true" class="vc_row styleptrl--cc-module has-bg need-focus style-color-gyho-bg limit-width boxed-row row-container" id="row-unique-19"><div class="row unequal col-no-gutter single-top-padding single-bottom-padding single-h-padding row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-middle pos-center align_left column_parent col-lg-4 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding  unradius-std" ><div class="uncont" ><div class="uncode_text_column" ><p>Text: <a href="https://creativecommons.org/licenses/by-sa/3.0/de/" target="_blank" rel="noopener noreferrer">CC-BY-SA 3.0</a></p>
</div></div></div></div></div></div><div class="wpb_column pos-middle pos-center align_right column_parent col-lg-8 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p><img decoding="async" class="alignnone size-medium wp-image-159021" src="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png" alt="" width="300" height="52" srcset="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png 300w, https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1.png 305w" sizes="(max-width: 300px) 100vw, 300px" /></p>
</div></div></div></div></div></div><script id="script-row-unique-19" data-row="script-row-unique-19" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-19"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/kuenstliche-intelligenz-teil-3-155492/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Die Diskussion um diskriminierende KI – und was wir von ihr lernen können</title>
		<link>https://www.politik-digital.de/news/kuenstliche-intelligenz-teil-2-155488/</link>
					<comments>https://www.politik-digital.de/news/kuenstliche-intelligenz-teil-2-155488/#respond</comments>
		
		<dc:creator><![CDATA[Julia Schymura]]></dc:creator>
		<pubDate>Thu, 01 Nov 2018 12:45:42 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Maschinelles Lernen]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Diskriminierung]]></category>
		<category><![CDATA[Algorithmen]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Deep learning]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=155488</guid>

					<description><![CDATA[Die rassistische, sexistische, psychopathische KI – manifestieren sich in einer Technologie, die unser Leben eigentlich verbessern sollte, die Schattenseiten unserer [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="http://politik-digital.de/wp-content/uploads/123cut.jpg"><img decoding="async" class="alignnone size-full wp-image-155498" src="http://politik-digital.de/wp-content/uploads/123cut.jpg" alt="123cut" width="926" height="521" /></a>Die rassistische, sexistische, psychopathische KI – manifestieren sich in einer Technologie, die unser Leben eigentlich verbessern sollte, die Schattenseiten unserer Gesellschaft? Ist KI nun eine Möglichkeit, menschliche Irrationalität, vorherrschende Ungleichheit und Vorurteile zu reduzieren – oder potenziert sie sie stattdessen?</p>
<p>Vor einigen Monaten tauchte Norman auf. Norman behauptet, ein Psychopath zu sein. Während sein Kollege auf Rohrschachtests eine Hochzeitstorte sieht, sieht er, wie ein Mann in eine Teigmaschine fällt oder auf offener Straße erschossen – Brutales, um es kurz zu fassen. Norman ist kein Mensch; Norman ist der Name einer KI, die mit Fotos eines Reddit Threads trainiert wurde und dann angeben sollte, was sie auf Fotos des Rohrschachtests sieht. Es ist unklar, ob wir Norman irgendwie witzig finden oder ihn als Symbol für die Risiken und Gefahren halten sollten, die KI birgt. Bei anderen Meldungen ist es eindeutiger: Es ist letzteres.  In letzter Zeit machte Gesichtserkennungssoftware von IBM, Face++ oder Microsoft Schlagzeilen: Weil sie hellhäutige Männer wesentlich besser erkennt, als Frauen mit dunklerer Hautfarbe. Eine rassistische KI? Das ist dabei kein Einzelfall: Die Software COMPAS, die die Wahrscheinlichkeit eines kriminellen Rückfalls voraussagen soll, beschreibt afroamerikanischen Häftlingen mehr als doppelt so häufig fälschlicherweise als Hochrisikofälle. Chatbots, wie Tay von Microsoft, verleugnen auf twitter den Holocaust. Immer lauter, immer häufiger wird der Vorwurf der diskriminierenden Systeme ausgesprochen. Doch handelt es sich dabei wirklich um diskriminierende Technologie? Ist es einer Technologie möglich, sexistisch, rassistisch, extremistisch zu sein? Und wie sollen wir als Gesellschaft damit umgehen?</p>
<h3>„Algorithmen sind nicht ausschließlich technisch.“</h3>
<p>Im Juni hält Goda Klombyte, Doktorandin des GEdis Lab der Universität Kassel, einen Vortrag in Berlin. GEdis steht dabei für Gender and Diversity in Informatic Systems, sie spricht über Feminismus und Algorithmen. Was sie sagt, ist allerdings anwendbar auf jegliche Form von Diskriminierung: Algorithmen seien nicht ausschließlich technisch – es sei an uns zu fragen, wessen Perspektive sie vermitteln und wie es möglich ist, soziale Praktiken in Algorithmen einzuschleusen. Wie wurde beispielsweise Tay zum Holocaustleugner oder die Gesichtserkennungssoftware zum vermeintlichen Rassisten? Hinter beiden Anwendungen scheinen neuronale Netze zu stehen (etwas mehr darüber haben wir bereits hier geschrieben). Neuronale Netze sind Algorithmen, die maschinell lernen können. Sie werden mit einem Datensatz trainiert, einem Trainingsset; bei Bilderkennung mit Fotos, bei Spracherkennung mit Sprache und Text. Umso mehr Input zur Verfügung steht, umso größer das Trainingsset, umso besser werden diese Systeme in der Erkennung von Bildern oder Sprache. Sie lernen. Würden wir das Trainingsset der Gesichtserkennungssoftware ansehen, würden wir wohl einen Datensatz auffinden, in dem Menschen (beziehungsweise Männer) mit hellerer Hautfarbe wesentlich häufiger auftauchen, als Menschen mit anderer Hautfarbe. Weiße Männer wären stark repräsentiert, Frauen und Menschen anderer Hautfarbe unterrepräsentiert. Daher erkennt Software letztere weniger gut &#8211; sie lernte besser, helle Hautfarbe zu erkennen, als dunkle. Datensätze, in denen etwas über- oder unterrepräsentiert ist, sind ein häufiges Phänomen, nicht nur in Gesichtserkennungsalgorithmen: Datenbiases.</p>
<h3>Algorithmen erkennen Muster viel stärker als wir Menschen</h3>
<p>Das bedeutet, dass obgleich das Resultat diskriminierend ist, die Technologie, sprich die Algorithmen als solche, nicht diskriminierend sind. Sie lernen lediglich mit den Daten, die ihnen zur Verfügung gestellt werden. Und das ist ein Problem: Denn häufig lernen Algorithmen mit historischen Daten; mit dem, was „eben da ist“. „Spracherkennungsalgorithmen, beispielsweise, lernen auf Basis existierender Sprache. Wenn es in der existierenden Sprache das Muster gibt, dass ein Mann immer der Verdiener, der Arzt, ist und die Frau mit Haushalt assoziiert wird, weil Menschen das so im Kopf haben, lernt der Algorithmus das. Und man muss sich aktiv bemühen, das rauszunehmen“, sagt Professor Florian Ellsaesser vom Centre for Human and Machine Intelligence der Frankfurt School of Finance and Management. Diskriminierung und Ungleichheiten sind in unserer Gesellschaft präsent, sie finden sich in alltäglichen Strukturen, in unserer Sprache, in den Daten, mit denen Algorithmen dann lernen sollen. „Das ist ja nicht nur ein Problem von Algorithmen, sondern auch der Mensch hat das Problem, dass er Dinge zu sehr generalisiert. Es existiert bei uns Menschen genauso, nur der Algorithmus bringt es viel stärker heraus, weil es da vollautomatisch läuft.“ Dem stimmt auch Dr. Sebastian Thieme, Bioinformatiker und -physiker, zu. Er weiß, dass Algorithmen viel besser darin sind, Muster zu erkennen, als wir Menschen. Algorithmen erkennen Muster auch dort, wo wir sie nicht erkennen – nicht mehr erkennen oder nicht erkennen wollen. Und das ist erschreckend.</p>
<p>„Wir erkennen die Systematik dadurch viel stärker“, sagt Ellsaesser. „Da merken wir, dass Frau eben im durchschnittlichen Sprachgebrauch oft mit Haushalt assoziiert wird.“ Uns werde jetzt ein Spiegel vorgehalten, sagt Thieme, ein gesellschaftlicher Spiegel. Das trifft vor allem auf den COMPAS Algorithmus zu: Trainiert wurde er mit historischen Daten. Mit Daten, die repräsentieren, dass einige Gruppen von Menschen eine andere Behandlung erfahren, einige RichterInnen und BeamtInnen nicht immer objektiv entscheiden. Mit Daten, in denen sich rassistische und diskriminierende Muster finden lassen. „Was wir in Zukunft erleben werden ist keine mehr so offensichtliche Diskriminierung, sondern neue Arten von Diskriminierung“, ist sich Thieme sicher.  Erlebt haben wir hier nicht zwangsläufig eine gezielte diskriminierende Programmierung – sondern stattdessen das Sichtbarmachen und Potenzieren eines Musters erlebt, das so in unserer Gesellschaft existiert.</p>
<h3>Was darf entscheidungsrelevant sein?</h3>
<p>Wenn wir über Daten sprechen, müssen wir über noch mehr sprechen als über Biases. So muss bei der Programmierung entschieden werden, welche Parameter oder Kriterien für die Datenbewertung durch den Algorithmus festgelegt werden. Es muss sich überlegt werden, welche Kriterien letztlich relevant für eine Bewertung und Entscheidung sind. Würden wir uns COMPAS anschauen müssten wir also beispielsweise fragen: Wenn festgestellt werden soll, ob jemand frühzeitig aus der Haft entlassen wird, ist die Hautfarbe ein solcher Parameter? Benötigt man in einem Datensatz Angaben über Religion, Herkunft, Delikt – was davon darf wirklich urteilsstiftend sein? „Diejenigen, die den Algorithmus entwickeln, entscheiden letztlich, welche Kriterien oder Features sie mit hereinnehmen und welche nicht. Das heißt, hier liegt viel in der Verantwortung der EntwicklerInnen, auf solche Dinge zu achten“, sagt Thieme.</p>
<h3>Wir brauchen ein Algorithmenmonitoring</h3>
<p>Aber wie kann das geleistet werden? Wie können wir beispielsweise sicherstellen, dass die Menschen, die in der Verantwortung stehen, darauf achten? Algorithmenmonitoring, oder von vielen auch Algorithmen-TÜV genannt, scheint hier eine mögliche Antwort zu sein. Thieme sieht letzteren Begriff allerdings skeptisch: „Was es nicht geben wird ist, dass Firmen uns ihre Algorithmen geben, so dass wir sie von Zeile eins bis zehn Millionen durchschauen. Deshalb finde ich den Begriff TÜV irreführend.“  Zu groß seien dafür die Programme, zu kompliziert die Algorithmen. Und zulassen würden es die Unternehmen schon gar nicht: „Es ist schwierig, darüber eine gesetzliche Handhabe zu bekommen, weil die Entwicklung eines Algorithmus viel mit geistigem Eigentum zu tun hat. Wenn der Algorithmus von google bekannt würde, würde ihn jeder kopieren – weshalb Firmen den Teufel tun, den rauszugeben.“ Wie Monitoring stattfinden kann, ist eine Frage, auf die es nur die Antwort gibt, dass es irgendwie passieren muss. Das wie ist noch nicht klar. Thieme spricht viel von den Hindernissen, auf die man treffen wird, wenn man versucht, Daten von unabhängiger Distanz sichten zu lassen. Vertrauliche Daten, vertrauliche Algorithmen, Kunden- und Firmengeheimnisse. Prinzipiell glaube er aber daran, in die Systeme hineinsehen zu müssen, um sie zu prüfen. Dasselbe gilt für die Daten, mit denen gearbeitet wird: Diese müssten genauso von ExpertInnen gesichtet und analysiert werden. Völlig ohne Verzerrungen, biasfrei sozusagen, werden wir sie allerdings nicht bekommen, ist er sich sicher. „Allein bei der Selektion der Daten haben wir ja bereits einen Bias. Und auch wenn wir es objektiv machen wollen, werden wir es wahrscheinlich subjektiv machen. Weil wir nun mal Menschen sind“, sagt er. „Aber wenn möglichst viele Menschen sich die Daten ansehen und einigen, dann kann man den Bias so klein wie möglich halten, auch wenn man ihn nicht völlig rauskriegt.“</p>
<h3> Es beginnt noch früher</h3>
<p>Die Daten müssen also gesichtet werden, die Algorithmen analysiert. Allerdings sind es am Ende des Tages nicht die Algorithmen, die sexistisch und rassistisch sind – sondern die Gesellschaft, in der wir leben, zumindest zum Teil. Aus diesem Grund sind die Daten, auch wenn sie ein großes Thema sind, nicht das einzige. Während ihres Vortrags fragt uns Klombyte beispielsweise, warum alle Sprachassistenten (oder Assistentinnen?) weiblich konzipiert sind? Siri, Alexa – was vermittelt es für ein Bild, dass es weibliche Stimmen mit weiblichen Namen sind, die uns ohne Widerworte in jedem Aspekt unseres Alltags unterstützen sollen? Eine ähnliche Frage stellt sich bei einem im letzten Jahr entwickelten System, das anhand eines Fotos eines Menschen feststellen sollte, ob er oder sie homosexuell ist. Nicht nur die Annahme, dass es tatsächlich bei 70-80% der Bilder funktionierte, ist diskussionswürdig – sondern auch warum überhaupt danach gefragt wurde: „Es gibt ganz viele andere Fragestellungen – hat das Aussehen etwas mit Bildung zu tun, oder einer sozialen Stellung in der Gesellschaft, oder beim Einstellungsverfahren: Spielt bei der Einstellung in Firmen das Aussehen eine Rolle? All das ist interessant und wäre damit erklärbar. Aber es wurde eine sexuelle Frage gestellt, eine Frage nach der sexuellen Orientierung. Und das ist grenzwertig“, sagt Thieme. Es sind nicht nur die Daten, die wir auswählen, es beginnt viel weiter davor: Was für Fragen stellen wir uns überhaupt? Was wollen wir mit unseren Algorithmen erreichen? Und was sagt die Antwort auf diese Fragen über unsere Gesellschaft aus?</p>
<p>Algorithmen helfen uns, zu erkennen, was bereits in unserer Gesellschaft verankert ist, so fest, dass es nicht mal mehr bemerkt wird, nicht hinterfragt wird, sondern akzeptiert. Die Algorithmen erkennen diese Muster und verstärken sie. So stark, dass erkannt wird, dass es eben nicht akzeptiert werden kann. Und dann folgt ein Aufschrei. Es ist ein Paradox: Einerseits die Möglichkeit zu erkennen, wo wir Diskriminierung haben;  andererseits die Gefahr einer neuen, weniger offensichtlichen Diskriminierung. So oder so: Bei dem Aufschrei müssen wir aufpassen, dass er die richtigen Verantwortlichen trifft &#8211; denn es sind nicht die Algorithmen, die diskriminieren, es sind unsere gesellschaftlichen Strukturen.</p>
<p>&nbsp;</p>
<p>Titelbild: Photo by<a href="https://unsplash.com/@snowshade" target="_blank" rel="noopener noreferrer"> Oleg Laptev</a> on <a href="https://unsplash.com/photos/0CVbBwUkvqk" target="_blank" rel="noopener noreferrer">Unsplash</a></p>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x110111.png"><img decoding="async" class="alignnone size-medium wp-image-151003" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x110111-305x53.png" alt="CC-BY-NC 2.0" width="305" height="53" /></a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/kuenstliche-intelligenz-teil-2-155488/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>&#8220;Mobile Recruiting&#8221; &#8211; mit einem Wisch zum Traumjob?</title>
		<link>https://www.politik-digital.de/news/mobile-recruiting-mit-einem-wisch-zum-traumjob-154653/</link>
					<comments>https://www.politik-digital.de/news/mobile-recruiting-mit-einem-wisch-zum-traumjob-154653/#respond</comments>
		
		<dc:creator><![CDATA[Lea Herrmann]]></dc:creator>
		<pubDate>Thu, 17 May 2018 14:01:04 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Algorithmen]]></category>
		<category><![CDATA[Personalwesen]]></category>
		<category><![CDATA[Recruiting]]></category>
		<category><![CDATA[App]]></category>
		<category><![CDATA[Bewerbung]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=154653</guid>

					<description><![CDATA[Anschreiben formulieren, Lebenslauf überarbeiten, Zeugnisse scannen und professionelles Bewerbungsbild erstellen lassen. Der Weg zu einer soliden Bewerbung, wenn auch online [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="http://politik-digital.de/wp-content/uploads/opportunity_640280.jpg"><img decoding="async" class="alignnone size-full wp-image-154660" src="http://politik-digital.de/wp-content/uploads/opportunity_640280.jpg" alt="opportunity_640:280" width="640" height="280" /></a>Anschreiben formulieren, Lebenslauf überarbeiten, Zeugnisse scannen und professionelles Bewerbungsbild erstellen lassen. Der Weg zu einer soliden Bewerbung, wenn auch online versendet, beinhaltet noch immer viele Schritte. Doch ist dieser Prozess überhaupt noch zeitgemäß? Die Bewerbung per Smartphone verspricht Abhilfe. Aber wie genau verändert „Mobile Recruiting“ den Bewerbungsprozess und welche Vor- und Nachteile entstehen dabei für Privatpersonen und für Firmen?</p>
<p>Kaum ein Unternehmen setzt heutzutage noch auf Printanzeigen, wenn es um die Rekrutierung von neuem Personal geht. Stellenanzeigen in verschiedenen Online-Portalen gehören längst zum guten Ton im Personalmanagement von Unternehmen aller Art, ob Mittelständler oder Großkonzern. Doch nicht nur der Stellenmarkt, sondern auch der Bewerbungsprozess selbst steht dabei im Wandel der Digitalisierung. So versprechen zahlreiche Apps, den Bewerbungsprozess zu erleichtern, indem sie umfassend auf diesen vorbereiten oder gar versuchen ihn komplett zu erneuern. Vereinfachte Bewertungssysteme oder mit Hilfe von Algorithmen optimierte Auswahlprozesse sollen dabei helfen, Job und Bewerberin oder Bewerber noch besser auf einander abzustimmen. Besonders die typischen Wünsche der <a href="https://www.zeit.de/2013/11/Generation-Y-Arbeitswelt" target="_blank" rel="noopener noreferrer">Generation Y</a>, wie beispielsweise Flexibilität, Mobilität und schnelle Informationsbeschaffung, erhalten dabei die Möglichkeit endlich auch bei der Jobsuche Berücksichtigung zu finden.</p>
<h3>Bewerbung per App – it’s a match!</h3>
<p>Laut einer <a href="https://www.ibusiness.de/aktuell/db/758877veg.html" target="_blank" rel="noopener noreferrer">Studie</a> der Hochschule Rhein Main und der Jobbörse Jobware, benötigen die Hälfte aller Befragten noch immer zwischen ein und drei Stunden für eine Bewerbung. Zeitersparnis, das höchste Gut der Generation Y, steht deshalb im Vordergrund jeder App. Jobportale wie Monster.de oder Stepstone.de werben daher mit Kurzbewerbungen, die versprechen die Bewerbung mit einem Klick zu versenden. Gleichzeitig bekommen Unternehmen standardisierte Bewerbungen, die einfacher vergleichbar sind.</p>
<p>Die App <a href="https://talentcube.de" target="_blank" rel="noopener noreferrer">„TalentCube“</a> geht einen Schritt weiter. Mit Hilfe von selbstgedrehten Kurzvideos soll das klassische Bewerbungsgespräch künftig bequem mit dem Smartphone von zu Hause geführt werden. Unternehmen erhalten die Möglichkeit, die App mit job- oder persönlichkeitsbezogenen Fragen zu füttern. Die Bewerberinnen oder Bewerber beantworten diese Fragen dann mit Hilfe von kurzen Videos, die sie selbst mit der Frontkamera ihres Smartphones drehen. Der Clou: Dabei erhalten alle nur einen Take um die Fragen zu beantworten, so wird die Situation eines klassischen Bewerbungsgesprächs simuliert und simultan die Spontanität getestet. Keine Anreisekosten, keine Wartezeit und trotzdem ein persönlicher Eindruck der Jobanwärter. Ein Gewinn an Zeit und Effizienz sowohl für Jobsuchende als auch für die Personalabteilung, so zumindest die Hersteller der App.</p>
<h3>Beim „Robot Recruiting“ entscheidet der Algorithmus</h3>
<p>Nicht nur der Bewerbungsprozess, sondern auch das Auswahlverfahren selbst wird zunehmend durch moderne Technik optimiert. Beim sogenannten „Robot Recruiting“ liest nicht die Personalabteilung, sondern der Computer den Lebenslauf der Jobinteressenten. Dabei entscheidet ein Algorithmus, wer für den Job geeignet ist. Unter dem Deckmantel der fairen Bewertung gleicht der Algorithmus dabei ab, ob die für den Job geforderten Eigenschaften erfüllt sind. Welche Eigenschaften gefragt sind, entscheidet die Person, die den Algorithmus programmiert. Hard-Skills wie Sprachkenntnisse oder Jahre an Berufserfahrung sind dabei für die meisten Algorithmen selbstverständlich einfacher auszulesen als Soft-Skills, wie beispielsweise Teamfähigkeit. Trotzdem könnte ein transparentes Bewertungssystem frei von menschlichen Vorurteilen für ein Plus an Fairness auf dem Arbeitsmarkt sorgen, wenn auch (unter Umständen) auf Kosten des Bauchgefühls, das bisher noch in den meisten Unternehmen darüber entscheidet, wer wirklich ins Team passt.</p>
<p>Damit sind Algorithmen in der Lage, nicht nur unter Personen auszuwählen, die sich aktiv für den Job beworben haben, sondern auch selbständig in verschiedenen Netzwerken nach passenden Kandidatinnen und Kandidaten zu suchen. Welche Seiten wurden geliked, worüber wird gepostet und vor allem wer verfügt über ein ausreichend großes Netzwerk? Wer kennt die führenden Köpfe der Branche? Ist eine passende Kandidatin oder ein passender Kandidat gefunden, bewirbt sich das Unternehmen bei diesen. Damit dreht sich der klassische Bewerbungsprozess und Unternehmen buhlen aktiv um ihr zukünftiges Personal. Setzt sich diese Form des „Robot Recruitings“ durch, bedeutet das, dass sowohl Firmen als auch Privatpersonen, ob auf der Suche nach einer neuen Arbeitsstelle oder nicht, darauf angewiesen sind, Präsenz auf Online-Plattformen zu zeigen. Laufen damit alle, die nicht bereit sind ihre Daten online preiszugeben Gefahr, auf dem Arbeitsmarkt abgehängt zu werden?</p>
<h3>Risiken und Nebenwirkungen</h3>
<p>Um die Vorteile der Digitalisierung im Bewerbungsprozess langfristig nutzen zu können, gilt es nach offenen Baustellen in der aktuellen Entwicklung zu suchen. Die Suche danach beginnt mit der Zielgruppe. Die Generation Y, die gerade erste Schritte auf dem Arbeitsmarkt unternimmt, bewegt sich gewohnt intuitiv und damit problemfrei in digitalen Gewässern. Sie ist gewöhnt an schnelle Bewertungssysteme und kurze Kommunikationswege. Damit liegt ein naheliegendes Problem auf der Hand: Andere Generationen sind gewohnt an alte Bewerbungsprozesse und sind weniger präsent auf den entsprechenden Plattformen. Diese Beobachtung geht Hand in Hand mit der, über die Art der Jobs, die auf den neuen digitalen Pfaden wandern. Scheinbar naturgegeben erscheinen Sektoren die ihr täglich Brot auf die eine oder andere Weise durch oder mit Hilfe von medialen Prozessen verdienen, offener für neue digitale Entwicklungen. Eine Stelle in einer Redaktion oder einer Marketing Abteilung wird daher potentiell eher Gebrauch von den neuesten Bewerbungstools machen, als ein Ausbildungsplatz in einer Autowerkstatt.</p>
<p>Eine weitere Herausforderung bietet der Datenschutz. Was passiert mit sensiblen Bewerberdaten nach dem Bewerbungsverfahren und wie erkläre ich dem Algorithmus, dass ich nicht möchte, dass meine Daten in autonomen Headhuntings Berücksichtigung finden? Letztendlich birgt die mobile Bewerbung damit die Gefahr, die gläserne Bürgerin  oder Bürger zum Optimum des Bewerbungsmarktes zu erheben. Privates und Berufliches versmischen sich unwiderruflich, wenn auf sozialen Netzwerken nur noch das geteilt wird, was dem zukünftigen Arbeitgeber oder der zukünftigen Arbeitgeberin potentiell gefallen könnte. Wird der Arbeitsplatz zudem beispielsweise auf dem eigenen Profil angegeben, stellt sich außerdem die Frage, ob auf der entsprechenden Plattform noch als Privatperson agiert wird, oder doch als Repräsentant des Unternehmens.</p>
<p>Letztendlich erscheinen besonders kleine und mittelständische Unternehmen in Deutschland noch immer im Dornröschenschlaf hinsichtlich der Akzeptanz neuer Techniken. An innovativen Ideen, die versprechen den Bewerbungsprozess einfacher, transparenter und damit letztendlich effektiver zu machen mangelt es jedenfalls nicht. Denn die Bewerbung per Smartphone bietet nach wie vor viel Potential. Neben der Zeitersparnis stellt vor allem die objektive Bewertung einen großen, potentiellen Vorteil des Mobile Recruitings dar. Ob zwischenmenschliche Prozesse und das Recht auf Privatsphäre dabei jedoch genügend berücksichtigt werden, bleibt abzuwarten.</p>
<p>Titelbild: © mohammed_hassan via <a href="https://pixabay.com/de/gelegenheit-rekrutierung-3185099/">Pixabay</a>, <a href="https://creativecommons.org/publicdomain/zero/1.0/deed.de">CC0</a>, bearbeitet.</p>
<p><strong><a href="http://politik-digital.de/wp-content/uploads/CC-Lizens-305x531.png"><img decoding="async" class="alignnone size-full wp-image-123698" src="http://politik-digital.de/wp-content/uploads/CC-Lizens-305x531.png" alt="Creative Commons Lizenz" width="305" height="53" /></a> </strong></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/mobile-recruiting-mit-einem-wisch-zum-traumjob-154653/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Bundestagswahl 2017: Kaum Unterschiede bei der Google-Suche</title>
		<link>https://www.politik-digital.de/news/kaum-unterschiede-bei-der-google-suche-154299/</link>
					<comments>https://www.politik-digital.de/news/kaum-unterschiede-bei-der-google-suche-154299/#respond</comments>
		
		<dc:creator><![CDATA[Marie Adolph]]></dc:creator>
		<pubDate>Fri, 02 Mar 2018 15:19:27 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[Filterbubble]]></category>
		<category><![CDATA[Algorithmen]]></category>
		<category><![CDATA[Algorithm Watch]]></category>
		<category><![CDATA[Filterblase]]></category>
		<category><![CDATA[Bundestagswahl 2017]]></category>
		<category><![CDATA[Filteralgorithmen]]></category>
		<category><![CDATA[Studie]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=154299</guid>

					<description><![CDATA[Personalisiert Google meine politischen Suchergebnisse? Werden meinem Nachbar andere Inhalte angezeigt, wenn er im Internet nach der gleichen Partei sucht? [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="http://politik-digital.de/wp-content/uploads/Algorithmen.jpeg"><img decoding="async" class="alignnone size-full wp-image-154300" src="http://politik-digital.de/wp-content/uploads/Algorithmen.jpeg" alt="Anzeige turi.indd" width="640" height="280" /></a>Personalisiert Google meine politischen Suchergebnisse? Werden meinem Nachbar andere Inhalte angezeigt, wenn er im Internet nach der gleichen Partei sucht? Nein, die Ergebnisse gleichen sich, lautet das Fazit einer Studie die am Mittwoch in Berlin vorgestellt wurde.</p>
<p>Die Studie „Datenspende: Google und die Bundestagwahl 2017“, eine Kooperation der Initiative „AlgorithmWatch“ und sechs Landesmedienanstalten, beschäftigte sich mit der personalisierten Google-Suche zum Thema „Bundestagswahl 2017“. Das im Juli 2017 gestartete Projekt wertete mithilfe eines Browserplugins die Suchanfragen 4.384 freiwilliger Teilnehmer aus und untersuchte ihre Google-Suchergebnisse auf Gemeinsamkeiten und Unterschiede. Erhalten Personen mit unterschiedlichen Meinungen und Vorlieben, die gleichen Suchergebnisse auf Google?</p>
<h3>Personensuche weist gleiches Ergebnis auf</h3>
<p>Katharina Zweig, Professorin an der TU Kaiserslautern stellte das überraschende Ergebnis vor. Die Filterblasentheorie von Eli Pariser aus dem Jahr 2011 konnte nach Auswertung der Daten nicht bestätigt werden. Begriffe wie „Cem Özdemir“, „Alexander Gauland“  oder „Angela Merkel“, die zeitgleich gesucht wurden, entsprachen bis zu neunzig Prozent den Suchergebnissen der anderen Teilnehmer.</p>
<p>Im Vergleich zur Personensuche wichen die Suchergebnisse nach Parteien stärker voneinander ab. Doch auch hier konnte die Theorie nicht bestätigt werden, da die Teilnehmern aufgrund regionaler Unterschiede abweichende Links zu ortsansässigen Parteien erhielten. Von einem personalisierten Suchergebnis kann daher nicht gesprochen werden.</p>
<h3>Filterblasen und Echokammern beeinflussen unsere Denkweise</h3>
<p>Die Filterblasentheorie von Eli Pariser aus dem Jahr 2011 findet zumindest in der Google-Suche von politischen Begriffen keine Anwendung.</p>
<p>Der Begriff einer „Filterblase“ wird im Zusammenhang mit Algorithmen häufig verwendet. Eli Pariser, ein amerikanischer Polit-Aktivist löste mit dem Begriff  der „Filter Bubble“ eine weltweite Debatte über personalisierte Inhalte im Internet aus. Die Idee: Durch das Klickverhalten im Netz offenbaren Menschen ihre Vorlieben. Ein Algorithmus lernt aus dem Verhalten des Nutzers und bietet ihm Inhalte an, die seinen Interessen und Präferenzen entsprechen, sprich: der Algorithmus personalisiert sein Suchergebnis. Dadurch sieht der Nutzer durch einen Filter nur noch den Ausschnitt der Welt, der mit seinen eigenen Interessen, Präferenzen und Überzeugungen übereinstimmt.  Allerdings ist die Theorie der Filter-Bubble umstritten, <a href="http://www.spiegel.de/netzwelt/web/twitter-datenanalyse-wir-hatten-eine-falsche-vorstellung-von-der-filterblase-a-1185406.html" target="_blank" rel="noopener noreferrer">auch Untersuchungen über Twitter haben die Vermutung nahgelegt, dass Nutzer weniger isoliert von anderen Ansichten sind, wie es Pariser zuvor annahm.</a></p>
<h3>Zukünftige Maßnahmen für den Umgang mit Algorithmen</h3>
<p>Nach der Präsentation der Ergebnisse ging es auf dem Podium um den Umgang mit Algorithmen. Da diese beim Sortieren von Informationen unverzichtbar sind, muss zukünftig gewährleistet sein, dass sie nicht missbräuchlich arbeiten.  Die Einführung eines „Algorithmen-TÜV“ soll die Aufgabe haben, Mindeststandards wie Transparenz, Berichtspflicht und Diskriminierungsfreiheit zu garantieren. Siegfried Schneider, Präsident der bayerischen Landeszentrale für neue Medien, fordert eine bessere Kontrolle von Personen, die Algorithmen entwickeln. Darüber hinaus soll der neue Beruf des „Data Scientist“ darauf abzielen, die Auswirkungen programmierter Algorithmen zu bewerten.  Die geforderte Transparenz stehe im Interesse der Verbraucher- und Persönlichkeitsrechte. Aber auch  Nutzer müssen an ihrer Medienkompetenz arbeiten und ihr Wissen über die Effekte algorithmischer Filterung vertiefen.</p>
<p>Dr. Anja Zimmer , Direktorin der Medienanstalt Berlin-Brandenburg (mabb), machte abschließend deutlich, dass die Studie lediglich eine Momentaufnahme eines begrenzten Zeitraums über einen Anbieter (hier: Google) ist. Man dürfe das Ergebnis nicht verallgemeinern und auf andere Anbieter wie Facebook projizieren. Auch für Google könnte das Ergebnis bei der nächsten Wahl schon anders ausfallen.</p>
<p>Titelbild: Veranstaltung &#8220;Algorithmen transparent machen&#8221;, bearbeitet</p>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizens-305x531.png"><img decoding="async" class="alignnone size-full wp-image-123698" src="http://politik-digital.de/wp-content/uploads/CC-Lizens-305x531.png" alt="Creative Commons Lizenz" width="305" height="53" /></a></p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/kaum-unterschiede-bei-der-google-suche-154299/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Algorithmen, die den Weg vorgeben</title>
		<link>https://www.politik-digital.de/news/algorithmen-die-den-weg-vorgeben-153846/</link>
					<comments>https://www.politik-digital.de/news/algorithmen-die-den-weg-vorgeben-153846/#respond</comments>
		
		<dc:creator><![CDATA[admin]]></dc:creator>
		<pubDate>Tue, 09 Jan 2018 08:58:33 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Gesellschaft]]></category>
		<category><![CDATA[Freiheit]]></category>
		<category><![CDATA[Algorithmen]]></category>
		<category><![CDATA[Vorurteile]]></category>
		<category><![CDATA[Einfluss]]></category>
		<category><![CDATA[Muster]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=153846</guid>

					<description><![CDATA[Unser gesamter Alltag wird mit digitaler Technologie gestaltet, deren Kernbestandteil Algorithmen sind. Wir sind uns dessen kaum bewusst, aber Algorithmen [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><img decoding="async" class="alignleft size-large wp-image-153878" src="http://politik-digital.de/wp-content/uploads/Leviathan-Welt-630x276.png" alt="Leviathan by Thomas Hobbes; engraving by Abraham Bosse, gemeinfreiSonnenaufgang by qimone CC0" width="630" height="276" />Unser gesamter Alltag wird mit digitaler Technologie gestaltet, deren Kernbestandteil Algorithmen sind. Wir sind uns dessen kaum bewusst, aber Algorithmen bestimmen in immer stärkerem Maße unser gesamtes Leben. Sie beschleunigen und vereinfachen Entscheidungsprozesse und werden obendrein auch noch als objektiv betrachtet. Dabei treffen sie nicht nur mit uns, sondern auch über uns Entscheidungen. Angesichts dessen stellt sich die Frage: Wie positiv ist der zunehmende Einfluss von Algorithmen auf unser Leben?</p>
<p>(Teil-)Automatisierte Funktionen im Auto, die Auswahl von Datingpartnern in der Liebe, personalisierte Serienempfehlungen bei Netflix oder die Chronologie der Facebook-Beiträge: Sie alle sind algorithmisch festgelegt. Algorithmen als künstliche Intelligenzen sind in vielen Bereichen des Alltags nicht mehr wegzudenken. So finden immer mehr algorithmische Abläufe auch  automatisiert im Hintergrund statt und haben nun eine <a href="http://initiatived21.de/app/uploads/2017/08/01-2_denkimpulse_ag-ethik_digitale-ethik-ein-denkmuster_final.pdf" target="_blank" rel="noopener noreferrer">derartige Qualität</a> erreicht, dass sie sich selbstständig weiterentwickeln können – auch „Maschinelles Lernen“ genannt. Ein Algorithmus lernt dabei durch Rückkoppelung und Speicherung von Daten, durch Erfahrungen sowie durch Generalisierung des Gelernten. So generiert ein Algorithmus analog wie ein Mensch selbstständig Wissen aus Erfahrung.</p>
<h3>Suche nach Korrelationen</h3>
<p>Der Unterschied: Algorithmen haben Zugang zu wesentlich mehr Informationen. So haben sie die Fähigkeit, auch komplexe Zusammenhänge zu verarbeiten. Indem sie Daten miteinander verknüpfen,  können sie Rückschlüsse ziehen und Vorhersagen treffen. Dabei sind die von Algorithmen generierten Berechnungen mittlerweile so komplex, dass sie von Menschen <a href="http://www.bertelsmann-stiftung.de/index.php?id=5772&amp;tx_rsmbstpublications_pi2%5bdoi%5d=10.11586/2017027" target="_blank" rel="noopener noreferrer">nicht mehr nachvollzogen werden können</a>. Insbesondere bei selbstlernenden Algorithmen ist die zugrundeliegende Logik kaum zu erfassen. Eine weitere Differenz: Während Menschen in ihrem Erkenntnisprozess nach kausalen Zusammenhängen suchen, bieten Algorithmen ganz nach dem Big-Data-Prinzip lediglich korrelative Zusammenhänge zwischen Input und Output an. Damit liefern sie Schätzungen und Vermutungen und sind somit in ihren Entscheidungen ebenso fehleranfällig wie der Mensch es wäre, suchte er nur nach korrelativen Zusammenhängen.</p>
<p>Auch die Firma Kreditech verwendet einen solchen Algorithmus, der anhand der Daten aus Facebook und Twitter, aber auch umstrittenen Faktoren wie des installierten Betriebssystems, der verwendeten Schriftart und des Tippverhaltens der Antragsteller über die jeweilige Kreditwürdigkeit entscheidet. Denn mit der Zeit lernte der Algorithmus, dass Antragsteller, die eine bestimmte Schriftart installiert hatten, den Kredit gehäuft nicht zurückgezahlt hatten. Doch selbst der Geschäftsführer der Firma weiß nicht, welche Daten letztendlich ausschlaggebend für eine Entscheidung sind. Am Ende bleiben nur die Korrelationen, ohne sie wirklich zu begreifen. Das Szenario erinnert an eine Zeit vor der Aufklärung: Weil der Computer es sagt, mache ich das so. Bedeutet dieser Umstand nicht eine zunehmende Abkehr von der Welt des selbstständigen Verstehens und Denkens?</p>
<h3>Langeweile vorprogrammiert</h3>
<p>Das magische Gefühl, durch Zufall auf neue und ansprechende Musik zu stoßen, ist in Zeiten von Musikanbietern wie Spotify wohl nicht das Gleiche. Denn wir suchen nicht mehr aktiv, sondern erhalten passiv, was uns gefallen könnte. Der Algorithmus namens „Echo Nest“ berechnet anhand des Geschmacksprofils, einer Klang-Analyse und Texterkennung, was einem als nächstes gefallen könnte. Dazu dienen auch die Nutzungsdaten anderer User, die das gleiche Verhaltensmuster an den Tag legen, um auch hier wieder eine Vorhersage treffen zu können. Auf diese Weise produzieren sie mehr Ähnlichkeit und damit hören wir immer mehr vom Gleichen. Auch die Auswahl der nächsten Lektüre ist durch eine solche zielgerichtete, algorithmische Zuspielung von Inhalten und ein gewisses Maß an Datendeterminismus geprägt.</p>
<p>Die algorithmische Sortierung und Personalisierung zeigt Menschen eher Inhalte an, die ihnen auch gefallen oder denen sie zustimmen würden. So basieren die Phänomene der Filterblasen und <a href="http://www.nachdenkseiten.de/?p=28235" target="_blank" rel="noopener noreferrer">Echokammern</a> genau auf diesem Prinzip: Auf Grundlage des jeweiligen Surfverhaltens sowie der daraus abgeleiteten Interessen werden einem verstärkt bestimmte Inhalte und Themen zugespielt. Was zunächst recht harmlos und bequem klingt, kann aber weite Folgen für die politische Kommunikation nach sich ziehen. Denn wer sich immer wieder Ansichten hingibt, die sich nicht von der eigenen unterscheiden, wird in seiner Filterblase nicht mit anderen Meinungen konfrontiert. Allerdings legen neuere Untersuchungen die <a href="http://www.spiegel.de/netzwelt/web/twitter-datenanalyse-wir-hatten-eine-falsche-vorstellung-von-der-filterblase-a-1185406.html" target="_blank" rel="noopener noreferrer">Vermutung</a> nahe, dass der Effekt weniger ausgeprägt als zuvor erwartet ist.</p>
<h3>Algorithmen mit Bias</h3>
<p>Oft werden die durch Algorithmen generierten Entscheidungen und Vorhersagen als neutral oder unabhängig angesehen. Doch tatsächlich sind Prozesse algorithmischer Entscheidungsfindung in vielerlei Hinsicht von Menschen beeinflusst: Menschen setzten die Ziele, entwerfen die Prozesse und interpretieren die Ergebnisse. So gibt es beispielsweise <a href="https://netzpolitik.org/2017/algorithmen-die-wir-brauchen/" target="_blank" rel="noopener noreferrer">Hinweise</a>, dass die durch die Programmierer implementierten Daten zu diskriminierenden Entscheidungen führen. Menschen aus ärmeren Wohngegenden oder mit Erkrankung würden beispielsweise bei der algorithmischen Vorauswahl zu Bewerbungsgesprächen benachteiligt werden. Alarmierend, wenn man bedenkt, dass in Großbritannien und den USA bereits 60 Prozent solcher Entscheidungen von Algorithmen übernommen werden. Durch die algorithmische Reproduktion solcher Entscheidungen würden so Diskriminierungstendenzen weiter <a href="http://www.bertelsmann-stiftung.de/index.php?id=5772&amp;tx_rsmbstpublications_pi2%5bdoi%5d=10.11586/2017027" target="_blank" rel="noopener noreferrer">verstärkt</a> werden.</p>
<p>Noch deutlicher zeige sich eine Benachteiligung, wenn man in der Google-Suche unter dem englischen <a href="http://www.wiwo.de/technologie/forschung/ethische-algorithmen-wie-viel-weiss-das-roboterauto/19994720-2.html" target="_blank" rel="noopener noreferrer">Stichwort „professional haircut“</a> nach Bildern sucht. Zu sehen sind dann nur weiße Männer. Gibt man „unprofessional haircut“ ein, sieht man nur schwarze Frauen. Algorithmen schreiben also auch rassistische Vorurteile sowie soziale Ungerechtigkeiten fort. Statt zu größeren Teilhabechancen kann die Digitalisierung auch zu wachsender Diskriminierung führen. In der digitalisierten Wissensgesellschaft wird die Gestaltung von Technologie so zur elementaren Machtfrage. „Es ist äußerst wichtig, diese ‚handwerklichen‘ Probleme in den Griff zu bekommen. Wir brauchen eine Anpassung der Gesetze, etwa jener, die gegen Diskriminierung schützen. Es muss für ArbeiterInnen, Angestellte und KonsumentInnen möglich sein, festzustellen, ob sie automatisiert diskriminiert wurden und, sollte das der Fall sein, entsprechend Schadenersatz zu verlangen“, so der Algorithmus-Forscher Felix Stalder.</p>
<h3>Reproduktion sozialer Muster</h3>
<p>In den USA und Großbritannien kommen zunehmend Predictive-Policing-Systeme zum Einsatz – eine Software, die Polizeiarbeit unterstützt, indem sie voraussagt, wo es Straftaten geben könnte. Die  Algorithmen, die besonders kriminalitätsbelastete Orte prognostizieren sollen, erkennen soziale Muster – ähnlich wie in den bereits geschilderten Beispielen. Solche Muster sind aber beweglich und man sollte nicht beginnen, sie wie Naturgesetze zu betrachten. Gegen soziale Muster kann man etwas tun, indem man in die ökonomischen und sozialen Bedingungen interveniert und sie ändert. Zumindest besteht auf diese Weise die Wahrscheinlichkeit, Kriminalität zu senken. Werden jedoch solche Muster lediglich erkannt, dargelegt und reproduziert, ohne entsprechende Maßnahmen einzuleiten und z.B. auf kontinuierliche Prävention zu setzen, wird sich die Statistik damit nicht verändern. So verzichtet die Gesellschaft im Grunde genommen immer mehr auf ihre Handlungsfähigkeit und die Freiheit, Dinge verändern zu können. Bleibt die Frage, ob wir auf diese Freiheit tatsächlich verzichten wollen.</p>
<p>&nbsp;</p>
<p>Titelbild: <a href="https://de.wikipedia.org/wiki/Datei:Leviathan_by_Thomas_Hobbes.jpg" target="_blank" rel="noopener noreferrer">Leviathan</a> by Thomas Hobbes; engraving by Abraham Bosse, gemeinfrei und Sonnenaufgang by qimono via <a href="https://pixabay.com/de/sonnenaufgang-raum-%C3%A4u%C3%9Fere-globus-1756274/" target="_blank" rel="noopener noreferrer">pixabay</a>, CC0</p>
<p><img decoding="async" class="alignleft size-full wp-image-123698" src="http://politik-digital.de/wp-content/uploads/CC-Lizens-305x531.png" alt="Creative Commons Lizenz" width="305" height="53" /></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/algorithmen-die-den-weg-vorgeben-153846/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
