<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>AI &#8211; politik-digital</title>
	<atom:link href="https://www.politik-digital.de/tag/ai/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.politik-digital.de</link>
	<description>Information, Kommunikation, Partizipation</description>
	<lastBuildDate>Wed, 14 Feb 2024 08:24:05 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.politik-digital.de/wp-content/uploads/2020/07/cropped-Politik-Digital_Logo_Sign_Gradient-512-32x32.png</url>
	<title>AI &#8211; politik-digital</title>
	<link>https://www.politik-digital.de</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Wenn Algorithmen richten &#8211; Künstliche Intelligenz in der Rechtsprechung auf dem Vormarsch</title>
		<link>https://www.politik-digital.de/news/algorithmen-richten-ki-rechtsprechung-165100/</link>
					<comments>https://www.politik-digital.de/news/algorithmen-richten-ki-rechtsprechung-165100/#respond</comments>
		
		<dc:creator><![CDATA[Johannes Beger]]></dc:creator>
		<pubDate>Tue, 13 Feb 2024 10:44:30 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Themenseite]]></category>
		<category><![CDATA[Rechtsprechung]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Algorithmen]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[KI]]></category>
		<guid isPermaLink="false">https://www.politik-digital.de/?p=165100</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-0"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column text-lead" ><p>Expert*innen beschäftigen sich zurzeit mit der Frage, ob in Bereichen wie der Justiz menschliche Urteilskraft unabdingbar sei. In dem Diskurs werden oft ethische und moralische Richtlinien angeführt, die mit der Vorstellung verknüpft sind, dass ein Algorithmus nicht über Gerechtigkeit und Moral entscheiden kann. Die Hoffnung besteht, dass KI-Systeme sogar dabei helfen können, gerechtere Urteile zu sprechen.</p>
</div><div class="uncode_text_column" ><p>Ohne Zweifel gibt es erschreckende Beispiele, die die Schattenseite individueller menschlicher Entscheidungshoheit im Rechtsystem offenbaren. <a href="https://www.pnas.org/doi/10.1073/pnas.1018033108">In einer prominenten Studie der New Yorker Columbia University und der israelischen Ben-Gurion-Universität</a> wurden mehr als tausend Urteile von acht unterschiedlichen Richter*innen an zwei israelischen Gerichten untersucht. Das Ergebnis macht in eindrucksvoller Weise die inhärente Willkür von verschiedenen Einflussfaktoren auf die Richter*innen in gerichtlichen Prozessen deutlich. Die Forscher*innen untersuchten, ob die Angeklagt*innen eine Bewährungs- anstatt einer angedrohten Haftstrafe erhalten. Das Ergebnis ist erstaunlich und sorgte nicht nur im soziologischen Diskurs für Aufmerksamkeit. Es stellte sich nämlich heraus, dass Richter*innen vor einer Mittagspause dazu tendieren, im Sinne des Status Quo zu urteilen, und dieser Effekt nach eingenommenen Mittagessen verblasst. Mit anderen Worten sind Gerichtsurteile davon beeinflusst, ob der oder die zuständige*r Richter*in <em>hangry</em> ist oder nicht.</p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span>Zwischen Nützlichkeit und impliziten Gefahren</span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ><p>Hinsichtlich der Ergebnisse der Studie scheint eine Utilisierung von emotionslosen, algorithmus-basierten KIs auf den ersten Blick sehr hilfreich. Die Mathematikprofessorin Hanna Fry identifiziert in ihrem Buch <em>Hello World &#8211; Was Algorithmen können und wie sie unser Leben verändern</em> verschiedene gerichtliche und anwaltliche Prozesse, bei denen künstliche Intelligenz bereits heute eine Rolle spielt. Zum Beispiel benutzen Anwält*innen innovative Instrumente, um Verträge zu erstellen oder lassen sich bei der Beurteilung und Einordnung von Beweisen unterstützen. Des Weiteren können sogenannte <em>Language Processing Models</em> Anwälte dabei unterstützen, <a href="https://www.researchgate.net/publication/358187814_The_Impacts_of_Artificial_Intelligence_on_Research_in_the_Legal_Profession">Vergleichsfälle und frühere Urteile zu recherchieren</a>. Dadurch können in manchen Fällen die Anwaltskosten signifikant gesenkt und somit der Zugang zu rechtlichem Beistand für viele erleichtert werden. Außerdem unterstützen KI-Systeme die Richter*innen bei der Einschätzung über die Wahrscheinlichkeit der Rückfälligkeit von Straftäter*innen durch die Auswertung von demografischen und personenbezogenen Daten oder schlagen passende Interventionsprogramme vor. In den USA sind diese sogenannten <em>Risk Assessment Tools</em> <a href="https://www.technologyreview.com/2019/01/21/137783/algorithms-criminal-justice-ai/">bereits fester Bestandteil der juristischen Praxis</a>. Jedoch sorgen diese seit der Implementation für Kritik und es wird gemahnt, dass durch die Funktionsweise des maschinellen Lernens ebenfalls Ungerechtigkeiten entstehen können.</p>
</div><div class="uncode_text_column" ><p>Das Justizsystem weiß selber, dass es nicht perfekt ist. Jedoch ist nicht ohne Grund der oft postulierte Anspruch: <strong>Justitia ist blind</strong>. Nichtsdestotrotz gibt es ungerechte Urteile beziehungsweise viele Urteile fühlen sich ungerecht an. Ist dementsprechend ein blinder Algorithmus, dem keine Intuition und Gefühlszustände zugrunde liegen, letzten Endes ein besserer Richter? KI kann zwar bei der Entscheidungsfindung der Gerichte helfen, birgt aber bei der Anwendung in juristischen Prozessen selbst auch gewisse Fallstricke. Grundlage für KI-Systeme sind immer Daten. Bei der Anwendung innerhalb der Rechtsprechung werden diese Daten zumeist direkt aus der juristischen Praxis entnommen. Die Algorithmen werden mit den Ergebnissen von vergangenen Prozessen trainiert &#8211; dadurch werden beispielsweise rassistische und sexistische Einschätzungen menschlicher Entscheidungsträger*innen direkt übernommen und somit herrschende Ungleichheiten reproduziert. Beispielsweise beschreibt das Deutsche Institut für Menschenrechte in seinem Bericht <a href="https://www.institut-fuer-menschenrechte.de/fileadmin/Redaktion/Publikationen/Praxis_Rassismus_in_der_Strafverfolgung.pdf"><em>Rassismus in der Strafverfolgung</em></a> in mehreren Fachbeiträgen Missstände in den gerichtlichen Arbeitsabläufen. Die Expert*innen stellen fest, dass ausländische Kläger*innen aufgrund verschiedener Gründe wie zum Beispiel Sprachbarrieren oder Vorurteilen weniger ernst genommen werden, aber auch explizit rassistisch motivierte Straftaten oft nicht hart genug bestraft werden würden. Dieselben Gefahren werden von der Rechtsprofessorin Giula Gentile skizziert. Sie betrachtet die Voreingenommenheit der Datengrundlage als eine der größten Risiken. Es gäbe keine Garantie dafür, dass <a href="https://blogs.lse.ac.uk/politicsandpolicy/trial-by-artificial-intelligence-how-technology-is-reshaping-our-legal-system/">KI-gestützte Gerichte mit grundlegenden Werten wie der Unabhängigkeit der Justiz und letztlich der Rechtsstaatlichkeit im Einklang stehen</a>.</p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span></p></span><span><div>Algorithmen als Unterstützer der Justiz</div></span><span><p></span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ><p>Verschiedene Wissenschaftler*innen sind sich zumindest einig, dass schon heute künstliche Intelligenz dazu beiträgt, eine Effizienzsteigerung bei juristischen Arbeitsprozessen zu erzielen. Diese Entwicklung wird sicherlich in den kommenden Jahren zunehmen. Giula Gentile mahnt, dass es in dem Zusammenhang jetzt die Aufgabe von Expert*innen sei, festzustellen, was bei der Algorithmisierung der Justiz verloren geht. Sie betont, dass KI kein Allheilmittel für die Fehlerhaftigkeit von Gerichten sein kann.<br />
Außerdem hält sie fest, dass sich durch den Einfluss von Algorithmen auf die Rechtspraxis das Bild von Richter*innen und deren Autorität verändern wird. Das Bild der Rechtsprechung als moralische Institution wird sich zunehmend wandeln. Schon heute kann künstliche Intelligenz durch Einschätzungen und Prognosen der Justiz dabei helfen, gerechtere Urteile zu fällen. Beispielsweise werden Empfehlungen zur Bewährungsdauer artikuliert, passende Interventionsprogramme vorgeschlagen oder die Höhe von Kautionen empfohlen. Hanna Fry fasst das wie folgt zusammen: Algorithmen seien zwar noch nicht in der Lage, Beweise zu analysieren und Reue zu bewerten und somit über Schuld zu entscheiden &#8211; jedoch können Sie die Richter*innen dabei unterstützen möglichst viele Aspekte in ihr Urteil mit einzubeziehen. Die juristische Entscheidung bleibt somit weiterhin (noch) in menschlicher Hand. Ob und wie Künstliche Intelligenz in der Rechtsprechung unterstützt, sollte zumindest in der Begründung von Urteilen transparent gemacht werden müssen. So gibt es zwar Diskussionen darüber, wie eine Transparenz, insbesondere bei komplexen maschinellen Lernsystemen, sichergestellt werden kann, inwiefern diese Bedenken auch im <a href="https://artificialintelligenceact.eu/de/">AI Act</a> ausreichend aufgegriffen werden, bleibt abzuwarten.</p>
</div></div></div></div></div></div><script id="script-row-unique-0" data-row="script-row-unique-0" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-0"));</script></div></div></div><div data-parent="true" class="vc_row styleptrl--cc-module has-bg need-focus style-color-gyho-bg limit-width boxed-row row-container" id="row-unique-2"><div class="row unequal col-no-gutter single-top-padding single-bottom-padding single-h-padding row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-middle pos-center align_left column_parent col-lg-4 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding  unradius-std" ><div class="uncont" ><div class="uncode_text_column" ><p>Text: <a href="https://creativecommons.org/licenses/by-sa/3.0/de/" target="_blank" rel="noopener noreferrer">CC-BY-SA 3.0</a></p>
</div></div></div></div></div></div><div class="wpb_column pos-middle pos-center align_right column_parent col-lg-8 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p><img decoding="async" class="alignnone size-medium wp-image-159021" src="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png" alt="" width="300" height="52" srcset="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png 300w, https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1.png 305w" sizes="(max-width: 300px) 100vw, 300px" /></p>
</div></div></div></div></div></div><script id="script-row-unique-2" data-row="script-row-unique-2" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-2"));</script></div></div></div><div data-parent="true" class="vc_row row-container" id="row-unique-3"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p>Foto von <a href="https://www.vecteezy.com/members/armmypicca">Titiwoot Weerawong</a> auf <a href="https://www.vecteezy.com/photo/11568822-lawsuit-and-justice-concept-lawyer-working-with-partner-at-law">vecteezy</a></p>
</div></div></div></div></div></div><script id="script-row-unique-3" data-row="script-row-unique-3" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-3"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/algorithmen-richten-ki-rechtsprechung-165100/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Vertrauenswürdige KI &#8211; Wie viel Regulierung braucht es wirklich?</title>
		<link>https://www.politik-digital.de/events/vertrauenswuerdige-ki-wie-viel-regulierung-braucht-es-wirklich-164816/</link>
					<comments>https://www.politik-digital.de/events/vertrauenswuerdige-ki-wie-viel-regulierung-braucht-es-wirklich-164816/#respond</comments>
		
		<dc:creator><![CDATA[Redaktion politik-digital.de]]></dc:creator>
		<pubDate>Mon, 12 Jun 2023 08:15:37 +0000</pubDate>
				<category><![CDATA[Events]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Regulierung]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Digitale Politik]]></category>
		<category><![CDATA[Digitalpolitik]]></category>
		<guid isPermaLink="false">https://www.politik-digital.de/?p=164816</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-4"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ></p>
<div class="article-width-content-with-read-more">
<div id="event-detail-paragraph">
<div class="text-content spacer-horizontal__inset-narrow title2margin">
<p class="carina-rte-public-DraftStyleDefault-block">Es scheint kein Tag zu vergehen ohne neue Schlagzeilen über künstliche Intelligenz. Besonders seit der Vorstellung des Chatbots ChatGPT-4 scheinen sich die Nachrichten zu überschlagen. Von bestandenen Jura-Prüfungen bis zum Schreiben von Computercodes – ein Erfolg jagt den nächsten. Doch Expert:innen warnen auch vor möglichen Herausforderungen wie beispielsweise einem potenziellen Vertrauensverlust in der Kommunikation sowie dem Wegfallen von Arbeitsplätzen.</p>
<p class="carina-rte-public-DraftStyleDefault-block">So ist es nicht überraschend, dass die Forderungen aus der Gesellschaft und von Politiker:innen nach einer effektiven Regulierung immer lauter werden. Mit dem AI Act möchte die EU genau das erreichen, um die Transparenz zu stärken und Europa als führenden Standort für vertrauenswürdige KI zu etablieren. Unter anderem sollen KI-Anwendungen in unterschiedliche mögliche Risikostufen eingeordnet werden &#8211; unannehmbares Risiko, hohes Risiko und geringes oder minimales Risiko.</p>
<p class="carina-rte-public-DraftStyleDefault-block">Gleichzeitig besteht die Gefahr bei einer zu strikten Regulierung, bis hin zu einem Moratorium für die Entwicklung künstlicher Intelligenz, dass sowohl Europa als auch Deutschland nicht mehr wettbewerbsfähig sein werden und somit die Zukunft künstlicher Intelligenz in den Händen von China und den USA liegen. Gemeinsam mit unseren Expert:innen und Ihnen wollen wir über die Zukunft von künstliche Intelligenz und ihrer Regulierung diskutieren.</p>
<div class="Grid__column___HJ_39 Grid__col_3___uSKie Grid__small___KYR7M">
<div class="Grid__row___mliEE Grid__small___KYR7M">
<div class="Grid__column___HJ_39 Grid__col_12___QHjxX Grid__small___KYR7M">
<div id="widget:c2015b40-227b-49e8-a39c-f17341173526" class="App__widgetIdcontainer___ms2gn">
<div class="Text__container___efG9d" data-cvent-id="widget-NucleusText-widget:c2015b40-227b-49e8-a39c-f17341173526">
<div class="">
<div class="css-vsf5of">
<p class="carina-rte-public-DraftStyleDefault-block"><strong>Sprecher:innen</strong></p>
<p class="carina-rte-public-DraftStyleDefault-block">Vanessa Cann                                         Geschäftsführerin, Bundesverband der Unternehmen der Künstlichen Intelligenz in Deutschland (angefragt)</p>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<div class="Grid__column___HJ_39 Grid__col_9___uxCYx Grid__small___KYR7M">
<div class="Grid__row___mliEE Grid__small___KYR7M">
<div class="Grid__column___HJ_39 Grid__col_12___QHjxX Grid__small___KYR7M">
<div id="widget:8b43c878-581c-4ee6-943c-ef47fac14659" class="App__widgetIdcontainer___ms2gn">
<div class="Text__container___efG9d" data-cvent-id="widget-NucleusText-widget:8b43c878-581c-4ee6-943c-ef47fac14659">
<div class="">
<div class="css-vsf5of">
<p class="carina-rte-public-DraftStyleDefault-block">Sergey Lagodinsky, MEP<br />
Stellvertretender Vorsitzender des Rechtsausschusses, Europäisches Parlament</p>
</div>
</div>
</div>
</div>
</div>
</div>
<div class="Grid__row___mliEE Grid__small___KYR7M">
<div class="Grid__column___HJ_39 Grid__col_12___QHjxX Grid__small___KYR7M">
<div id="widget:0dea4c05-c7fd-41b7-8f3e-f38c959c3a48" class="App__widgetIdcontainer___ms2gn">
<div class="Text__container___efG9d" data-cvent-id="widget-NucleusText-widget:0dea4c05-c7fd-41b7-8f3e-f38c959c3a48">
<div class="">
<div class="css-vsf5of">
<p class="carina-rte-public-DraftStyleDefault-block">Stefan Schnorr<br />
Staatssekretär im Bundesministerium für Digitales und Verkehr</p>
<p><a href="https://veranstaltungen.tagesspiegel.de/event/f7b59a41-e0e7-4688-b313-409c7ff0c4e0/summary?RefId=veranstaltungskalender">Hier anmelden.</a></p>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<section class="section spacer-horizontal__inset-narrow">
<div class="text-content"></div>
</section>
<p>
</div></div></div></div></div></div><script id="script-row-unique-4" data-row="script-row-unique-4" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-4"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/events/vertrauenswuerdige-ki-wie-viel-regulierung-braucht-es-wirklich-164816/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Trustworthy AI – Europa am Scheideweg</title>
		<link>https://www.politik-digital.de/events/trustworthy-ai-europa-am-scheideweg-164815/</link>
					<comments>https://www.politik-digital.de/events/trustworthy-ai-europa-am-scheideweg-164815/#respond</comments>
		
		<dc:creator><![CDATA[Redaktion politik-digital.de]]></dc:creator>
		<pubDate>Mon, 12 Jun 2023 08:15:23 +0000</pubDate>
				<category><![CDATA[Events]]></category>
		<category><![CDATA[Digitale Politik]]></category>
		<category><![CDATA[Digitalpolitik]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Europa]]></category>
		<category><![CDATA[Digitale Gesellschaft]]></category>
		<category><![CDATA[digitales Europa]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[KI]]></category>
		<guid isPermaLink="false">https://www.politik-digital.de/?p=164815</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-5"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p>Künstliche Intelligenz ist spätestens seit der Veröffentlichung von ChatGPT in aller Munde. Welche Chancen bietet die Ausnahmetechnologie? Wie sollten wir mit den Risiken umgehen? Und mit welchen Reformen wird Europa zum AI-Technologieführer? Diese hochaktuellen Fragen möchten wir mit Ihnen diskutieren.</p>
<p>Freuen Sie sich unter anderem auf:</p>
<ul>
<li><strong>Prof. Yoshua Bengio</strong>, Full Professor at the Department of Computer Science and Operations Research, Université de Montréal (Zuschaltung)</li>
<li><strong>Prof. Alena Buyx</strong>, Vorsitzende, Deutscher Ethikrat</li>
<li><strong>Tobias Haar</strong>, General Counsel, Aleph Alpha</li>
<li><strong>Markus Rolle</strong>, Finanzvorstand, O<sub>2</sub> Telefónica</li>
<li><strong>Stephan-Andreas Casdorff</strong>, Herausgeber, Der Tagesspiegel (Moderation)</li>
</ul>
<p>Tagesspiegel Data Debates finden regelmäßig statt und diskutieren die Auswirkungen der Digitalisierung auf die Gesellschaft. Gäste aus Politik, Wirtschaft, Wissenschaft, Religion und Kultur debattieren über das Potential von Datenschätzen und die Anforderungen an den Datenschutz.</p>
<p><a href="https://veranstaltungen.tagesspiegel.de/event/b2a893b1-bc9e-4ac8-9a87-918fb7b5f4ab/summary?RefId=0806">Hier anmelden.</a></p>
<p>
</div></div></div></div></div></div><script id="script-row-unique-5" data-row="script-row-unique-5" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-5"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/events/trustworthy-ai-europa-am-scheideweg-164815/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Mit künstlicher Intelligenz in eine klimaneutrale und nachhaltige Zukunft?</title>
		<link>https://www.politik-digital.de/news/mit-kuenstlicher-intelligenz-in-eine-klimaneutrale-und-nachhaltige-zukunft-164646/</link>
					<comments>https://www.politik-digital.de/news/mit-kuenstlicher-intelligenz-in-eine-klimaneutrale-und-nachhaltige-zukunft-164646/#respond</comments>
		
		<dc:creator><![CDATA[Pia Westerhoff]]></dc:creator>
		<pubDate>Wed, 05 Apr 2023 08:34:01 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Themenseite]]></category>
		<category><![CDATA[klimaneutral]]></category>
		<category><![CDATA[CO2- Emissionen]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[nachhaltig]]></category>
		<category><![CDATA[nachhaltige Digitalisierung]]></category>
		<guid isPermaLink="false">https://www.politik-digital.de/?p=164646</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-6"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column text-lead" ><p><span class="TextRun SCXW138687441 BCX8" lang="DE-DE" xml:lang="DE-DE" data-contrast="auto"><span class="NormalTextRun SCXW138687441 BCX8">Zuletzt beherrschte </span><span class="NormalTextRun SpellingErrorV2Themed SCXW138687441 BCX8">ChatGPT</span><span class="NormalTextRun SCXW138687441 BCX8"> die Nachrichten. Das KI-basierte Sprachmodell von Open AI</span> <span class="NormalTextRun SCXW138687441 BCX8">verbraucht</span> <span class="NormalTextRun SCXW138687441 BCX8">schätzungsweise </span><span class="NormalTextRun SCXW138687441 BCX8">eine Gigawattstunde Strom in 34 Tagen, das </span><span class="NormalTextRun SCXW138687441 BCX8">entspricht etwa dem Verbrauch von 3000 europäischen Durchschnittshaushalten im selben Zeitraum. Doch das ist nur die Spitze des Eisbergs.</span></span></p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span><span class="TextRun SCXW243224582 BCX8" lang="DE-DE" xml:lang="DE-DE" data-contrast="auto"><span class="NormalTextRun SCXW243224582 BCX8">Kann künstliche Intelligenz auch nachhaltig sein?</span></span></span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ><p><span data-contrast="auto">Genaue Zahlen und Informationen zu den verursachten Emissionen der existierenden KI-Systeme liegen bisher nicht vor. Eine <a href="https://arxiv.org/pdf/1906.02243.pdf">amerikanische Studie</a> geht davon aus, dass das Training einer einzelnen AI so viel CO2 emittiert wie 5 Pkws. Umso wichtiger ist deshalb das Monitoring während ihrer Herstellung und Anwendung. Nur so kann ermittelt werden, an welcher Stelle Ressourcen weiterhin eingespart und die CO2-Bilanz verbessert werden kann. Wie das konkret gehen soll, hat die gemeinnützige Forschungs- und Advocacy-Organisation <a href="https://algorithmwatch.org/de/">AlgorithmWatch</a> untersucht und die Ergebnisse in ihrem Magazin <a href="https://algorithmwatch.org/de/sustain-magazin-maerz-2023/">&#8220;SustAIn&#8221;</a> vorgestellt. </span></p>
</div><div class="uncode_text_column" ><p><span data-contrast="auto">Künstliche Intelligenz (KI), auch artificial intelligence (AI bzw. A.I.) genannt, ist aus unserem Leben kaum noch wegzudenken, auch wenn sie für uns nicht immer erkennbar ist und sich hinter vielen Alltagsanwendungen versteckt. Bei der Filterung von Spam-Mails zum Beispiel oder der Gesichtserkennung am Smartphone. Es wird eine Menge an Daten verarbeitet und das kostet Energie. Aber auch bei der Programmierung und beim Training werden enorme Rechenleistungen benötigt und CO2 emittiert. Auf der einen Seite stellt sich die Frage: Wie sieht eigentlich die Ökobilanz von KI-Rechenmodellen aus? Auf der anderen Seite gibt es Möglichkeiten sie so einzusetzen, dass mit ihrer Hilfe Energie gespart und die Erde in Zukunft klimaneutraler wird.</span></p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span><span class="TextRun SCXW59876119 BCX8" lang="DE-DE" xml:lang="DE-DE" data-contrast="auto"><span class="NormalTextRun SCXW59876119 BCX8">C</span><span class="NormalTextRun SCXW59876119 BCX8">O2-Emissionen einsparen von </span><span class="NormalTextRun SCXW59876119 BCX8">Anfang an</span><span class="NormalTextRun SCXW59876119 BCX8">.</span></span></span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ><p><span data-contrast="auto">Schon bei der Planung sollte darüber entschieden werden, wie man das System nachhaltig gestaltet. Dabei geht es grundlegend immer um die Frage, inwiefern ein ressourcenintensives Machine-Learning-System für die anvisierte Aufgabe überhaupt notwendig ist. Zunächst wird eine Checkliste mit ökologischen Anforderungen von den Unternehmen abgearbeitet. Dazu gehört auch, dass die notwendige Leistung sowie das Ressourcenbudget festgelegt werden müssen, genauso wie die Kennzahlen zur Erfassung der Energieeffizienz. Testverfahren können dann helfen, um scheiternde Experimente frühzeitig zu identifizieren. Des Weiteren können Maßnahmen zur Kompensation von CO2-Emissionen festgelegt und Werkzeuge zur Erfassung der Emissionen definiert werden. Als letzter Punkt auf der Checkliste wird die Bestimmung von Kriterien genannt, die dazu führen sollen, dass die verwendete Hardware sowie das genutzte Rechenzentrum nachhaltig sind.</span></p>
</div><div class="uncode_text_column" ><p><span class="NormalTextRun SCXW252677251 BCX8">Auch </span><span class="NormalTextRun SCXW252677251 BCX8">die Datenv</span><span class="NormalTextRun SCXW252677251 BCX8">erarbe</span><span class="NormalTextRun SCXW252677251 BCX8">itung sollte</span> <span class="NormalTextRun SCXW252677251 BCX8">zukünftig </span><span class="NormalTextRun SCXW252677251 BCX8">nachhaltiger gestaltet werden. </span><span class="NormalTextRun CommentStart SCXW252677251 BCX8">Sie bildet </span><span class="NormalTextRun SCXW252677251 BCX8">das Kernstück von KI und beruhet auf m</span><span class="NormalTextRun SCXW252677251 BCX8">aschinellem Lernen. In diesem Punkt geht es vor allem darum</span><span class="NormalTextRun SCXW252677251 BCX8">,</span><span class="NormalTextRun SCXW252677251 BCX8"> wie viele Daten vera</span><span class="NormalTextRun SCXW252677251 BCX8">rbeitet werden sollen, wie sie interpretiert werden können oder welche Qualität sie haben müssen. </span><span class="NormalTextRun SCXW252677251 BCX8">Um </span><span class="NormalTextRun SCXW252677251 BCX8">hier</span> <span class="NormalTextRun SCXW252677251 BCX8">nachhaltiger</span> <span class="NormalTextRun SCXW252677251 BCX8">zu werden </span><span class="NormalTextRun SCXW252677251 BCX8">und de</span><span class="NormalTextRun SCXW252677251 BCX8">n</span><span class="NormalTextRun SCXW252677251 BCX8"> Energieverbrauch </span><span class="NormalTextRun SCXW252677251 BCX8">zu senken</span><span class="NormalTextRun SCXW252677251 BCX8">, </span><span class="NormalTextRun SCXW252677251 BCX8">sollte</span> <span class="NormalTextRun SCXW252677251 BCX8">regelmäßig reflektiert werden, wie viele Daten für das Training und den Betrieb der Systeme notwendig sind, um den Rechenaufwand am Ende so klein wie möglich zu halten.</span></p>
</div><div class="uncode_text_column" ><p><span data-contrast="auto">Im Schritt der Entwicklung und des Trainings</span> <span data-contrast="auto">sollten laut dem Bericht Risiken eingedämmt und der Energieverbrauch minimiert werden. Um Energie einzusparen, ist es ratsam vortrainierte Modelle mit geringer Komplexität zu verwenden. Zudem müssen CO2-Emissionen, die im Entwicklungsprozesse anfallen, permanent und konsequent erfasst werden. Die Auswahl von Trainingsstandort und -zeitpunkt sind Faktoren, die dabei berücksichtigt werden sollten. Außerdem wird während der Anwendung überprüft, ob der Ressourcenverbrauch den Nachhaltigkeitspotenzialen gerecht wird.</span></p>
</div><div class="uncode_text_column" ><p><span class="NormalTextRun SCXW121834349 BCX8">D</span><span class="NormalTextRun SCXW121834349 BCX8">ie meiste Energie wird </span><span class="NormalTextRun SCXW121834349 BCX8">in </span><span class="NormalTextRun SCXW121834349 BCX8">der </span><span class="NormalTextRun SCXW121834349 BCX8">Trainings- und Anwendungsphase</span><span class="NormalTextRun SCXW121834349 BCX8"> verbraucht</span><span class="NormalTextRun SCXW121834349 BCX8">,</span> <span class="NormalTextRun SCXW121834349 BCX8">fachsprachlich</span><span class="NormalTextRun SCXW121834349 BCX8"> auch </span><span class="NormalTextRun SCXW121834349 BCX8">Inferenz genannt.</span> <span class="NormalTextRun SCXW121834349 BCX8">Als Beispiel:</span><span class="NormalTextRun SCXW121834349 BCX8"> In den Facebook-Rechenzentren finden täglich Billionen Inferenzen statt</span><span class="NormalTextRun SCXW121834349 BCX8">. Diese Zahl hat sich in den letzten Jahren sogar verdoppelt</span><span class="NormalTextRun SCXW121834349 BCX8"> und die Infrastruktur dazu dahin gehend angepasst. Die Server von Facebook haben sich von 2018 bis 2019 deshalb um das 2,5-fache</span><span class="NormalTextRun SCXW121834349 BCX8"> gesteigert.</span></p>
</div><div class="uncode_text_column" ><p><span data-contrast="auto">Im Bereich der künstlichen Intelligenz herrscht unter den Unternehmen aktuell ein stetiger Wettbewerb, indem jeder um die Vormachtstellung auf dem Markt kämpft. Ein Grund, warum energieeffizientere Hardware und Methoden bisher deshalb nur dafür genutzt wurden, um Modelle größer und nicht nachhaltiger zu machen. </span></p>
</div><div class="uncode_text_column" ><p><span data-contrast="auto">Mit der Checkliste zeigt AlgorithmWatch, dass es auch anders geht. Die Kosten und der Aufwand für die Umstellung sind zwar hoch, aber aufgrund der weiter steigenden Energiepreise langfristig betrachtet durchaus rentabel.</span></p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span><span class="TextRun SCXW266594885 BCX8" lang="DE-DE" xml:lang="DE-DE" data-contrast="auto"><span class="NormalTextRun SCXW266594885 BCX8">Der Weg in</span><span class="NormalTextRun SCXW266594885 BCX8"> eine nachhaltige und klimaneutrale Zukunft.</span></span></span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ><p><span data-contrast="auto"><img decoding="async" class="alignright wp-image-164655" src="https://www.politik-digital.de/wp-content/uploads/2023/04/dan-lefebvre-RFAHj4tI37Y-unsplash-2.jpg" alt="" width="200" height="133" srcset="https://www.politik-digital.de/wp-content/uploads/2023/04/dan-lefebvre-RFAHj4tI37Y-unsplash-2.jpg 1920w, https://www.politik-digital.de/wp-content/uploads/2023/04/dan-lefebvre-RFAHj4tI37Y-unsplash-2-300x200.jpg 300w, https://www.politik-digital.de/wp-content/uploads/2023/04/dan-lefebvre-RFAHj4tI37Y-unsplash-2-1024x683.jpg 1024w, https://www.politik-digital.de/wp-content/uploads/2023/04/dan-lefebvre-RFAHj4tI37Y-unsplash-2-768x512.jpg 768w, https://www.politik-digital.de/wp-content/uploads/2023/04/dan-lefebvre-RFAHj4tI37Y-unsplash-2-1536x1024.jpg 1536w, https://www.politik-digital.de/wp-content/uploads/2023/04/dan-lefebvre-RFAHj4tI37Y-unsplash-2-350x233.jpg 350w" sizes="(max-width: 200px) 100vw, 200px" />Nicht nur die Herstellung und Anwendung </span><span data-contrast="auto">sollte </span>energieschonender werden, auch der gezielte Einsatz von KI kann uns dabei helfen andere Ressourcen effizienter und nachhaltiger zu nutzen. Zum Beispiel beim Energiemanagement von erneuerbaren Energien. Im Alltag sind das Smart-Grid oder Smart-Home Technologien mithilfe dessen der Energieverbrauch in Wohnräumen erfasst und reguliert werden kann. Hier ist vor allem wichtig, dass in der Anwendung nicht mehr Ressourcen benötigt, als für die Herstellung gebraucht werden.</p>
</div><div class="uncode_text_column" ><p><span data-contrast="auto">Auch im Sektor Verkehr können durch KI-gestützte Mobilität autonomes Fahren und vernetzte Kleinbusse dabei helfen, auf das eigene Auto zu verzichten und den Verkehr in Städten zu entzerren.</span></p>
</div><div class="uncode_text_column" ><p><span class="TextRun SCXW126715397 BCX8" lang="DE-DE" xml:lang="DE-DE" data-contrast="auto"><span class="NormalTextRun SCXW126715397 BCX8">Bisher </span><span class="NormalTextRun SCXW126715397 BCX8">sieht die Ökobilanz von KI noch</span><span class="NormalTextRun SCXW126715397 BCX8"> recht mager aus: </span><span class="NormalTextRun SCXW126715397 BCX8">Rechenzentren, Datenströme und digitale Endgeräte</span><span class="NormalTextRun SCXW126715397 BCX8"> verbrauchen</span> <span class="NormalTextRun SCXW126715397 BCX8">mehr Energie</span><span class="NormalTextRun SCXW126715397 BCX8">, als </span><span class="NormalTextRun SCXW126715397 BCX8">sie dabei helfen, Energie einzusparen</span><span class="NormalTextRun SCXW126715397 BCX8">. </span><span class="NormalTextRun SCXW126715397 BCX8">Damit</span> <span class="NormalTextRun SCXW126715397 BCX8">sich das </span><span class="NormalTextRun SCXW126715397 BCX8">zukünftig</span><span class="NormalTextRun SCXW126715397 BCX8"> ändert und die Digitalisierung in ihren positiven Auswirkungen aufs Klima überwiegt, bedarf es deutschland- und euro</span><span class="NormalTextRun SCXW126715397 BCX8">paweit</span><span class="NormalTextRun SCXW126715397 BCX8"> festgelegte</span><span class="NormalTextRun SCXW126715397 BCX8"> Standards</span><span class="NormalTextRun SCXW126715397 BCX8">, an die sich Unternehmen halten müssen.</span></span><span class="EOP SCXW126715397 BCX8" data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:160,&quot;335559740&quot;:259}"> </span></p>
</div><div class="uncode_text_column" ><p><span class="TextRun SCXW84030573 BCX8" lang="DE-DE" xml:lang="DE-DE" data-contrast="auto"><span class="NormalTextRun SCXW84030573 BCX8">Deutschland hat hierzu </span><span class="NormalTextRun SCXW84030573 BCX8">da</span><span class="NormalTextRun SCXW84030573 BCX8">s Energieeffizienzgese</span><span class="NormalTextRun SCXW84030573 BCX8">t</span><span class="NormalTextRun SCXW84030573 BCX8">ztes auf den Weg gebracht, dessen </span><span class="NormalTextRun SCXW84030573 BCX8">erster Entwurf dem Bundesministerium für Wirtschaft und Klimaschutz (BMWK) bereits vorliegt. Es bleibt </span><span class="NormalTextRun SCXW84030573 BCX8">abzuwarten,</span><span class="NormalTextRun SCXW84030573 BCX8"> wann </span><span class="NormalTextRun SCXW84030573 BCX8">dies</span><span class="NormalTextRun SCXW84030573 BCX8">er</span><span class="NormalTextRun SCXW84030573 BCX8"> verabschiedet wird und </span><span class="NormalTextRun SCXW84030573 BCX8">mit der Umsetzung begonnen</span><span class="NormalTextRun SCXW84030573 BCX8"> werden kann.</span></span></p>
</div></div></div></div></div></div><script id="script-row-unique-6" data-row="script-row-unique-6" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-6"));</script></div></div></div><div data-parent="true" class="vc_row styleptrl--cc-module has-bg need-focus style-color-gyho-bg limit-width boxed-row row-container" id="row-unique-8"><div class="row unequal col-no-gutter single-top-padding single-bottom-padding single-h-padding row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-middle pos-center align_left column_parent col-lg-4 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding  unradius-std" ><div class="uncont" ><div class="uncode_text_column" ><p>Text: <a href="https://creativecommons.org/licenses/by-sa/3.0/de/" target="_blank" rel="noopener noreferrer">CC-BY-SA 3.0</a></p>
</div></div></div></div></div></div><div class="wpb_column pos-middle pos-center align_right column_parent col-lg-8 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p><img decoding="async" class="alignnone size-medium wp-image-159021" src="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png" alt="" width="300" height="52" srcset="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png 300w, https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1.png 305w" sizes="(max-width: 300px) 100vw, 300px" /></p>
</div></div></div></div></div></div><script id="script-row-unique-8" data-row="script-row-unique-8" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-8"));</script></div></div></div><div data-parent="true" class="vc_row row-container" id="row-unique-9"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p>Header: <a href="https://unsplash.com/de/@dissii">Mahdis Mousavi</a> auf <a href="https://unsplash.com/de">Unsplash</a>.<br />
Foto: <a href="https://unsplash.com/de/@danlefeb">Dan LeFebvre</a> auf <a href="https://unsplash.com/de">Unsplash</a>.</p>
<p>
</div></div></div></div></div></div><script id="script-row-unique-9" data-row="script-row-unique-9" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-9"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/mit-kuenstlicher-intelligenz-in-eine-klimaneutrale-und-nachhaltige-zukunft-164646/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Was wäre wenn? Warum wir auch über das sprechen müssen, was KI noch nicht kann</title>
		<link>https://www.politik-digital.de/news/kuenstliche-intelligenz-teil-3-155492/</link>
					<comments>https://www.politik-digital.de/news/kuenstliche-intelligenz-teil-3-155492/#respond</comments>
		
		<dc:creator><![CDATA[Julia Schymura]]></dc:creator>
		<pubDate>Thu, 08 Nov 2018 09:46:44 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Algorithmen]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Deep learning]]></category>
		<category><![CDATA[Maschinelles Lernen]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Zukunft]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=155492</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-10"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column text-lead" ><p>Wenn man das Wort Künstliche Intelligenz (oder auch Artifical Intelligence) in die Google-Suchmaske eingibt und die Bildersuche laufen lässt, stößt man auf ein Meer von Fotos, die Roboter, Gehirne und finster dreinschauende Augen zeigen. Ähnlich verhält es sich bei der Bebilderung von Artikeln, Meldungen, Fernsehbeiträgen. Das suggeriert das Bild einer bedrohlichen, menschenähnlichen Technologie, das auch in den Köpfen vieler Menschen verankert zu sein scheint – und das sich noch nicht so ganz decken mag mit dem, was wir in unserem Alltag vorfinden. Aber was wäre wenn? Und wie weit ist die Realität wirklich von der Vorstellung entfernt, die durch solche Fotos ausgedrückt wird?</p>
</div><div class="uncode_text_column" ></p>
<p>Um es gleich vorwegzunehmen: Das, was solche Bilder vermitteln, hat wenig bis gar nichts mit der Technologie zu tun, die wir heute haben. Was wir heute haben, ist höchstens eine narrow AI, eine schwache künstliche Intelligenz. Das sind Algorithmen, die jeweils eine Aufgabe sehr gut ausführen; die Input bekommen und einen Output zu einer bestimmten Zielfunktion ausgeben. Auch, wenn es eine Definitionsfrage ist, was wir genau als intelligent bezeichnen – diese Algorithmen werden wohl nicht dazu gehören. Sie können keine Aufgaben kombinieren, weder reflektieren noch erklären, was sie tun. Diese schwache KI, sie hat wenig gemein, mit dem, was in Science-Fiction-Filmen oder der Google Suche vermittelt wird.</p>
<p>Dennoch halten sich anfangs beschriebene Assoziationen hartnäckig. Und damit verbundenes Unbehagen. Das scheint auch nicht völlig unbegründet, denkt man beispielsweise an die im letzten Jahr begonnene Diskussion zwischen Mark Zuckerberg und Elon Musk: Musk nimmt dabei die eher dystopische Seite ein; warnt davor, dass KI gefährlicher sei als nordkoreanische Atomwaffen. Als unverantwortlich betitelte Zuckerberg hingegen solche stark negativen Äußerungen. Hat er damit Recht – ist es unverantwortlich, so eindrücklich eine Warnung auszusprechen?</p>
<h3>Die generelle künstliche Intelligenz</h3>
<p>Die KI, von der Musk spricht, ist eine generelle KI. Eine, die viel leistungsfähiger ist als die Algorithmen, die wir kennen; die nicht nur eine einzige Aufgabe oder Zielfunktion löst, sondern zu viel mehr in der Lage ist. Was dieses „viel mehr“ genau impliziert, ist abhängig von unserem Verständnis von Intelligenz. Was benötigt ein System, damit es sich künstlich intelligent nennen kann? „Das ist eine Definitionsfrage. Sagen wir mal, sie sollte wirklich sein wie der Mensch –  es gibt dann immer noch die Frage, was den Menschen als intelligentes Wesen ausmacht“, sagt Professor Florian Ellsaesser vom Centre for Human and Machine Intelligence der Frankfurt School of Finance and Management. Aber was bedeutet Intelligenz, intelligent sein?</p>
<p>Dr. Sebastian Thieme, Bioinformatiker und –physiker, spricht von einer KI als ein System, das Intuition und Kreativität besitzt, und damit gemeinsam mit seinen Erfahrungen Entscheidungen treffen kann: „Wie ein Mensch, nur als Computer.“ Wenn wir diese Stufe erreichen, wird es sehr spannend, ist er sich sicher. „Das bedeutet ja, dass wir ein Objekt geschaffen haben, das selbst denkt. Wenn wir es herunterbrechen, wäre der Mensch ja quasi die erste Stufe der künstlichen Intelligenz &#8211; bloß nicht künstlich, sondern biologisch. Im Prinzip werden wir durch unser Gehirn komplett gesteuert, alles findet in unserem Kopf statt. Mit der KI bauen wir ja eine Art künstliches Gehirn. Das heißt, wir wären in der Lage, eine Lebensform zu schaffen – und weil wir sie schaffen, ist sie nun mal künstlich. Aber sobald es eine Lebensform ist, ist sie eigentlich auch nicht mehr künstlich.“</p>
<h3>„Nur, weil wir Blut, Herz und Puls haben – ist das Leben?“</h3>
<p>Wenn wir dort erst einmal angekommen sind, werden wir uns grundlegenden Fragen stellen müssen.  „Wo beginnt Leben? Wie definieren wir das? Nur, weil wir Blut, ein schlagendes Herz und Puls haben, &#8211; ist das Leben? Oder heißt Leben, Intuition, Intelligenz und Gefühle zu haben?“ Das sind momentan rein hypothetische Überlegungen, wir haben so etwas derzeit noch nicht. Ob eine KI Gefühle haben oder entwickeln könnte, irgendwann einmal, das weiß er selbst nicht genau. Aber solche Fragen sind nicht nur relevant, wenn wir über KI sprechen, sie offenbaren viel über das Menschen- und Weltbild, das wir haben. Was definiert uns als Menschen, uns als Gesellschaft? Würde ich mich einer Maschine, die ähnlich denkt wie ich, mit der ich Gespräche führen könnte, näher fühlen, als beispielsweise einem Frosch, mit dem ich nichts gemeinsam habe, außer einem Herzschlag? Oder ist es eben im Endeffekt doch dieser Herzschlag, der auf eine Weise verbindet, die schlichtweg nicht imitierbar oder ersetzbar ist?</p>
<h3>„Das ist wie ein Geist, den man aus der Flasche lässt – schwierig, den wieder hineinzubekommen“</h3>
<p>Noch ist es Zukunftsmusik. Aber wie lange wird das noch der Fall sein? „Ich glaube, dass der Computer irgendwann diese menschliche Intelligenz erreicht“, sagt Ellsaesser. „Aber was es momentan gibt, hat damit nichts zu tun. Diese Algorithmen können sehr gut Zusammenhänge extrahieren – wir geben Ihnen Daten und Zielfunktion, und sie optimieren dahingehend.“ Trotzdem glaubt Thieme, dass es nicht mehr in allzu ferner Zukunft liegt. „Teilweise wird geplant, das innerhalb der nächsten zehn Jahre zu schaffen &#8211; das wäre tatsächlich relativ zeitnah“, sagt er. Selbst wenn zehn Jahre noch eine zu optimistische Schätzung seien; seiner Einschätzung nach werden es die Generation der jetzigen Mittzwanziger und –dreißiger mindestens noch erleben. „Ich glaube, dass wir näher dran sind, als wir denken. Wir reden nicht mehr von hunderten von Jahren sondern einigen Jahrzehnten.“</p>
<p>Dass wir noch einige Jahre davon entfernt sind, bedeutet allerdings nicht, dass wir nicht über das sprechen sollten, was sein kann. Auch, wenn man dabei aufpassen muss: „Man muss darüber nachdenken, das ist wichtig, aber man muss differenzieren: Was ist derzeit mit den Algorithmen möglich; was, wenn sie noch besser werden und was ist Fantasie. Das heißt nicht, dass man darüber nicht nachdenken darf &#8211; man darf nur eben eines nicht verwechseln: Ist das eine Idee von der Zukunft oder bereits Realität?“, warnt Ellsaesser. Damit hat er selbstverständlich recht: Wenn wir darüber sprechen, wenn wir überlegen, was es bedeuten würde, eine generelle KI zu haben, müssen wir uns immer vor Augen führen, dass wir mit etwas Hypothetischem hantieren. Sonst überschätzen wir das, was wir im Alltag an Technologie finden, oder reden an der Realität vorbei. Es gibt allerdings Fragen, die wir uns heute schon stellen müssen, auf die wir heute schon versuchen müssen, Antworten zu finden. Das Monitoring von Algorithmen, also das Überwachen oder Prüfen von der Technologie, ist eine davon: „Das ist ein wichtiger Schritt, Algorithmenmonitoring, den wir gehen müssen, bevor wir eine generelle KI haben.“ Thieme ist sich sicher, dass wir uns jetzt schon Gedanken darüber machen müssen, welchen Rahmen eine generelle KI bekommen würde, welche Grenzen, die sie wirklich nicht verlassen dürfte. Denn: „Wenn wir es erst danach tun, wird es wahrscheinlich zu spät sein. Das ist wie ein Geist, den man aus der Flasche lässt – schwierig, den wieder hineinzubekommen.</p>
<p>Menschliche Intelligenz ist also, theoretisch, durchaus von Algorithmen zu erreichen – auch wenn es derzeit noch nicht geschehen ist. Trotzdem müssen wir uns fragen, was derartige Technologie darf und was nicht. Und wir werden uns fragen müssen, wie wir Leben und Intelligenz definieren, und wie wir uns als Menschen eigentlich verstehen. Was für ein Weltbild wir vertreten. Es wird spannend.</p>
<p>&nbsp;</p>
<p>Titelbild: Photo by <a href="https://unsplash.com/@notmarcliu" target="_blank" rel="noopener noreferrer">Marc Liu</a> on <a href="https://unsplash.com/photos/Z8epsqHdYeM" target="_blank" rel="noopener noreferrer">Unsplash</a>, CCO</p>
<p>
</div></div></div></div></div></div><script id="script-row-unique-10" data-row="script-row-unique-10" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-10"));</script></div></div></div><div data-parent="true" class="vc_row styleptrl--cc-module has-bg need-focus style-color-gyho-bg limit-width boxed-row row-container" id="row-unique-12"><div class="row unequal col-no-gutter single-top-padding single-bottom-padding single-h-padding row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-middle pos-center align_left column_parent col-lg-4 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding  unradius-std" ><div class="uncont" ><div class="uncode_text_column" ><p>Text: <a href="https://creativecommons.org/licenses/by-sa/3.0/de/" target="_blank" rel="noopener noreferrer">CC-BY-SA 3.0</a></p>
</div></div></div></div></div></div><div class="wpb_column pos-middle pos-center align_right column_parent col-lg-8 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p><img decoding="async" class="alignnone size-medium wp-image-159021" src="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png" alt="" width="300" height="52" srcset="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png 300w, https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1.png 305w" sizes="(max-width: 300px) 100vw, 300px" /></p>
</div></div></div></div></div></div><script id="script-row-unique-12" data-row="script-row-unique-12" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-12"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/kuenstliche-intelligenz-teil-3-155492/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Die Diskussion um diskriminierende KI – und was wir von ihr lernen können</title>
		<link>https://www.politik-digital.de/news/kuenstliche-intelligenz-teil-2-155488/</link>
					<comments>https://www.politik-digital.de/news/kuenstliche-intelligenz-teil-2-155488/#respond</comments>
		
		<dc:creator><![CDATA[Julia Schymura]]></dc:creator>
		<pubDate>Thu, 01 Nov 2018 12:45:42 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Diskriminierung]]></category>
		<category><![CDATA[Algorithmen]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Deep learning]]></category>
		<category><![CDATA[Maschinelles Lernen]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=155488</guid>

					<description><![CDATA[Die rassistische, sexistische, psychopathische KI – manifestieren sich in einer Technologie, die unser Leben eigentlich verbessern sollte, die Schattenseiten unserer [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="http://politik-digital.de/wp-content/uploads/123cut.jpg"><img decoding="async" class="alignnone size-full wp-image-155498" src="http://politik-digital.de/wp-content/uploads/123cut.jpg" alt="123cut" width="926" height="521" /></a>Die rassistische, sexistische, psychopathische KI – manifestieren sich in einer Technologie, die unser Leben eigentlich verbessern sollte, die Schattenseiten unserer Gesellschaft? Ist KI nun eine Möglichkeit, menschliche Irrationalität, vorherrschende Ungleichheit und Vorurteile zu reduzieren – oder potenziert sie sie stattdessen?</p>
<p>Vor einigen Monaten tauchte Norman auf. Norman behauptet, ein Psychopath zu sein. Während sein Kollege auf Rohrschachtests eine Hochzeitstorte sieht, sieht er, wie ein Mann in eine Teigmaschine fällt oder auf offener Straße erschossen – Brutales, um es kurz zu fassen. Norman ist kein Mensch; Norman ist der Name einer KI, die mit Fotos eines Reddit Threads trainiert wurde und dann angeben sollte, was sie auf Fotos des Rohrschachtests sieht. Es ist unklar, ob wir Norman irgendwie witzig finden oder ihn als Symbol für die Risiken und Gefahren halten sollten, die KI birgt. Bei anderen Meldungen ist es eindeutiger: Es ist letzteres.  In letzter Zeit machte Gesichtserkennungssoftware von IBM, Face++ oder Microsoft Schlagzeilen: Weil sie hellhäutige Männer wesentlich besser erkennt, als Frauen mit dunklerer Hautfarbe. Eine rassistische KI? Das ist dabei kein Einzelfall: Die Software COMPAS, die die Wahrscheinlichkeit eines kriminellen Rückfalls voraussagen soll, beschreibt afroamerikanischen Häftlingen mehr als doppelt so häufig fälschlicherweise als Hochrisikofälle. Chatbots, wie Tay von Microsoft, verleugnen auf twitter den Holocaust. Immer lauter, immer häufiger wird der Vorwurf der diskriminierenden Systeme ausgesprochen. Doch handelt es sich dabei wirklich um diskriminierende Technologie? Ist es einer Technologie möglich, sexistisch, rassistisch, extremistisch zu sein? Und wie sollen wir als Gesellschaft damit umgehen?</p>
<h3>„Algorithmen sind nicht ausschließlich technisch.“</h3>
<p>Im Juni hält Goda Klombyte, Doktorandin des GEdis Lab der Universität Kassel, einen Vortrag in Berlin. GEdis steht dabei für Gender and Diversity in Informatic Systems, sie spricht über Feminismus und Algorithmen. Was sie sagt, ist allerdings anwendbar auf jegliche Form von Diskriminierung: Algorithmen seien nicht ausschließlich technisch – es sei an uns zu fragen, wessen Perspektive sie vermitteln und wie es möglich ist, soziale Praktiken in Algorithmen einzuschleusen. Wie wurde beispielsweise Tay zum Holocaustleugner oder die Gesichtserkennungssoftware zum vermeintlichen Rassisten? Hinter beiden Anwendungen scheinen neuronale Netze zu stehen (etwas mehr darüber haben wir bereits hier geschrieben). Neuronale Netze sind Algorithmen, die maschinell lernen können. Sie werden mit einem Datensatz trainiert, einem Trainingsset; bei Bilderkennung mit Fotos, bei Spracherkennung mit Sprache und Text. Umso mehr Input zur Verfügung steht, umso größer das Trainingsset, umso besser werden diese Systeme in der Erkennung von Bildern oder Sprache. Sie lernen. Würden wir das Trainingsset der Gesichtserkennungssoftware ansehen, würden wir wohl einen Datensatz auffinden, in dem Menschen (beziehungsweise Männer) mit hellerer Hautfarbe wesentlich häufiger auftauchen, als Menschen mit anderer Hautfarbe. Weiße Männer wären stark repräsentiert, Frauen und Menschen anderer Hautfarbe unterrepräsentiert. Daher erkennt Software letztere weniger gut &#8211; sie lernte besser, helle Hautfarbe zu erkennen, als dunkle. Datensätze, in denen etwas über- oder unterrepräsentiert ist, sind ein häufiges Phänomen, nicht nur in Gesichtserkennungsalgorithmen: Datenbiases.</p>
<h3>Algorithmen erkennen Muster viel stärker als wir Menschen</h3>
<p>Das bedeutet, dass obgleich das Resultat diskriminierend ist, die Technologie, sprich die Algorithmen als solche, nicht diskriminierend sind. Sie lernen lediglich mit den Daten, die ihnen zur Verfügung gestellt werden. Und das ist ein Problem: Denn häufig lernen Algorithmen mit historischen Daten; mit dem, was „eben da ist“. „Spracherkennungsalgorithmen, beispielsweise, lernen auf Basis existierender Sprache. Wenn es in der existierenden Sprache das Muster gibt, dass ein Mann immer der Verdiener, der Arzt, ist und die Frau mit Haushalt assoziiert wird, weil Menschen das so im Kopf haben, lernt der Algorithmus das. Und man muss sich aktiv bemühen, das rauszunehmen“, sagt Professor Florian Ellsaesser vom Centre for Human and Machine Intelligence der Frankfurt School of Finance and Management. Diskriminierung und Ungleichheiten sind in unserer Gesellschaft präsent, sie finden sich in alltäglichen Strukturen, in unserer Sprache, in den Daten, mit denen Algorithmen dann lernen sollen. „Das ist ja nicht nur ein Problem von Algorithmen, sondern auch der Mensch hat das Problem, dass er Dinge zu sehr generalisiert. Es existiert bei uns Menschen genauso, nur der Algorithmus bringt es viel stärker heraus, weil es da vollautomatisch läuft.“ Dem stimmt auch Dr. Sebastian Thieme, Bioinformatiker und -physiker, zu. Er weiß, dass Algorithmen viel besser darin sind, Muster zu erkennen, als wir Menschen. Algorithmen erkennen Muster auch dort, wo wir sie nicht erkennen – nicht mehr erkennen oder nicht erkennen wollen. Und das ist erschreckend.</p>
<p>„Wir erkennen die Systematik dadurch viel stärker“, sagt Ellsaesser. „Da merken wir, dass Frau eben im durchschnittlichen Sprachgebrauch oft mit Haushalt assoziiert wird.“ Uns werde jetzt ein Spiegel vorgehalten, sagt Thieme, ein gesellschaftlicher Spiegel. Das trifft vor allem auf den COMPAS Algorithmus zu: Trainiert wurde er mit historischen Daten. Mit Daten, die repräsentieren, dass einige Gruppen von Menschen eine andere Behandlung erfahren, einige RichterInnen und BeamtInnen nicht immer objektiv entscheiden. Mit Daten, in denen sich rassistische und diskriminierende Muster finden lassen. „Was wir in Zukunft erleben werden ist keine mehr so offensichtliche Diskriminierung, sondern neue Arten von Diskriminierung“, ist sich Thieme sicher.  Erlebt haben wir hier nicht zwangsläufig eine gezielte diskriminierende Programmierung – sondern stattdessen das Sichtbarmachen und Potenzieren eines Musters erlebt, das so in unserer Gesellschaft existiert.</p>
<h3>Was darf entscheidungsrelevant sein?</h3>
<p>Wenn wir über Daten sprechen, müssen wir über noch mehr sprechen als über Biases. So muss bei der Programmierung entschieden werden, welche Parameter oder Kriterien für die Datenbewertung durch den Algorithmus festgelegt werden. Es muss sich überlegt werden, welche Kriterien letztlich relevant für eine Bewertung und Entscheidung sind. Würden wir uns COMPAS anschauen müssten wir also beispielsweise fragen: Wenn festgestellt werden soll, ob jemand frühzeitig aus der Haft entlassen wird, ist die Hautfarbe ein solcher Parameter? Benötigt man in einem Datensatz Angaben über Religion, Herkunft, Delikt – was davon darf wirklich urteilsstiftend sein? „Diejenigen, die den Algorithmus entwickeln, entscheiden letztlich, welche Kriterien oder Features sie mit hereinnehmen und welche nicht. Das heißt, hier liegt viel in der Verantwortung der EntwicklerInnen, auf solche Dinge zu achten“, sagt Thieme.</p>
<h3>Wir brauchen ein Algorithmenmonitoring</h3>
<p>Aber wie kann das geleistet werden? Wie können wir beispielsweise sicherstellen, dass die Menschen, die in der Verantwortung stehen, darauf achten? Algorithmenmonitoring, oder von vielen auch Algorithmen-TÜV genannt, scheint hier eine mögliche Antwort zu sein. Thieme sieht letzteren Begriff allerdings skeptisch: „Was es nicht geben wird ist, dass Firmen uns ihre Algorithmen geben, so dass wir sie von Zeile eins bis zehn Millionen durchschauen. Deshalb finde ich den Begriff TÜV irreführend.“  Zu groß seien dafür die Programme, zu kompliziert die Algorithmen. Und zulassen würden es die Unternehmen schon gar nicht: „Es ist schwierig, darüber eine gesetzliche Handhabe zu bekommen, weil die Entwicklung eines Algorithmus viel mit geistigem Eigentum zu tun hat. Wenn der Algorithmus von google bekannt würde, würde ihn jeder kopieren – weshalb Firmen den Teufel tun, den rauszugeben.“ Wie Monitoring stattfinden kann, ist eine Frage, auf die es nur die Antwort gibt, dass es irgendwie passieren muss. Das wie ist noch nicht klar. Thieme spricht viel von den Hindernissen, auf die man treffen wird, wenn man versucht, Daten von unabhängiger Distanz sichten zu lassen. Vertrauliche Daten, vertrauliche Algorithmen, Kunden- und Firmengeheimnisse. Prinzipiell glaube er aber daran, in die Systeme hineinsehen zu müssen, um sie zu prüfen. Dasselbe gilt für die Daten, mit denen gearbeitet wird: Diese müssten genauso von ExpertInnen gesichtet und analysiert werden. Völlig ohne Verzerrungen, biasfrei sozusagen, werden wir sie allerdings nicht bekommen, ist er sich sicher. „Allein bei der Selektion der Daten haben wir ja bereits einen Bias. Und auch wenn wir es objektiv machen wollen, werden wir es wahrscheinlich subjektiv machen. Weil wir nun mal Menschen sind“, sagt er. „Aber wenn möglichst viele Menschen sich die Daten ansehen und einigen, dann kann man den Bias so klein wie möglich halten, auch wenn man ihn nicht völlig rauskriegt.“</p>
<h3> Es beginnt noch früher</h3>
<p>Die Daten müssen also gesichtet werden, die Algorithmen analysiert. Allerdings sind es am Ende des Tages nicht die Algorithmen, die sexistisch und rassistisch sind – sondern die Gesellschaft, in der wir leben, zumindest zum Teil. Aus diesem Grund sind die Daten, auch wenn sie ein großes Thema sind, nicht das einzige. Während ihres Vortrags fragt uns Klombyte beispielsweise, warum alle Sprachassistenten (oder Assistentinnen?) weiblich konzipiert sind? Siri, Alexa – was vermittelt es für ein Bild, dass es weibliche Stimmen mit weiblichen Namen sind, die uns ohne Widerworte in jedem Aspekt unseres Alltags unterstützen sollen? Eine ähnliche Frage stellt sich bei einem im letzten Jahr entwickelten System, das anhand eines Fotos eines Menschen feststellen sollte, ob er oder sie homosexuell ist. Nicht nur die Annahme, dass es tatsächlich bei 70-80% der Bilder funktionierte, ist diskussionswürdig – sondern auch warum überhaupt danach gefragt wurde: „Es gibt ganz viele andere Fragestellungen – hat das Aussehen etwas mit Bildung zu tun, oder einer sozialen Stellung in der Gesellschaft, oder beim Einstellungsverfahren: Spielt bei der Einstellung in Firmen das Aussehen eine Rolle? All das ist interessant und wäre damit erklärbar. Aber es wurde eine sexuelle Frage gestellt, eine Frage nach der sexuellen Orientierung. Und das ist grenzwertig“, sagt Thieme. Es sind nicht nur die Daten, die wir auswählen, es beginnt viel weiter davor: Was für Fragen stellen wir uns überhaupt? Was wollen wir mit unseren Algorithmen erreichen? Und was sagt die Antwort auf diese Fragen über unsere Gesellschaft aus?</p>
<p>Algorithmen helfen uns, zu erkennen, was bereits in unserer Gesellschaft verankert ist, so fest, dass es nicht mal mehr bemerkt wird, nicht hinterfragt wird, sondern akzeptiert. Die Algorithmen erkennen diese Muster und verstärken sie. So stark, dass erkannt wird, dass es eben nicht akzeptiert werden kann. Und dann folgt ein Aufschrei. Es ist ein Paradox: Einerseits die Möglichkeit zu erkennen, wo wir Diskriminierung haben;  andererseits die Gefahr einer neuen, weniger offensichtlichen Diskriminierung. So oder so: Bei dem Aufschrei müssen wir aufpassen, dass er die richtigen Verantwortlichen trifft &#8211; denn es sind nicht die Algorithmen, die diskriminieren, es sind unsere gesellschaftlichen Strukturen.</p>
<p>&nbsp;</p>
<p>Titelbild: Photo by<a href="https://unsplash.com/@snowshade" target="_blank" rel="noopener noreferrer"> Oleg Laptev</a> on <a href="https://unsplash.com/photos/0CVbBwUkvqk" target="_blank" rel="noopener noreferrer">Unsplash</a></p>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x110111.png"><img decoding="async" class="alignnone size-medium wp-image-151003" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x110111-305x53.png" alt="CC-BY-NC 2.0" width="305" height="53" /></a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/kuenstliche-intelligenz-teil-2-155488/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Neues von der Enquete-Kommission „Künstliche Intelligenz“</title>
		<link>https://www.politik-digital.de/news/kommission-kuenstliche-intelligenz-155422/</link>
					<comments>https://www.politik-digital.de/news/kommission-kuenstliche-intelligenz-155422/#respond</comments>
		
		<dc:creator><![CDATA[Philip Matthiessen]]></dc:creator>
		<pubDate>Thu, 18 Oct 2018 12:26:25 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Enquete Kommission]]></category>
		<category><![CDATA[Bundestag]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[AI-Hub Europe]]></category>
		<category><![CDATA[Telefonica]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=155422</guid>

					<description><![CDATA[Am 28. Juni 2018 setze der Bundestag die Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche Potenziale“ ein. Zielsetzungen seien [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="http://politik-digital.de/wp-content/uploads/181016_KILunchtalk.jpg"><img decoding="async" class="alignnone size-large wp-image-155423" src="http://politik-digital.de/wp-content/uploads/181016_KILunchtalk-630x312.jpg" alt="Lunch-Talk von AI Hub Europe" width="630" height="312" /></a></p>
<p>Am 28. Juni 2018 setze der Bundestag die Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche Potenziale“ ein. Zielsetzungen seien vor allem die Formulierung von Handlungsempfehlungen im Umgang mit Künstlicher Intelligenz (KI), so die Mitteilung des Deutschen Bundestags. Doch was ist seit Juni passiert, welche konkreten Aufgaben hat die Kommission und wie kann sie ihre Ziele erreichen?</p>
<p>Diesen Fragen stellten sich am Dienstag die Vorsitzende der Kommission, Daniela Kolbe (SPD) und die Obfrau von Bündnis 90/Die Grünen in der Kommission, Anna Christmann beim Lunch-Talk &#8220;Künstliche Intelligenz in Politik &amp; Wirtschaft&#8221; auf Einladung vom <a href="http://ai-europe.eu/" target="_blank" rel="noopener noreferrer">AI-Hub Europe</a> und Telefónica Deutschland. An der Diskussion nahmen außerdem der Veranstalter Markus Heimann, Director Business &amp; Market Intelligence bei Telefónica Deutschland und Jörg Bienert, Vorstand des KI-Bundesverbandes teil. Die Moderation übernahm Daniel Abbou, Gründer des Newsportals AI-Hub Europe.</p>
<p>Einführend erläuterte Heimann die Chancen von Machine/Deep Learning, für Telefónica Deutschland. So seien konkrete Anwendungsbeispiele z.B. ein Algorithmus, der Datensätze von Netzwerkelementen auswertet, erkennt, wo Systeme in der Vergangenheit ausgefallen sind oder aktuell ausfallen und darauf aufbauend Prognosen erstellt, wo zukünftig wahrscheinlich Systemelemente ausfallen werden. Dies ermögliche optimale Ressourceneffizienz, so Heimann. Ein anderes Beispiel seien sogenannte Chat-Bots, die jetzt schon eine große Hilfe im Kundensupport seien und zukünftig noch wichtiger würden. In seinem Plädoyer wünscht sich Heimann neben mehr Förderung von KI-Forschung durch Bundesgelder auch die Weiterentwicklung der schulischen und akademischen Ausbildung, um zukünftig die Nachfrage nach Data-Scientists und anderen branchenrelevanten Talenten zu bedienen.</p>
<p>Die Einsetzung der Enquete-Kommission erfolge zu einem spannenden Zeitpunkt, da die meisten Parteien noch kein wirkliches KI-Programm haben, viele Unternehmen aber schon damit experimentieren würden und das Thema in der öffentlichen Debatte präsent sei. Die Kommission soll nun Orientierung geben und Antworten auf Fragen wie „Was wollen wir mit KI erreichen – gesellschaftlich und unternehmerisch?“ finden, so die Vorsitzende Kolbe. Ein konkreter Arbeitsplan könne noch in diesem Jahr erwartet werden.</p>
<p>Christmann schlägt als Teil der Kommission vor, sich in der zukünftigen Arbeit an der französischen Strategie zu orientieren, die sozusagen im Alleingang vom Parlamentarier Cedric Villani geschrieben wurde. Villani, preisgekrönter Mathematiker, hält darin fest, für eine erfolgreiche Entwicklung von Künstlicher Intelligenz und dem Umgang damit seien drei Dinge zentral, Experten, umfassende Daten und eine belastbare Infrastruktur. Oberste Priorität hätten für Villani ökologische Anwendungen, so Christmann weiter.</p>
<p>Insgesamt sind sich die Diskussionsteilnehmer einig, dass mehr in die Bildung und vor allem in die digitale Bildung investiert werden muss, damit Deutschland wettbewerbsfähig bleibt. Entscheidend sei auch, dass mehr Chancen für risikofreudige Unternehmensgründungen im KI-Bereich geschaffen und eine möglichst enge europäische Abstimmung auf dem Gebiet, beginnend mit einer deutsch-französischen Partnerschaft, erreicht werden muss.</p>
<p>&nbsp;</p>
<p>Titelbild: © <a href="http://ai-europe.eu/2nd-ai-hub-europe-event-with-telefonica-basecampberlin/" target="_blank" rel="noopener noreferrer">AI-Hub Europe</a></p>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x110111.png"><img decoding="async" class="alignnone size-medium wp-image-151003" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x110111-305x53.png" alt="CC-BY-NC 2.0" width="305" height="53" /></a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/kommission-kuenstliche-intelligenz-155422/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Digitale Doktoren &#8211; KI in der Diagnostik</title>
		<link>https://www.politik-digital.de/news/ki-in-der-diagnostik-152012/</link>
					<comments>https://www.politik-digital.de/news/ki-in-der-diagnostik-152012/#respond</comments>
		
		<dc:creator><![CDATA[Johannes Brinz]]></dc:creator>
		<pubDate>Tue, 25 Apr 2017 08:14:01 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Digitalisierung im Gesundheitswesen]]></category>
		<category><![CDATA[Digitalisierung in der Medizin]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=152012</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-13"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p>Zur Bestimmung von Krankheiten werden heute schon Patientendaten von selbstlernenden Computern ausgewertet. Künstliche Intelligenz soll in Zukunft nicht nur Ärzte unterstützen, sondern selbstständig Diagnosen liefern können.</p>
<p>Die rechtzeitige Diagnose ist oft entscheidend für den weiteren Verlauf einer Krankheit. Können die Symptome früh genug der zugrundeliegenden Krankheit zugeordnet werden, sind die Heilungschancen meist höher. Erfahrene Ärzte vergleichen hierzu die vorhandenen Informationen z.B. über Krankheitsgeschichte oder Medikamente mit ähnlichen Fällen aus der Vergangenheit. Genau hierbei sollen sie nun digitale Unterstützung erhalten. Künstliche Intelligenz wertet die Patientendaten aus und ist so Ärzten bei der Diagnose behilflich.</p>
<h3>Riesige Datenmengen</h3>
<p>Durch die Digitalisierung von Patientenakten ist es möglich geworden, riesige Mengen an Daten über Krankheitsverläufe zu sammeln und zu speichern. Weit mehr als für Menschen überschaubar sind. In Zeiten von Big-Data kommen daher nun auch in Krankenhäusern Supercomputer zum Einsatz.</p>
<p>Besonders zur Diagnose seltener Krankheiten ist es notwendig, vielerlei Aspekte mit einzubeziehen. Hier könnte eine besondere Stärke der intelligenten Systeme liegen, da sie auch auf Informationen von Krankheiten Zugriff haben, die den behandelnden Ärzten oft unbekannt sind.</p>
<p>Traditionell werden medizinische Daten über Studien gewonnen. Auch dies wird sich in einer digitalisierten Welt ändern. Anonymisierte Patientenakten generieren einen weit größeren Input, als dies über statistische Erhebungen möglich wäre. Hochrechnungen könnten dadurch überflüssig gemacht und die statistische Genauigkeit deutlich erhöht werden.</p>
<h3>Eliminieren menschlicher Fehler</h3>
<p>Die automatisierte Diagnose läuft dabei folgendermaßen ab. Der Computer wird mit den relevanten Informationen gespeist und durch Abgleich mit gespeicherten Daten werden verschiedene Diagnosen ihrer Wahrscheinlichkeit nach geordnet anzeigt. Hierbei geschieht prinzipiell genau das gleiche, was normalerweise der Arzt leistet: Anhand der gegebenen Informationen unter anderem über Symptomatik und medizinische Vorgeschichte werden mögliche Ursachen ermittelt.</p>
<p>Der menschliche Faktor fällt hier jedoch weg. Die vorhandenen Daten werden objektiv von einem feststehenden Algorithmus ausgewertet. Typisch menschliche Fehlschlüsse wie Wunschdenken werden eliminiert. Auch werden von Ärzten häufig kleiner Anomalien nicht berücksichtigt, weil sie schlicht nicht wahrgenommen werden. Dieses Problem könnte in Zukunft mit Hilfe von KI gelöst werden.</p>
<p>Intelligente Systeme sind zudem in der Lage, selbstständig zu lernen. Mit jeder neuen Diagnose kann der Algorithmus angepasst und verfeinert werden. Im Prinzip vergleichbar mit dem Erwerben von Erfahrung beim Menschen, nur mit dem Unterschied, dass Rechner nicht vergessen. Einmal Erlerntes bleibt gespeichert und kann auch von Gerät zu Gerät verlustfrei ausgetauscht werden. Gehen erfahrene Mediziner in Rente, geht meist viel Knowhow verloren. Der Entwicklung von KI sind hier keine Grenzen gesetzt.</p>
<p>Noch stellt der Arzt die Diagnose, doch in Zukunft könnte künstliche Intelligenz mehr als eine Berateraufgabe zufallen. Hochentwickelte Geräte könnten alleine arbeiten und selbstständig über Behandlungsmethoden entscheiden.</p>
<h3>Nutzung von Bio-Sensoren</h3>
<p>Einen weiteren interessanten Aspekt bietet der Einsatz von Bio-Sensoren. Patienten können hierbei laufend auf neue Symptome oder Änderungen des Zustands überwacht werden – auch ambulant. Die verbundenen Systeme erkennen so, ob z.B. medizinische Hilfe notwendig wird und gegebenenfalls den Patienten instruieren. Das Übersehen von Symptomen wird dadurch vermindert.</p>
<p>Schon heute hilft künstliche Intelligenz, Leben zu retten. In Zukunft wird die Diagnostik noch mehr von deren Möglichkeiten profitieren. Es wird zwar noch etwas dauern, bis wir alle von Robotern behandelt werden, allerdings ist dies keine reine Science-Fiction-Vorstellung mehr.</p>
<p>Titelbild: <a href="https://pixabay.com/de/hand-roboter-mensch-maschine-1571851/">hand</a><a href="https://pixabay.com/de/schule-alt-holz-schiefertafel-543041/" target="_blank" rel="noopener noreferrer"> </a>von geralt via pixabay <a href="https://creativecommons.org/publicdomain/zero/1.0/deed.de" target="_blank" rel="noopener noreferrer">CC0 public domain</a></p>
<p>
</div></div></div></div></div></div><script id="script-row-unique-13" data-row="script-row-unique-13" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-13"));</script></div></div></div><div data-parent="true" class="vc_row styleptrl--cc-module has-bg need-focus style-color-gyho-bg limit-width boxed-row row-container" id="row-unique-15"><div class="row unequal col-no-gutter single-top-padding single-bottom-padding single-h-padding row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-middle pos-center align_left column_parent col-lg-4 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding  unradius-std" ><div class="uncont" ><div class="uncode_text_column" ><p>Text: <a href="https://creativecommons.org/licenses/by-sa/3.0/de/" target="_blank" rel="noopener noreferrer">CC-BY-SA 3.0</a></p>
</div></div></div></div></div></div><div class="wpb_column pos-middle pos-center align_right column_parent col-lg-8 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p><img decoding="async" class="alignnone size-medium wp-image-159021" src="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png" alt="" width="300" height="52" srcset="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png 300w, https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1.png 305w" sizes="(max-width: 300px) 100vw, 300px" /></p>
</div></div></div></div></div></div><script id="script-row-unique-15" data-row="script-row-unique-15" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-15"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/ki-in-der-diagnostik-152012/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Künstliche oder gekünstelte Intelligenz?!</title>
		<link>https://www.politik-digital.de/news/kuenstliche-oder-gekuenstelte-intelligenz-151919/</link>
					<comments>https://www.politik-digital.de/news/kuenstliche-oder-gekuenstelte-intelligenz-151919/#respond</comments>
		
		<dc:creator><![CDATA[Thalis Weizmann]]></dc:creator>
		<pubDate>Thu, 06 Apr 2017 08:54:55 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[CeBIT]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Digitale Welt]]></category>
		<category><![CDATA[KI]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=151919</guid>

					<description><![CDATA[Die CeBIT 2017 zeigt Innovationen aus der digitalen Welt – bleibt aber bei der Präsentation von künstlicher Intelligenz hinter den [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><strong><a href="http://politik-digital.de/wp-content/uploads/artificial-intelligence-2167835_640.jpg"><img decoding="async" class="alignnone wp-image-151920 size-full" src="http://politik-digital.de/wp-content/uploads/artificial-intelligence-2167835_640.jpg" alt="" width="640" height="346" /></a></strong>Die CeBIT 2017 zeigt Innovationen aus der digitalen Welt – bleibt aber bei der Präsentation von künstlicher Intelligenz hinter den Erwartungen zurück.</p>
<p>Mit den Innovationsprozessen der Digitalisierung verbinde ich stets eine seltsame Ambivalenz. Der IT-Begeisterte in mir ist beeindruckt von den technologischen Fortschritten und den kreativen Einsatzmöglichkeiten, die neue IT-Produkte mit sich bringen. Der Skeptiker in mir hinterfragt allerdings, ob diese schnellen und dynamischen Entwicklungen am Ende nicht unsere langsamere und komplexe Gesellschaft überfordern. Auch mein Besuch auf der diesjährigen CeBIT ist von dieser Ambivalenz geprägt.</p>
<p>Als weltweit größte Messe für Informationstechnik steht die CeBIT 2017 unter dem Motto „d!conomy – no limits“. Ursprünglich als Messe für Büro- und Informationstechnik gedacht, hat sich das Ausstellungsspektrum der CeBit seit den 2000er Jahren stark erweitert, sodass sämtliche Aspekte der Digitalisierung bedient werden. Neben E-Commerce, Gaming, VR-Technologien, Big Data und Entwicklungen des Internet of Things haben zwischen bekannten Branchenriesen auch kleine Unternehmen und deutsche Start-Ups Raum, ihre Ideen und Produkte vorzustellen. Interessante Ansätze lassen sich vor allem bei Verschlüsselungsmethoden vorfinden. Das Start-Up Cryptomator hat ein gleichnamiges Open Source-Programm geschrieben, welches erlaubt, Daten zu verschlüsseln, bevor sie auf Clouddiensten wie Google Drive, Dropbox oder OneDrive zwischengespeichert werden. Andere Sicherheitsfirmen nutzen bekannte kryptografische Methoden wie Block Chain. Dabei werden Daten durch eine eindeutig identifizierbare Prüfsumme (Hashwert) innerhalb eines Parameterblocks verschlüsselt und als solche auch in folgenden Datensätzen gespeichert. Eine Manipulation der Daten ist ohne eine Änderung der Prüfsumme also nicht mehr möglich, eine Änderung des Hashwerts wiederum würde sofort auffallen.</p>
<h3>Virtual Reality: Anwendungen noch begrenzt</h3>
<p>Interessante Entwicklungen gibt es auch auf dem Gebiet der Virtual Reality Technologien. Neben Gaming werden Anwendungen wie das geplante Google Earth 3D vorgestellt, welches zu einem virtuellen Rundflug über bekannte Weltmetropolen einlädt. Trotzdem entsteht bei mir der Eindruck, dass sich die Möglichkeiten bisher vor allem auf Entertainment konzentrieren. Medizinische Anwendungsmöglichkeiten für VR sind eher die Ausnahme. Wettrennen zwischen Drohnen, welche über VR-Brillen gesteuert werden und sich über den Livestream direkt mit verfolgen lassen, wirken zwar beeindruckend, veranschaulichen aber auch Manövrier- und Überwachungsfähigkeiten. Dabei wird deutlich, wie notwendig Reglements zum Einsatz von Drohnen über Privatgrundstücken sind.</p>
<p>In den Kinderschuhen stecken auch noch die Anwendungsmöglichkeiten für RFID-Implantate, was einige technikbegeisterte Messebesucher aber nicht davon abschreckt, sich vor Ort einen Chip implantieren zu lassen – und mir gleichzeitig kalte Schauer über den Rücken jagt. Interessanter sind da schon industrielle Drohnen, die systematisch nach Schäden unter Brücken oder an Häuserfassaden suchen oder autonom Bergungsmissionen in Katastrophengebieten fliegen. Nicht nur hier finden sich die Schlagworte artificial intelligence und deep learning wieder. Es entsteht der Eindruck, dass jeder zweite Stand auf der CeBIT sich darauf konzentriert.</p>
<h3>Viel Show, wenig Finesse</h3>
<p>Da das Partnerland der diesjährigen Messe das technikverliebte Japan ist, liegt zudem ein besonderer Fokus auf der Robotik. Gerade die Präsentation Letzterer ist aber enttäuschend. Auch weil es abseits von dystopischen Phantasien à la „Terminator“ oder „I, Robot“ sinnig ist, Robotik und künstliche Intelligenz zusammen zu denken, ist es schade wenn sich die Präsentationen auf der CeBIT zum Großteil auf Showeinlagen reduzieren. Tanzende Roboterarme und humanoide Roboter, die sich zu Musik von Michael Jackson bewegen, sind zwar Publikumsmagneten, lassen aber die technische Finesse vermissen, die die verheißungsvolle Suche nach einer künstlichen Intelligenz verspricht.</p>
<p>Der amerikanische Schriftsteller und Futurist Ray Kurzweil beschreibt in seiner These der „künstlichen Singularität“ einen Zeitpunkt, an dem die Computer anfangen, sich rasant selbst zu verbessern und dann letztendlich sogar ihren menschlichen Schöpfern überlegen sind. Von dieser Form der künstlichen Intelligenz ist auf der CeBIT allerdings noch nicht viel zu erahnen. Stattdessen versagt das Vorführmodell einer autonomen Produktionskette beim Zusammenbasteln von Spielzeugautos. Dann braucht es doch den Menschen, der unter Schweißperlen vor amüsiertem Publikum dem Programm wieder auf die Beine hilft. Die Werbebanner und Hochglanzbroschüren der IT-Unternehmen erwecken zudem den Eindruck, dass artificial intelligence“ und „best solution practise“ nun beinah jedem Produkt innewohnen, ohne jemals zu definieren, was Intelligenz nun eigentlich ist und ob die Probleme eine Lösung durch sie überhaupt rechtfertigen.</p>
<p>Ray Kurzweil, Futurist und Chef-Entwickler bei Google, war ebenfalls zur diesjährigen CeBIT geladen und versprühte Optimismus aufgrund der fortschreitenden Automatisierung der Arbeitswelt. Zwar würden dadurch Jobs wegfallen aber eben auch neue Arbeitsfelder entstehen. Wer allerdings auf der Messe vor einem autonomen Bagger steht, der Gestein weitaus effizienter abtragen kann als jeder menschliche Maschinenführer, fragt sich zwangsläufig, was mit all den Arbeitsplätzen passieren soll, die nicht den hochspezialisierten Profilen der IT-Branche entsprechen. Letztendlich müssen die Begleiterscheinungen einer „Industrie 4.0“ immer noch durch Menschen getragen werden. Nur durch clevere Reformen und eine faire Arbeitsmarktpolitik lässt sich vermeiden, dass künstliche Intelligenz, wie auch immer sie zukünftig aussehen mag, den Menschen und nicht kurzfristigen ökonomischen Interessen dient.</p>
<p>&nbsp;</p>
<p>Titelbild:<a href="https://pixabay.com/de/k%C3%BCnstliche-intelligenz-roboter-ai-2167835/" target="_blank" rel="noopener noreferrer">artificial-intelligence</a> von geralt via pixabay, <a href="https://creativecommons.org/publicdomain/zero/1.0/deed.de" target="_blank" rel="noopener noreferrer">CC0 public domain</a></p>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" target="_blank" rel="noopener noreferrer"><img decoding="async" class="alignleft  wp-image-139428" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" alt="CC-Lizenz-630x1101" width="441" height="77" /></a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/kuenstliche-oder-gekuenstelte-intelligenz-151919/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
