<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Julia Schymura &#8211; politik-digital</title>
	<atom:link href="https://www.politik-digital.de/author/jschymura/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.politik-digital.de</link>
	<description>Information, Kommunikation, Partizipation</description>
	<lastBuildDate>Fri, 26 Jun 2020 15:59:42 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.politik-digital.de/wp-content/uploads/2020/07/cropped-Politik-Digital_Logo_Sign_Gradient-512-32x32.png</url>
	<title>Julia Schymura &#8211; politik-digital</title>
	<link>https://www.politik-digital.de</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Was wäre wenn? Warum wir auch über das sprechen müssen, was KI noch nicht kann</title>
		<link>https://www.politik-digital.de/news/kuenstliche-intelligenz-teil-3-155492/</link>
					<comments>https://www.politik-digital.de/news/kuenstliche-intelligenz-teil-3-155492/#respond</comments>
		
		<dc:creator><![CDATA[Julia Schymura]]></dc:creator>
		<pubDate>Thu, 08 Nov 2018 09:46:44 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Deep learning]]></category>
		<category><![CDATA[Maschinelles Lernen]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Zukunft]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Algorithmen]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[KI]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=155492</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-0"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column text-lead" ><p>Wenn man das Wort Künstliche Intelligenz (oder auch Artifical Intelligence) in die Google-Suchmaske eingibt und die Bildersuche laufen lässt, stößt man auf ein Meer von Fotos, die Roboter, Gehirne und finster dreinschauende Augen zeigen. Ähnlich verhält es sich bei der Bebilderung von Artikeln, Meldungen, Fernsehbeiträgen. Das suggeriert das Bild einer bedrohlichen, menschenähnlichen Technologie, das auch in den Köpfen vieler Menschen verankert zu sein scheint – und das sich noch nicht so ganz decken mag mit dem, was wir in unserem Alltag vorfinden. Aber was wäre wenn? Und wie weit ist die Realität wirklich von der Vorstellung entfernt, die durch solche Fotos ausgedrückt wird?</p>
</div><div class="uncode_text_column" ></p>
<p>Um es gleich vorwegzunehmen: Das, was solche Bilder vermitteln, hat wenig bis gar nichts mit der Technologie zu tun, die wir heute haben. Was wir heute haben, ist höchstens eine narrow AI, eine schwache künstliche Intelligenz. Das sind Algorithmen, die jeweils eine Aufgabe sehr gut ausführen; die Input bekommen und einen Output zu einer bestimmten Zielfunktion ausgeben. Auch, wenn es eine Definitionsfrage ist, was wir genau als intelligent bezeichnen – diese Algorithmen werden wohl nicht dazu gehören. Sie können keine Aufgaben kombinieren, weder reflektieren noch erklären, was sie tun. Diese schwache KI, sie hat wenig gemein, mit dem, was in Science-Fiction-Filmen oder der Google Suche vermittelt wird.</p>
<p>Dennoch halten sich anfangs beschriebene Assoziationen hartnäckig. Und damit verbundenes Unbehagen. Das scheint auch nicht völlig unbegründet, denkt man beispielsweise an die im letzten Jahr begonnene Diskussion zwischen Mark Zuckerberg und Elon Musk: Musk nimmt dabei die eher dystopische Seite ein; warnt davor, dass KI gefährlicher sei als nordkoreanische Atomwaffen. Als unverantwortlich betitelte Zuckerberg hingegen solche stark negativen Äußerungen. Hat er damit Recht – ist es unverantwortlich, so eindrücklich eine Warnung auszusprechen?</p>
<h3>Die generelle künstliche Intelligenz</h3>
<p>Die KI, von der Musk spricht, ist eine generelle KI. Eine, die viel leistungsfähiger ist als die Algorithmen, die wir kennen; die nicht nur eine einzige Aufgabe oder Zielfunktion löst, sondern zu viel mehr in der Lage ist. Was dieses „viel mehr“ genau impliziert, ist abhängig von unserem Verständnis von Intelligenz. Was benötigt ein System, damit es sich künstlich intelligent nennen kann? „Das ist eine Definitionsfrage. Sagen wir mal, sie sollte wirklich sein wie der Mensch –  es gibt dann immer noch die Frage, was den Menschen als intelligentes Wesen ausmacht“, sagt Professor Florian Ellsaesser vom Centre for Human and Machine Intelligence der Frankfurt School of Finance and Management. Aber was bedeutet Intelligenz, intelligent sein?</p>
<p>Dr. Sebastian Thieme, Bioinformatiker und –physiker, spricht von einer KI als ein System, das Intuition und Kreativität besitzt, und damit gemeinsam mit seinen Erfahrungen Entscheidungen treffen kann: „Wie ein Mensch, nur als Computer.“ Wenn wir diese Stufe erreichen, wird es sehr spannend, ist er sich sicher. „Das bedeutet ja, dass wir ein Objekt geschaffen haben, das selbst denkt. Wenn wir es herunterbrechen, wäre der Mensch ja quasi die erste Stufe der künstlichen Intelligenz &#8211; bloß nicht künstlich, sondern biologisch. Im Prinzip werden wir durch unser Gehirn komplett gesteuert, alles findet in unserem Kopf statt. Mit der KI bauen wir ja eine Art künstliches Gehirn. Das heißt, wir wären in der Lage, eine Lebensform zu schaffen – und weil wir sie schaffen, ist sie nun mal künstlich. Aber sobald es eine Lebensform ist, ist sie eigentlich auch nicht mehr künstlich.“</p>
<h3>„Nur, weil wir Blut, Herz und Puls haben – ist das Leben?“</h3>
<p>Wenn wir dort erst einmal angekommen sind, werden wir uns grundlegenden Fragen stellen müssen.  „Wo beginnt Leben? Wie definieren wir das? Nur, weil wir Blut, ein schlagendes Herz und Puls haben, &#8211; ist das Leben? Oder heißt Leben, Intuition, Intelligenz und Gefühle zu haben?“ Das sind momentan rein hypothetische Überlegungen, wir haben so etwas derzeit noch nicht. Ob eine KI Gefühle haben oder entwickeln könnte, irgendwann einmal, das weiß er selbst nicht genau. Aber solche Fragen sind nicht nur relevant, wenn wir über KI sprechen, sie offenbaren viel über das Menschen- und Weltbild, das wir haben. Was definiert uns als Menschen, uns als Gesellschaft? Würde ich mich einer Maschine, die ähnlich denkt wie ich, mit der ich Gespräche führen könnte, näher fühlen, als beispielsweise einem Frosch, mit dem ich nichts gemeinsam habe, außer einem Herzschlag? Oder ist es eben im Endeffekt doch dieser Herzschlag, der auf eine Weise verbindet, die schlichtweg nicht imitierbar oder ersetzbar ist?</p>
<h3>„Das ist wie ein Geist, den man aus der Flasche lässt – schwierig, den wieder hineinzubekommen“</h3>
<p>Noch ist es Zukunftsmusik. Aber wie lange wird das noch der Fall sein? „Ich glaube, dass der Computer irgendwann diese menschliche Intelligenz erreicht“, sagt Ellsaesser. „Aber was es momentan gibt, hat damit nichts zu tun. Diese Algorithmen können sehr gut Zusammenhänge extrahieren – wir geben Ihnen Daten und Zielfunktion, und sie optimieren dahingehend.“ Trotzdem glaubt Thieme, dass es nicht mehr in allzu ferner Zukunft liegt. „Teilweise wird geplant, das innerhalb der nächsten zehn Jahre zu schaffen &#8211; das wäre tatsächlich relativ zeitnah“, sagt er. Selbst wenn zehn Jahre noch eine zu optimistische Schätzung seien; seiner Einschätzung nach werden es die Generation der jetzigen Mittzwanziger und –dreißiger mindestens noch erleben. „Ich glaube, dass wir näher dran sind, als wir denken. Wir reden nicht mehr von hunderten von Jahren sondern einigen Jahrzehnten.“</p>
<p>Dass wir noch einige Jahre davon entfernt sind, bedeutet allerdings nicht, dass wir nicht über das sprechen sollten, was sein kann. Auch, wenn man dabei aufpassen muss: „Man muss darüber nachdenken, das ist wichtig, aber man muss differenzieren: Was ist derzeit mit den Algorithmen möglich; was, wenn sie noch besser werden und was ist Fantasie. Das heißt nicht, dass man darüber nicht nachdenken darf &#8211; man darf nur eben eines nicht verwechseln: Ist das eine Idee von der Zukunft oder bereits Realität?“, warnt Ellsaesser. Damit hat er selbstverständlich recht: Wenn wir darüber sprechen, wenn wir überlegen, was es bedeuten würde, eine generelle KI zu haben, müssen wir uns immer vor Augen führen, dass wir mit etwas Hypothetischem hantieren. Sonst überschätzen wir das, was wir im Alltag an Technologie finden, oder reden an der Realität vorbei. Es gibt allerdings Fragen, die wir uns heute schon stellen müssen, auf die wir heute schon versuchen müssen, Antworten zu finden. Das Monitoring von Algorithmen, also das Überwachen oder Prüfen von der Technologie, ist eine davon: „Das ist ein wichtiger Schritt, Algorithmenmonitoring, den wir gehen müssen, bevor wir eine generelle KI haben.“ Thieme ist sich sicher, dass wir uns jetzt schon Gedanken darüber machen müssen, welchen Rahmen eine generelle KI bekommen würde, welche Grenzen, die sie wirklich nicht verlassen dürfte. Denn: „Wenn wir es erst danach tun, wird es wahrscheinlich zu spät sein. Das ist wie ein Geist, den man aus der Flasche lässt – schwierig, den wieder hineinzubekommen.</p>
<p>Menschliche Intelligenz ist also, theoretisch, durchaus von Algorithmen zu erreichen – auch wenn es derzeit noch nicht geschehen ist. Trotzdem müssen wir uns fragen, was derartige Technologie darf und was nicht. Und wir werden uns fragen müssen, wie wir Leben und Intelligenz definieren, und wie wir uns als Menschen eigentlich verstehen. Was für ein Weltbild wir vertreten. Es wird spannend.</p>
<p>&nbsp;</p>
<p>Titelbild: Photo by <a href="https://unsplash.com/@notmarcliu" target="_blank" rel="noopener noreferrer">Marc Liu</a> on <a href="https://unsplash.com/photos/Z8epsqHdYeM" target="_blank" rel="noopener noreferrer">Unsplash</a>, CCO</p>
<p>
</div></div></div></div></div></div><script id="script-row-unique-0" data-row="script-row-unique-0" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-0"));</script></div></div></div><div data-parent="true" class="vc_row styleptrl--cc-module has-bg need-focus style-color-gyho-bg limit-width boxed-row row-container" id="row-unique-2"><div class="row unequal col-no-gutter single-top-padding single-bottom-padding single-h-padding row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-middle pos-center align_left column_parent col-lg-4 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding  unradius-std" ><div class="uncont" ><div class="uncode_text_column" ><p>Text: <a href="https://creativecommons.org/licenses/by-sa/3.0/de/" target="_blank" rel="noopener noreferrer">CC-BY-SA 3.0</a></p>
</div></div></div></div></div></div><div class="wpb_column pos-middle pos-center align_right column_parent col-lg-8 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p><img decoding="async" class="alignnone size-medium wp-image-159021" src="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png" alt="" width="300" height="52" srcset="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png 300w, https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1.png 305w" sizes="(max-width: 300px) 100vw, 300px" /></p>
</div></div></div></div></div></div><script id="script-row-unique-2" data-row="script-row-unique-2" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-2"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/kuenstliche-intelligenz-teil-3-155492/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Die Diskussion um diskriminierende KI – und was wir von ihr lernen können</title>
		<link>https://www.politik-digital.de/news/kuenstliche-intelligenz-teil-2-155488/</link>
					<comments>https://www.politik-digital.de/news/kuenstliche-intelligenz-teil-2-155488/#respond</comments>
		
		<dc:creator><![CDATA[Julia Schymura]]></dc:creator>
		<pubDate>Thu, 01 Nov 2018 12:45:42 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Deep learning]]></category>
		<category><![CDATA[Maschinelles Lernen]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Diskriminierung]]></category>
		<category><![CDATA[Algorithmen]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=155488</guid>

					<description><![CDATA[Die rassistische, sexistische, psychopathische KI – manifestieren sich in einer Technologie, die unser Leben eigentlich verbessern sollte, die Schattenseiten unserer [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="http://politik-digital.de/wp-content/uploads/123cut.jpg"><img decoding="async" class="alignnone size-full wp-image-155498" src="http://politik-digital.de/wp-content/uploads/123cut.jpg" alt="123cut" width="926" height="521" /></a>Die rassistische, sexistische, psychopathische KI – manifestieren sich in einer Technologie, die unser Leben eigentlich verbessern sollte, die Schattenseiten unserer Gesellschaft? Ist KI nun eine Möglichkeit, menschliche Irrationalität, vorherrschende Ungleichheit und Vorurteile zu reduzieren – oder potenziert sie sie stattdessen?</p>
<p>Vor einigen Monaten tauchte Norman auf. Norman behauptet, ein Psychopath zu sein. Während sein Kollege auf Rohrschachtests eine Hochzeitstorte sieht, sieht er, wie ein Mann in eine Teigmaschine fällt oder auf offener Straße erschossen – Brutales, um es kurz zu fassen. Norman ist kein Mensch; Norman ist der Name einer KI, die mit Fotos eines Reddit Threads trainiert wurde und dann angeben sollte, was sie auf Fotos des Rohrschachtests sieht. Es ist unklar, ob wir Norman irgendwie witzig finden oder ihn als Symbol für die Risiken und Gefahren halten sollten, die KI birgt. Bei anderen Meldungen ist es eindeutiger: Es ist letzteres.  In letzter Zeit machte Gesichtserkennungssoftware von IBM, Face++ oder Microsoft Schlagzeilen: Weil sie hellhäutige Männer wesentlich besser erkennt, als Frauen mit dunklerer Hautfarbe. Eine rassistische KI? Das ist dabei kein Einzelfall: Die Software COMPAS, die die Wahrscheinlichkeit eines kriminellen Rückfalls voraussagen soll, beschreibt afroamerikanischen Häftlingen mehr als doppelt so häufig fälschlicherweise als Hochrisikofälle. Chatbots, wie Tay von Microsoft, verleugnen auf twitter den Holocaust. Immer lauter, immer häufiger wird der Vorwurf der diskriminierenden Systeme ausgesprochen. Doch handelt es sich dabei wirklich um diskriminierende Technologie? Ist es einer Technologie möglich, sexistisch, rassistisch, extremistisch zu sein? Und wie sollen wir als Gesellschaft damit umgehen?</p>
<h3>„Algorithmen sind nicht ausschließlich technisch.“</h3>
<p>Im Juni hält Goda Klombyte, Doktorandin des GEdis Lab der Universität Kassel, einen Vortrag in Berlin. GEdis steht dabei für Gender and Diversity in Informatic Systems, sie spricht über Feminismus und Algorithmen. Was sie sagt, ist allerdings anwendbar auf jegliche Form von Diskriminierung: Algorithmen seien nicht ausschließlich technisch – es sei an uns zu fragen, wessen Perspektive sie vermitteln und wie es möglich ist, soziale Praktiken in Algorithmen einzuschleusen. Wie wurde beispielsweise Tay zum Holocaustleugner oder die Gesichtserkennungssoftware zum vermeintlichen Rassisten? Hinter beiden Anwendungen scheinen neuronale Netze zu stehen (etwas mehr darüber haben wir bereits hier geschrieben). Neuronale Netze sind Algorithmen, die maschinell lernen können. Sie werden mit einem Datensatz trainiert, einem Trainingsset; bei Bilderkennung mit Fotos, bei Spracherkennung mit Sprache und Text. Umso mehr Input zur Verfügung steht, umso größer das Trainingsset, umso besser werden diese Systeme in der Erkennung von Bildern oder Sprache. Sie lernen. Würden wir das Trainingsset der Gesichtserkennungssoftware ansehen, würden wir wohl einen Datensatz auffinden, in dem Menschen (beziehungsweise Männer) mit hellerer Hautfarbe wesentlich häufiger auftauchen, als Menschen mit anderer Hautfarbe. Weiße Männer wären stark repräsentiert, Frauen und Menschen anderer Hautfarbe unterrepräsentiert. Daher erkennt Software letztere weniger gut &#8211; sie lernte besser, helle Hautfarbe zu erkennen, als dunkle. Datensätze, in denen etwas über- oder unterrepräsentiert ist, sind ein häufiges Phänomen, nicht nur in Gesichtserkennungsalgorithmen: Datenbiases.</p>
<h3>Algorithmen erkennen Muster viel stärker als wir Menschen</h3>
<p>Das bedeutet, dass obgleich das Resultat diskriminierend ist, die Technologie, sprich die Algorithmen als solche, nicht diskriminierend sind. Sie lernen lediglich mit den Daten, die ihnen zur Verfügung gestellt werden. Und das ist ein Problem: Denn häufig lernen Algorithmen mit historischen Daten; mit dem, was „eben da ist“. „Spracherkennungsalgorithmen, beispielsweise, lernen auf Basis existierender Sprache. Wenn es in der existierenden Sprache das Muster gibt, dass ein Mann immer der Verdiener, der Arzt, ist und die Frau mit Haushalt assoziiert wird, weil Menschen das so im Kopf haben, lernt der Algorithmus das. Und man muss sich aktiv bemühen, das rauszunehmen“, sagt Professor Florian Ellsaesser vom Centre for Human and Machine Intelligence der Frankfurt School of Finance and Management. Diskriminierung und Ungleichheiten sind in unserer Gesellschaft präsent, sie finden sich in alltäglichen Strukturen, in unserer Sprache, in den Daten, mit denen Algorithmen dann lernen sollen. „Das ist ja nicht nur ein Problem von Algorithmen, sondern auch der Mensch hat das Problem, dass er Dinge zu sehr generalisiert. Es existiert bei uns Menschen genauso, nur der Algorithmus bringt es viel stärker heraus, weil es da vollautomatisch läuft.“ Dem stimmt auch Dr. Sebastian Thieme, Bioinformatiker und -physiker, zu. Er weiß, dass Algorithmen viel besser darin sind, Muster zu erkennen, als wir Menschen. Algorithmen erkennen Muster auch dort, wo wir sie nicht erkennen – nicht mehr erkennen oder nicht erkennen wollen. Und das ist erschreckend.</p>
<p>„Wir erkennen die Systematik dadurch viel stärker“, sagt Ellsaesser. „Da merken wir, dass Frau eben im durchschnittlichen Sprachgebrauch oft mit Haushalt assoziiert wird.“ Uns werde jetzt ein Spiegel vorgehalten, sagt Thieme, ein gesellschaftlicher Spiegel. Das trifft vor allem auf den COMPAS Algorithmus zu: Trainiert wurde er mit historischen Daten. Mit Daten, die repräsentieren, dass einige Gruppen von Menschen eine andere Behandlung erfahren, einige RichterInnen und BeamtInnen nicht immer objektiv entscheiden. Mit Daten, in denen sich rassistische und diskriminierende Muster finden lassen. „Was wir in Zukunft erleben werden ist keine mehr so offensichtliche Diskriminierung, sondern neue Arten von Diskriminierung“, ist sich Thieme sicher.  Erlebt haben wir hier nicht zwangsläufig eine gezielte diskriminierende Programmierung – sondern stattdessen das Sichtbarmachen und Potenzieren eines Musters erlebt, das so in unserer Gesellschaft existiert.</p>
<h3>Was darf entscheidungsrelevant sein?</h3>
<p>Wenn wir über Daten sprechen, müssen wir über noch mehr sprechen als über Biases. So muss bei der Programmierung entschieden werden, welche Parameter oder Kriterien für die Datenbewertung durch den Algorithmus festgelegt werden. Es muss sich überlegt werden, welche Kriterien letztlich relevant für eine Bewertung und Entscheidung sind. Würden wir uns COMPAS anschauen müssten wir also beispielsweise fragen: Wenn festgestellt werden soll, ob jemand frühzeitig aus der Haft entlassen wird, ist die Hautfarbe ein solcher Parameter? Benötigt man in einem Datensatz Angaben über Religion, Herkunft, Delikt – was davon darf wirklich urteilsstiftend sein? „Diejenigen, die den Algorithmus entwickeln, entscheiden letztlich, welche Kriterien oder Features sie mit hereinnehmen und welche nicht. Das heißt, hier liegt viel in der Verantwortung der EntwicklerInnen, auf solche Dinge zu achten“, sagt Thieme.</p>
<h3>Wir brauchen ein Algorithmenmonitoring</h3>
<p>Aber wie kann das geleistet werden? Wie können wir beispielsweise sicherstellen, dass die Menschen, die in der Verantwortung stehen, darauf achten? Algorithmenmonitoring, oder von vielen auch Algorithmen-TÜV genannt, scheint hier eine mögliche Antwort zu sein. Thieme sieht letzteren Begriff allerdings skeptisch: „Was es nicht geben wird ist, dass Firmen uns ihre Algorithmen geben, so dass wir sie von Zeile eins bis zehn Millionen durchschauen. Deshalb finde ich den Begriff TÜV irreführend.“  Zu groß seien dafür die Programme, zu kompliziert die Algorithmen. Und zulassen würden es die Unternehmen schon gar nicht: „Es ist schwierig, darüber eine gesetzliche Handhabe zu bekommen, weil die Entwicklung eines Algorithmus viel mit geistigem Eigentum zu tun hat. Wenn der Algorithmus von google bekannt würde, würde ihn jeder kopieren – weshalb Firmen den Teufel tun, den rauszugeben.“ Wie Monitoring stattfinden kann, ist eine Frage, auf die es nur die Antwort gibt, dass es irgendwie passieren muss. Das wie ist noch nicht klar. Thieme spricht viel von den Hindernissen, auf die man treffen wird, wenn man versucht, Daten von unabhängiger Distanz sichten zu lassen. Vertrauliche Daten, vertrauliche Algorithmen, Kunden- und Firmengeheimnisse. Prinzipiell glaube er aber daran, in die Systeme hineinsehen zu müssen, um sie zu prüfen. Dasselbe gilt für die Daten, mit denen gearbeitet wird: Diese müssten genauso von ExpertInnen gesichtet und analysiert werden. Völlig ohne Verzerrungen, biasfrei sozusagen, werden wir sie allerdings nicht bekommen, ist er sich sicher. „Allein bei der Selektion der Daten haben wir ja bereits einen Bias. Und auch wenn wir es objektiv machen wollen, werden wir es wahrscheinlich subjektiv machen. Weil wir nun mal Menschen sind“, sagt er. „Aber wenn möglichst viele Menschen sich die Daten ansehen und einigen, dann kann man den Bias so klein wie möglich halten, auch wenn man ihn nicht völlig rauskriegt.“</p>
<h3> Es beginnt noch früher</h3>
<p>Die Daten müssen also gesichtet werden, die Algorithmen analysiert. Allerdings sind es am Ende des Tages nicht die Algorithmen, die sexistisch und rassistisch sind – sondern die Gesellschaft, in der wir leben, zumindest zum Teil. Aus diesem Grund sind die Daten, auch wenn sie ein großes Thema sind, nicht das einzige. Während ihres Vortrags fragt uns Klombyte beispielsweise, warum alle Sprachassistenten (oder Assistentinnen?) weiblich konzipiert sind? Siri, Alexa – was vermittelt es für ein Bild, dass es weibliche Stimmen mit weiblichen Namen sind, die uns ohne Widerworte in jedem Aspekt unseres Alltags unterstützen sollen? Eine ähnliche Frage stellt sich bei einem im letzten Jahr entwickelten System, das anhand eines Fotos eines Menschen feststellen sollte, ob er oder sie homosexuell ist. Nicht nur die Annahme, dass es tatsächlich bei 70-80% der Bilder funktionierte, ist diskussionswürdig – sondern auch warum überhaupt danach gefragt wurde: „Es gibt ganz viele andere Fragestellungen – hat das Aussehen etwas mit Bildung zu tun, oder einer sozialen Stellung in der Gesellschaft, oder beim Einstellungsverfahren: Spielt bei der Einstellung in Firmen das Aussehen eine Rolle? All das ist interessant und wäre damit erklärbar. Aber es wurde eine sexuelle Frage gestellt, eine Frage nach der sexuellen Orientierung. Und das ist grenzwertig“, sagt Thieme. Es sind nicht nur die Daten, die wir auswählen, es beginnt viel weiter davor: Was für Fragen stellen wir uns überhaupt? Was wollen wir mit unseren Algorithmen erreichen? Und was sagt die Antwort auf diese Fragen über unsere Gesellschaft aus?</p>
<p>Algorithmen helfen uns, zu erkennen, was bereits in unserer Gesellschaft verankert ist, so fest, dass es nicht mal mehr bemerkt wird, nicht hinterfragt wird, sondern akzeptiert. Die Algorithmen erkennen diese Muster und verstärken sie. So stark, dass erkannt wird, dass es eben nicht akzeptiert werden kann. Und dann folgt ein Aufschrei. Es ist ein Paradox: Einerseits die Möglichkeit zu erkennen, wo wir Diskriminierung haben;  andererseits die Gefahr einer neuen, weniger offensichtlichen Diskriminierung. So oder so: Bei dem Aufschrei müssen wir aufpassen, dass er die richtigen Verantwortlichen trifft &#8211; denn es sind nicht die Algorithmen, die diskriminieren, es sind unsere gesellschaftlichen Strukturen.</p>
<p>&nbsp;</p>
<p>Titelbild: Photo by<a href="https://unsplash.com/@snowshade" target="_blank" rel="noopener noreferrer"> Oleg Laptev</a> on <a href="https://unsplash.com/photos/0CVbBwUkvqk" target="_blank" rel="noopener noreferrer">Unsplash</a></p>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x110111.png"><img decoding="async" class="alignnone size-medium wp-image-151003" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x110111-305x53.png" alt="CC-BY-NC 2.0" width="305" height="53" /></a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/kuenstliche-intelligenz-teil-2-155488/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>KI, die Blackbox?</title>
		<link>https://www.politik-digital.de/news/kuenstliche-intelligenz-155485/</link>
					<comments>https://www.politik-digital.de/news/kuenstliche-intelligenz-155485/#respond</comments>
		
		<dc:creator><![CDATA[Julia Schymura]]></dc:creator>
		<pubDate>Tue, 30 Oct 2018 10:45:51 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Deep learning]]></category>
		<category><![CDATA[Maschinelles Lernen]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=155485</guid>

					<description><![CDATA[Der Begriff Künstliche Intelligenz, KI, scheint fest in den Strukturen unseres Alltags verankert. Er begegnet uns nicht nur, wenn wir [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="http://politik-digital.de/wp-content/uploads/KI-die-Blackboxcut.jpg"><img decoding="async" class="alignnone size-full wp-image-155486" src="http://politik-digital.de/wp-content/uploads/KI-die-Blackboxcut.jpg" alt="KI, die Blackboxcut" width="678" height="387" /></a></p>
<p>Der Begriff Künstliche Intelligenz, KI, scheint fest in den Strukturen unseres Alltags verankert. Er begegnet uns nicht nur, wenn wir in sozialen Netzwerken unterwegs sind, Suchmaschinen nutzen oder uns überhaupt im Internet aufhalten. Auch in selbstfahrenden Autos beispielsweise; oder in der Medizin – Algorithmen, die Krankheiten diagnostizieren, die darüber entscheiden, wie Spenderorgane verteilt werden.  Gerade in diesen Bereichen wirkt es erschreckend, wenn die Metapher der Blackbox auftaucht. Es entsteht das Bild einer Technologie, deren Entscheidungen von niemandem nachvollzogen werden kann. Auch nicht von den Menschen, die sie programmiert haben. In diesem Artikel versuchen wir, eine technische Antwort auf die Frage zu finden, wie das eigentlich sein kann.</p>
<h3>„Nur eine definierte Abfolge von Tätigkeiten, um das Problem zu lösen – mehr ist es nicht“</h3>
<p>Um besser zu verstehen, was wir an KI eigentlich nicht verstehen, müssen wir uns anschauen, was hinter der Technologie steht. Der Begriff Künstliche Intelligenz beschreibt – streng genommen – etwas, was momentan noch gar nicht existiert. Was genau Intelligenz bedeutet ist zwar eine Definitionsfrage, aber ein System, das der vorherrschenden Vorstellung von menschlicher Intelligenz nahe kommt, gibt es derzeit noch nicht. Stattdessen fungiert KI als Sammelbegriff für eine ganze Reihe an Algorithmen, an Systemen, die jeweils eine bestimmte Aufgabe erfüllen. Schwache Künstliche Intelligenz (narrow Artifical Intelligence) lautet die eigentlich zutreffende Bezeichnung.</p>
<p>Davon ist nicht jede automatisch eine Black Box. „Algorithmen sind zunächst nicht einmal ausschließlich digital“, sagt Dr. Sebastian Thieme, Bioinformatiker und -physiker, der versucht, den abstrakten Begriff ein wenig plastischer werden zu lassen. „Ein Zauberwürfel zum Beispiel, wenn man den löst, ist das auch ein Algorithmus. Ein Algorithmus ist nichts anderes als ein Lösungsweg für ein Problem. Nur eine definierte Abfolge von Tätigkeiten, um das Problem zu lösen – mehr ist es nicht.“ Bei dem Zauberwürfel können wir dann eindeutig sagen, wie wir ihn gelöst haben: Ein paar Mal nach links drehen, dann nach rechts, die weiße Seite zuerst.</p>
<p>Mit einer Black Box hat das höchstens die eckige Form gemeinsam. Wird es also erst kompliziert, wenn wir die digitale Ebene erreichen? „Es gibt einige digitale Algorithmen, bei denen man genau weiß, warum sie auf ein bestimmtes Ergebnis gekommen sind. Beispielsweise regelbasierte Arten. Bei ihnen wird sozusagen ein Entscheidungsbaum abgelaufen. Man fragt jedes Mal: Ist diese Bedingung erfüllt? Falls ja, laufen wir nach rechts, falls nein, nach links.“ Zahlensortiert könne man es sich ganz gut vorstellen. Man nehme irgendeine Kugel mit einer Zahl, lasse sie hereinfallen und sie nimmt einen ganz bestimmten Weg durch den Baum – alle Zahlen größer als fünf nach rechts, alle kleineren nach links. „Jeder kann sich diesen Baum aufmalen und verstehen, warum aus der Ausgangssituation dieser Weg resultierte. Deshalb mag ich diese Art von Algorithmus. Sie sind einfach zu verstehen, weil sie unheimlich intuitiv sind.“ Warum nutzten wir dann nicht immer Algorithmen, die wir verstehen? Wäre das nicht nur konsequent intuitiv? So einfach ist es leider nicht. Wie oft ist es auch hier so, dass ein Ja gleichzeitig ein Nein bedeutet: „Will ich nachvollziehen, wie eine Entscheidung getroffen wird und akzeptiere dafür häufiger, dass das Ergebnis nicht korrekt ist, oder will ich es häufiger korrekt haben – und verstehe es dafür nicht, habe also die Black Box?“, fragt Professor Florian Ellsaesser des Centre for Human and Machine Intelligence der Frankfurt School of Finance and Management. Ein Ja zu absoluter Nachvollziehbarkeit kann in einigen Fällen ein Nein zu bestmöglicher Leistung bedeuten: „Das ist typischerweise der Trade-Off. Komplette Nachvollziehbarkeit oder Neuronale Netzwerke – sonst würde jeder die nachvollziehbaren verwenden.“</p>
<h3>Knoten und Kanten statt Neuronen und Synapsen</h3>
<p>Damit sind wir bei der schwarzen Kiste angekommen: Künstliche neuronale Netze, die Algorithmen, die wohl von sich behaupten dürften, die Metapher der Black Box geprägt zu haben. Um zu verstehen, was sie so schwieriger nachzuvollziehen macht, als beispielsweise ihre regelbasierten Alternativen, müssen wir einen Blick auf ihre Struktur werfen. Ein neuronales Netz könnte man sich vorstellen wie ein Gehirn, erklärt Thieme. Aber anstelle von Neuronen und Synapsen spricht er von einem System aus Knoten und Kanten: Die Knoten sind unsere Neuronen, hier in Form von mathematische Formeln, die Kanten die Synapsen, hier die zu den Formeln gehörenden Gewichte. Diese Knoten sind hierarchisch angeordnet, die einzelnen Hierarchiestufen werden als Schichten oder Layer bezeichnet. Geeignet sind solche Systeme vor allem für Aufgaben wie das Erkennen von Bildern, Gesichtern oder Sprache.</p>
<p>Wie kann dieses Netz nun einen Output generieren, eine Zielfunktion erfüllen? Um einen Output zu erzeugen, also beispielsweise um zu erkennen, ob auf einem Foto eine Katze oder keine abgebildet ist, wird das System mit Daten gefüttert – Input. In diesem Fall sind das Fotos, viele Fotos, von Katzen und ab und zu anderen Tieren dazwischen. „Diese Bilder nehmen dann einen bestimmten Weg durch das Netzwerk. Irgendwann lernt das Netzwerk sozusagen: Wenn dieser eine Weg genommen wird, ist es eine Katze. Wenn es einen anderen Weg nimmt, ist es keine Katze.“ Neuronale Netze sind Systeme, die maschinell lernen. Das Netzwerk soll am Ende in der Lage sein, eine Katze auf dem Foto zu erkennen. In dem Katzenbeispiel von Thieme funktioniert das auch sehr gut – bis der Algorithmus auf einmal ein Foto eines Meerschweinchens auf einem Sofa als Katze erkennt. Was gibt es nun für Möglichkeiten, das zu erklären?</p>
<h3>„Das ist wie bei den ganzen Strukturen im Gehirn – da kann man auch kein einzelnes Neuron benennen, wenn man etwas zu erklären versucht“</h3>
<p>Die Schwierigkeit nachzuvollziehen, welcher Weg warum genommen wurde, begründet sich in der Komplexität der Systeme: „Man muss sich vorstellen, dass sie hunderte von verschiedenen Layern haben, mit Millionen von Knoten. Es lässt sich nicht einfach sagen: Ah, okay, wegen dieses Knotens ist das jetzt so“, sagt Thieme. Der Versuch, die Black Box einfach zu öffnen, also in den Algorithmus hineinzuschauen, mache aufgrund der unzählig vielen Knoten, Kanten und Layer schlichtweg keinen Sinn. „Das ist wie bei den ganzen Strukturen im Gehirn, da kann man auch kein einzelnes Neuron benennen, wenn man etwas zu erklären versucht“, so auch Ellsaesser. Außerdem ist es auch hier ähnlich wie bei menschlichen Gehirnen: Es gibt nicht nur eine Version von neuronalem Netz, die überall benutzt wird. „Das neuronale Netz“ gibt es genauso wenig wie es beispielsweise „den Deutschen“ oder „den Ausländer“ gibt – wir bewegen uns immer noch in einem unheimlich generellen Begriffsspektrum, warnt Ellsaesser. Da neuronale Netzwerke für jede Aufgabe oder Zielfunktion individuell programmiert werden, unterscheiden sie sich in vielerlei Hinsicht, wie beispielsweise der Art der Hierarchie oder Verknüpfungen zwischen den Knoten.</p>
<h3>Wir können lediglich ein Gefühl dafür entwickeln, wie der Algorithmus funktioniert</h3>
<p>Doch besteht nun irgendeine Möglichkeit, wenigstens das neuronale Netz unserer Katzenfotos nachvollziehbarer zu machen? Tatsächlich gibt es die. Es ist durchaus vorstellbar, die Black Box wenigstens ein bisschen verständlich zu machen; zwar nicht transparent, aber etwas wie dunkles Milchglas scheint möglich. „Eine Idee ist, mit verschiedenen Inputs zu spielen und zu schauen, was das Modell rauswirft. Beispielsweise könnten wir mit einem Algorithmus fragen, ob jemand ein politisch engagierter Bürger werden wird – und er gibt aus, dass ich kein solcher Bürger werde. Wenn wir jetzt verstehen wollen, woran das liegt, können wir verschiedene Parameter nehmen und die variieren“, erklärt Ellsaesser. „Wir fragen uns, was passieren würde, wenn ich meinen Universitätsabschluss ändern würde. Wenn ich nicht in Frankfurt studiert hätte, sondern beispielsweise in Berlin – was würde sich ändern?“ Dieses Ausprobieren passiert natürlich nicht analog, sondern systematisch; ein weiterer Algorithmus übernimmt diese Arbeit. „So bekommt man ein Gefühl dafür, wie der Algorithmus funktioniert.“ Keine Gewissheit also, aber immerhin eine Idee der Funktionsweise.</p>
<p>Wenn man solche Verfahren im Katzenbeispiel anwendet erkennt man, dass das neuronale Netz nie gelernt hat Katzen zu erkennen – sondern Tiere auf Sofas. In dem Datensatz, mit dem der Algorithmus trainiert wurde, saßen überdurchschnittlich viele Katzen auf einer Couch, weshalb der Algorithmus das Sofameerschweinchen fälschlicherweise für eine Katze hielt. Vermutlich. Denn: „Am Ende des Tages ist es eben immer noch eine Black Box. Wir haben lediglich ein besseres Verständnis davon, wie sie funktioniert &#8211; aber wir kennen nicht jedes Detail, wir werden es nie zu 100 Prozent nachverfolgen können.“</p>
<h3>Gilt das nur für Algorithmen?</h3>
<p>Bedeutet das, dass wir die Technologie nicht nutzen sollten? Sollten wir nicht verstehen, was wir tun? „Es ist ein wenig so, wie wenn Sie einen Menschen fragen: Ihre Nachbarin, wird sie eine engagierte Studentin werden? Menschen werden das mit Ja oder Nein beantworten und einige Gründe dafür nennen können, aber auch nicht alle. Wenn ich ihnen dann ein paar Parameter gebe, beispielsweise, dass sie in der Schule immer schon sehr gute Noten hatte – dann kann man beobachten, wie sich ihre Entscheidung verändern würde“, erklärt Ellsaesser weiter.</p>
<p>Es drängt sich  also die Frage auf, inwiefern sich eigentlich unsere eigenen Handlungen und Urteile von einer Black Box unterscheiden. Uns ist häufig eben nicht alles über die Art, wie wir Urteile fällen oder Entscheidungen treffen bekannt. Wenn ich gefragt werde, ob meine Nachbarin irgendwann eine gute Studentin sein wird, werde ich nicht alle Parameter benennen können, die meine Antwort beeinflussen. Vielleicht habe ich in der Vergangenheit mehr weibliche statt männliche Studierende kennengelernt, vielleicht halte ich Frauen grundsätzlich für klüger oder ehrgeiziger, vielleicht bin ich Pessimistin. All das oder zumindest ein Teil davon fließt in meine Entscheidung mit ein, ohne dass ich mir dessen voll bewusst bin; ohne, dass ich benennen könnte, wie stark welcher Faktor die Entscheidung getrieben hat. Und hier ist es wie Ellsaesser sagt – erst, wenn er mich zu vielleicht ein paar zehn oder hundert verschiedenen möglichen Nachbarn mit unterschiedlichem Alter, Geschlecht, Hobbies befragt, werden wir vielleicht eine Idee davon bekommen, welche Faktoren zu wie viel Prozent hinter meinen Entscheidungen stehen.</p>
<h3>Warum die Black Box noch ein anderes Problem darstellt</h3>
<p>So ein Vergleich impliziert natürlich nicht, dass diese Algorithmen keine Probleme darstellen. Vielmehr soll er zeigen, dass etwas, was noch nicht hundertprozentig nachvollzogen werden kann, nicht automatisch abgelehnt werden sollte. Er soll zeigen, dass gelernt werden muss, differenziert mit so einer Technologie umzugehen. Wenn man das tut, fällt vielleicht auch auf, dass Algorithmen noch auf eine ganz andere Art eine Black Box darstellen. Es scheint, dass für viele Menschen nicht nur neuronale Netze, sondern jeglicher digitale Algorithmus eine Black Box darstellt – dass, obwohl wir doch so viel darüber sprechen, vielen nicht bewusst ist, dass Künstliche Intelligenz bisher noch nicht existiert, oder dass der Großteil der Algorithmen mehr mit einer Kaffeemaschine gemeinsam hat als mit der Science-Fiction-Vorstellung eines menschenähnlichen, bösartigen, weißen Roboters. Das fehlende Wissen und das daraus resultierende fehlende Einschätzungsvermögen ist gleichermaßen ein Problem, über das gesprochen werden muss und dem entgegengewirkt werden muss. Was uns dazu bewegt hat, diesen und die folgenden Artikel zu schreiben.</p>
<p>&nbsp;</p>
<p>Titelbild: Photo by <a href="https://unsplash.com/@fanegen" target="_blank" rel="noopener noreferrer">Falco Negenman</a> on <a href="https://unsplash.com/photos/-f2sJr-PJDA" target="_blank" rel="noopener noreferrer">Unsplash</a></p>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x110111.png"><img decoding="async" class="alignnone size-medium wp-image-151003" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x110111-305x53.png" alt="CC-BY-NC 2.0" width="305" height="53" /></a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/kuenstliche-intelligenz-155485/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Corporate Digital Responsibility: Vertrauen schaffen, doch was heißt das eigentlich?</title>
		<link>https://www.politik-digital.de/news/corporate-digital-responsibility-154798/</link>
					<comments>https://www.politik-digital.de/news/corporate-digital-responsibility-154798/#respond</comments>
		
		<dc:creator><![CDATA[Julia Schymura]]></dc:creator>
		<pubDate>Fri, 22 Jun 2018 13:11:29 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Corporate Social Responsibility]]></category>
		<category><![CDATA[Digitale Ethik]]></category>
		<category><![CDATA[CSR]]></category>
		<category><![CDATA[Corporate Digital Responsibility]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=154798</guid>

					<description><![CDATA[Corporate Social Responsibility, also Gesellschaftsverantwortung von Unternehmen, ist bereits seit langem fester Bestandteil unternehmerischer Praxis. Aber was genau steht hinter [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="http://politik-digital.de/wp-content/uploads/CDR_Engel2_Artikel1.jpg"><img decoding="async" class="alignnone wp-image-154801 size-full" src="http://politik-digital.de/wp-content/uploads/CDR_Engel2_Artikel1.jpg" alt="Stephan Engel trägt neben Bildschirm über &quot;CDR bei Otto&quot; vor" width="640" height="280" /></a>Corporate Social Responsibility, also Gesellschaftsverantwortung von Unternehmen, ist bereits seit langem fester Bestandteil unternehmerischer Praxis. Aber was genau steht hinter dem Begriff der Digital Responsibility? Inwiefern neue Verantwortung auf Unternehmen und Politik in einer digitalisierten Gesellschaft zukommt, wurde am Donnerstag, den 21. Juni, von der Arbeitsgruppe Ethik der Initiative D21 diskutiert.</p>
<p>Digitalisierung bringt neue, vorher nicht da gewesene Handlungsmöglichkeiten. Sie wirft Fragen auf, die wir vorher nicht gestellt haben – und auf die auch ethische Antworten gefunden werden müssen. Benötigen wir dafür eine neue Ethik, oder genügen bereits existierende ethische Frameworks? Die Arbeitsgruppe Ethik hat sich das Ziel gesetzt, ethische Grundvorstellung auf die digitalisierte Gesellschaft zu übertragen. In der Veranstaltung am 21.06.2018 beschäftigt sich die Arbeitsgruppe mit der Corporate Digital Responsibility – welche Verantwortungen haben Unternehmen in einer digitalen Gesellschaft? Wir werden heute politische und wirtschaftliche Interpretationen dieser Frage hören.</p>
<h3>CDR heißt, „Verantwortung nicht an der Garderobe der Digitalisierung abzugeben“</h3>
<p>„Für uns“, sagt Stephan Engel, Head of Corporate Responsibility der Otto Group, „ist Ethik Teil unserer wirtschaftlichen Erfolgsfunktion.“ In erster Regel sei er Kaufmann, Hamburger Kaufmann, nicht Ethiker. Angenehm ehrlich wirkt er mit seinem Bekenntnis. Dennoch, so steht es in dem 80 Seiten langen Imagebericht seines Unternehmens, bedeutet Kaufmannsein eben auch, sogenannte Kaufmannstugenden zu berücksichtigen: Werte sind essentiell für sein Unternehmen. Engel fährt fort: „CDR heißt, Verantwortung nicht an der Garderobe der Digitalisierung abzugeben.“ Was genau steckt hinter dieser Verantwortung? Neben den Vorteilen der Digitalisierung führt die Schnelligkeit, mit der sie voranschreitet, auch zu Verunsicherung, so steht es in dem Otto-Bericht. Das scheint Björn Stecher, stellvertretender Geschäftsführer der <a href="https://initiatived21.de/">Initiative D21</a>, zu meinen, als er kurz darauf von Vertrauensankern spricht, an denen sich Menschen festhalten können. „Es ist wichtig, Vertrauen zu schaffen“, sagt er, „um die Komplexität der Digitalisierung für die Gesellschaft zu reduzieren.“ Vertrauen ist ein Wort, das noch häufiger auf dieser Veranstaltung fällt, es scheint von hoher Bedeutung zu sein. Doch inwiefern ist das Schaffen dieses Vertrauens Teil dieser Verantwortung? Wie lässt sich der abstrakte Begriff CDR konkretisieren?</p>
<h3>CDR als digitale Ergänzung einer CSR?</h3>
<p>Jens-Rainer Jänig, Geschäftsführer der Kommunikationsagentur mc quadrat, versucht sich an einer Definition: Corporate Digital Responsibility sei Verständnis von Unternehmensverantwortung <em>in und für</em> eine digitale Gesellschaft. Es umfasse es eine regulierte und eine freiwillige Ebene: Einerseits also das Einhalten relevanter Gesetze oder Richtlinien, andererseits die Wahrnehmung einer freiwilligen Verantwortung bei der Mitgestaltung der digitalen Gesellschaft. Im Fokus, so Jänig, sollen die über die regulative Ebene hinausgehenden freiwilligen Maßnahmen stehen. In der anschließenden Diskussionsrunde sorgt das für Unklarheit bei anderen TeilnehmerInnen: An Regeln halten – ist das wirklich Verantwortung oder nicht vielmehr Selbstverständlichkeit, ja, eine notwendige Rahmenbedingung für gesellschaftliche Teilnahme? Aber, antwortet Stecher darauf, ist es beispielsweise mit der DSGVO überhaupt noch so eindeutig, inwiefern, wann und wo ein Unternehmen gegen Recht verstößt? Eine klare Antwort wird es heute also nicht darauf geben.</p>
<p>CDRs Vorgängerin, die Corporate Social Responsibility, ist lange ein Begriff. Sie umfasst in der Regel die zusätzlichen Pflichten und Verantwortlichkeiten, die ein Unternehmen sich auferlegt, nicht die gesetzlichen. Allerdings ist CDR ungleich CSR: Jänig fragt sich, welche Rolle CDR neben CSR einnehmen soll. Ist sie etwas grundlegend neues, nur eine digitale Neuinterpretation dessen, was bereits existiert – oder sollten wir sie vielmehr als Ergänzung verstehen?</p>
<p>Besonders groß, das ist für Jänig bereits eindeutig, ist allerdings die Verantwortung von Unternehmen in sehr marktmächtigen Positionen. Unternehmen mit monopolähnlicher Stellung, wie Google, dürfen nicht nur reagieren, sondern müssen proaktiv die Fragen beantworten, die Digitalisierung in Bezug auf Gesellschaft und Ethik aufwirft.</p>
<h3>Beschwerdemanagement als Bestandteil einer CDR</h3>
<p>Zuletzt hören wir die politische Perspektive. Wolfgang Teves vom Bundesministerium der Justiz und für Verbraucherschutz  erklärt, was aus seiner Sicht Potentiale einer CDR sind. Auch für ihn spielt Vertrauen eine Schlüsselrolle, auch für ihn geht CDR über Regulierungen hinaus: CDR ist etwas, das flexibler ist, und von jedem Unternehmen individuell definiert und umgesetzt werden kann. Die Handlungsfelder einer CDR sind für jedes Unternehmen, vom traditionellen Konzern bis zum Start-Up, unterschiedlich, anders als allgemeingültige Gesetze. Für Teves ist außerdem klar, dass es bei CDR um mehr geht, als nur um Transparenz und Datenschutz: Aus seiner Sicht als Verbraucherschützer sind auch Beschwerdemanagement und Streitbeilegungsverfahren essentielle Bestandteile von digitaler Verantwortung.</p>
<p>Teves sucht auch offen die Diskussion: Wie kann Politik CDR mitgestalten, und wie kann sie das Übernehmen von Verantwortung in der Digitalisierung begleiten? Für ihn steht fest, dass verschiedene Akteure zusammenarbeiten müssen: Politik, NGOs, Unternehmen, internationale Organisationen. Wie passend, dass aus jedem Feld heute jemand an der Sitzung der AG Ethik teilnimmt.</p>
<p>Am Ende Veranstaltung ist deutlich geworden, welche Schlüsselrolle Vertrauen zukommt. Es wird allerdings auch deutlich, dass wir erst am Anfang stehen: Wir wissen, dass CDR von großer Bedeutung ist – doch wie wir sie gestalten und was sie genau beinhalten wird, muss noch geklärt werden. Ist sie einfach nur ein Teil der CSR – die nun eben neben einer analogen, auch eine digitale Komponente umfasst? Oder ist sie wirklich etwas grundlegend Andersartiges? Derzeit suchen wir noch nach Antworten auf diese Frage, die die Rolle von immer digitaler werdenden Unternehmen prägen wird.</p>
<p>Die Arbeitsgruppe Ethik trifft sich einmal im Quartal und wird geleitet von der Initiative D21. Mehr Informationen dazu gibt es <a href="//initiatived21.de/arbeitsgruppen/ag-ethik/)">hier</a>.</p>
<p>Titelbild: © Redaktion.</p>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizens-305x531.png"><img decoding="async" class="alignnone size-full wp-image-123698" src="http://politik-digital.de/wp-content/uploads/CC-Lizens-305x531.png" alt="Creative Commons Lizenz" width="305" height="53" /></a></p>
<p>&nbsp;</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/corporate-digital-responsibility-154798/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Grimme Online Award: Voting für den Publikumspreis noch bis zum 17.  Juni möglich</title>
		<link>https://www.politik-digital.de/news/grimme-online-award-publikumsvoting-154773/</link>
					<comments>https://www.politik-digital.de/news/grimme-online-award-publikumsvoting-154773/#respond</comments>
		
		<dc:creator><![CDATA[Julia Schymura]]></dc:creator>
		<pubDate>Wed, 13 Jun 2018 09:51:46 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Grimme-Online-Award]]></category>
		<category><![CDATA[digitale Medien]]></category>
		<category><![CDATA[Grimme-Institut]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=154773</guid>

					<description><![CDATA[Was waren dieses Jahr besonders relevante und hochwertige Angebote im Netz? Diese Frage stellt der Grimme Online Award. Dabei haben [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="http://politik-digital.de/wp-content/uploads/Grimme-Online-Award_640x280.jpg"><img decoding="async" class="alignnone wp-image-154774 size-full" src="http://politik-digital.de/wp-content/uploads/Grimme-Online-Award_640x280.jpg" alt="&quot;Grimme Online Award - Jetzt online abstimmen&quot; Schriftzug mit Mauszeiger und Finger" width="640" height="280" /></a>Was waren dieses Jahr besonders relevante und hochwertige Angebote im Netz? Diese Frage stellt der Grimme Online Award. Dabei haben Interessierte wieder die Möglichkeit, mitzuentscheiden: Bis Sonntag, den 17. Juni 2018, haben sie die Chance, für den Publikumspreis abzustimmen.</p>
<p>Der Grimme Online Award geht in die 18. Runde. Seit 2001 prämiert er qualitativ hochwertige Online-Angebote, die sich an die allgemeine Öffentlichkeit im deutschsprachigen Raum richten. Dieses Jahr sind 28 Angebote in vier Kategorien – Information, Wissen und Bildung, Kultur und Unterhaltung sowie Spezial – nominiert.</p>
<h3>Publizistische Qualität im Netz</h3>
<p>Angebote können Websites, bestimmte Projekte und Einzelleistungen, oder Apps sein – wichtig ist, dass ein klarer Mehrwehrt zu erkennen ist; dass ein zumindest für Teile der Gesellschaft relevantes Thema aufgegriffen und gut und nachvollziehbar kommuniziert wird. Was davon sich dann besonders für einen Award qualifiziert, bestimmt eine unabhängige Jury anhand verschiedener Kriterien wie der Inhalte, der Nutzerfreundlichkeit des Angebots oder die visuelle Aufbereitung.</p>
<h3>Der Publikumspreis als Möglichkeit der Partizipation</h3>
<p>Besonders an dem <a href="http://www.grimme-online-award.de" target="_blank" rel="noopener noreferrer">Grimme Online Award</a> ist allerdings, dass nicht nur besagte Jury entscheidet, sondern auch das Publikum die Möglichkeit hat, aktiv teilzunehmen. Interessierte können nicht nur im Vorfeld selbst Nominierungsvorschläge einreichen, sondern eben auch ihren eigenen Publikumspreis vergeben. Diesen gewann im letzten Jahr übrigens die Youtube-Satire der <a href="http://www.grimme-online-award.de/archiv/2017/preistraeger/p/d/datteltaeter-2/" target="_blank" rel="noopener noreferrer">Datteltäter</a>.</p>
<p>Die Preisverleihung findet am 22. Juni in der Flora in Köln statt. Wer verfolgen möchte, wer nun letztendlich den Publikumspreis (sowie all die anderen Awards) gewinnt, aber nicht live dabei sein kann, kann dies über einen <a href="www.grimme-online-award.de" target="_blank" rel="noopener noreferrer">Livestream</a> tun. Ab 18:45 Uhr wird vom roten Teppich aus gesendet.</p>
<p>Die Abstimmung ist noch bis zum 17. Juni 2018 um 23:59 Uhr möglich. Dabei können bis zu drei Stimmen abgegeben werden. <a href="http://www.grimme-online-award.de/2018/publikumsvoting/" target="_blank" rel="noopener noreferrer">Hier</a> geht es zur Abstimmung  und <a href="http://www.grimme-online-award.de/2018/nominierte/alle/" target="_blank" rel="noopener noreferrer">hier</a> kann zusätzlich mehr über die Nominierten erfahren werden.</p>
<p>Titelbild: © <a href="http://www.grimme-online-award.de//" target="_blank" rel="noopener noreferrer">Grimme Online Award</a>, Screenshot.</p>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizens-305x531.png"><img decoding="async" class="alignnone size-full wp-image-123698" src="http://politik-digital.de/wp-content/uploads/CC-Lizens-305x531.png" alt="Creative Commons Lizenz" width="305" height="53" /></a></p>
<p>&nbsp;</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/grimme-online-award-publikumsvoting-154773/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Netzpolitik und Demokratie: „Lasst uns Streiten!“</title>
		<link>https://www.politik-digital.de/news/lasst-uns-streiten-zum-thema-netzpolitik-und-demokratie-154734/</link>
					<comments>https://www.politik-digital.de/news/lasst-uns-streiten-zum-thema-netzpolitik-und-demokratie-154734/#respond</comments>
		
		<dc:creator><![CDATA[Julia Schymura]]></dc:creator>
		<pubDate>Wed, 06 Jun 2018 10:39:18 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Digitaler Dialog]]></category>
		<category><![CDATA[Netzpolitik]]></category>
		<category><![CDATA[Demokratie]]></category>
		<category><![CDATA[Landeszentrale für Politische Bildung]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=154734</guid>

					<description><![CDATA[Befinden wir uns in Deutschland nach wie vor in einem digitalen Entwicklungsland? Wenn wir nichts zu verbergen haben – warum [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="http://politik-digital.de/wp-content/uploads/Internet-als-Jobmotor3.jpg"><img decoding="async" class="alignnone wp-image-154741 size-full" src="http://politik-digital.de/wp-content/uploads/Internet-als-Jobmotor3.jpg" alt="These &quot;Das Internet ist der Jobmotor der Zukunft&quot; mit Abstimmungsmöglichkeit darüber, auf rotem Grund." width="640" height="280" /></a>Befinden wir uns in Deutschland nach wie vor in einem digitalen Entwicklungsland? Wenn wir nichts zu verbergen haben – warum müssen wir unsere Daten dann überhaupt schützen? Diese und weitere Fragen bilden die Grundlage für den offenen Dialog, zu dem die Plattform „Lasst uns Streiten!“ im Rahmen der Bundesweiten Aktionstage Netzpolitik &amp; Demokratie einlädt.</p>
<p><a href="https://www.lasst-uns-streiten.de/" target="_blank" rel="noopener noreferrer">„Lasst uns Streiten!“</a> ist eine Plattform der Sächsischen Landeszentrale für politische Bildung, die seit 2016 den Meinungsaustausch und Dialog zu aktuellen politischen Themen ermöglicht. Ihre aktuelle Diskussion dreht sich um Fragen der Netzpolitik: Ist das Internet der Jobmotor der Zukunft? Brauchen wir digitale Medienbildung als Schulfach? Diese Gedanken stellen die Grundlage für insgesamt vier Thesen dar, die diskutiert werden sollen.</p>
<h3>Eine Plattform, die den Dialog mit jedem ermöglicht</h3>
<p>Die Plattform lädt dabei jeden ein, am Austausch teilzunehmen – unabhängig von seiner oder ihrer Vorbildung; unter eigenem Namen oder anonym. Dafür werden zu jeder These Hintergrundinformationen in Form von Texten, Internetseiten oder Statistiken angeboten. Dann wird zu den einzelnen These online abgestimmt: Bin ich dagegen, stimme ich zu &#8211; oder stehe ich ihr neutral gegenüber? Die Positionierung muss auch mit einem kurzen Statement begründet werden. Ein Moderationsteam sorgt anschließend dafür, dass dieses veröffentlicht wird. Nach Absenden der Position wird der Verfasser oder die Verfasserin außerdem mit einer Gegenmeinung konfrontiert – ein richtiger Dialog eben.</p>
<h3>Wir müssen konstruktiv streiten</h3>
<p>Die Moderation durch die Plattform ist essentiell. Ein so geschützter Diskussionsraum, der rationales und sachliches Argumentieren ermöglicht, ist notwendig, um „konstruktiv streiten“ zu können. Durch Social Media wird das Kommentieren und Veröffentlichen der eigenen Meinung immer einfacher – die Probleme, die wir diskutieren, aber auch immer komplexer. Die Anonymität im Internet oder Fake News sind dabei nicht zwingend gute Voraussetzungen für eine adäquate Argumentationskultur. Ein Ort für konstruktives Streiten und Argumentieren ist heute also wichtiger denn je.</p>
<p>Dialogrunden, wie aktuell zu Netzpolitik und Demokratie, finden alle drei Monate statt; geöffnet ist der Dialog dabei für etwa einen Monat. Die aktuelle Diskussion ist noch bis zum 25.06.2018 geöffnet. Zur Teilnahme sowie zu weiteren Informationen rund um die Plattformen und ihre Themen geht es <a href="https://www.lasst-uns-streiten.de/" target="_blank" rel="noopener noreferrer">hier</a>.</p>
<p>Titelbild: © <a href="https://www.slpb.de/startseite/" target="_blank" rel="noopener noreferrer">Sächsische Landeszentrale für Politische Bildung</a>, bearbeitet.</p>
<p><a href="http://politik-digital.de/wp-content/uploads/CC-Lizens-305x531.png"><img decoding="async" class="alignnone size-full wp-image-123698" src="http://politik-digital.de/wp-content/uploads/CC-Lizens-305x531.png" alt="Creative Commons Lizenz" width="305" height="53" /></a></p>
<p>&nbsp;</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/lasst-uns-streiten-zum-thema-netzpolitik-und-demokratie-154734/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
