<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>machine learning &#8211; politik-digital</title>
	<atom:link href="https://www.politik-digital.de/tag/machine-learning/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.politik-digital.de</link>
	<description>Information, Kommunikation, Partizipation</description>
	<lastBuildDate>Thu, 24 Mar 2022 12:17:27 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.politik-digital.de/wp-content/uploads/2020/07/cropped-Politik-Digital_Logo_Sign_Gradient-512-32x32.png</url>
	<title>machine learning &#8211; politik-digital</title>
	<link>https://www.politik-digital.de</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Was machen Maschinen (mit uns)?- Buchrezension zu „Machine Habitus“</title>
		<link>https://www.politik-digital.de/news/machine-habitus-rezension-164275/</link>
					<comments>https://www.politik-digital.de/news/machine-habitus-rezension-164275/#respond</comments>
		
		<dc:creator><![CDATA[Stephan Raab]]></dc:creator>
		<pubDate>Thu, 24 Mar 2022 09:59:42 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Themenseite]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Deep learning]]></category>
		<category><![CDATA[machine learning]]></category>
		<category><![CDATA[Machine Habitus]]></category>
		<category><![CDATA[Rezension]]></category>
		<category><![CDATA[Algorithmus]]></category>
		<guid isPermaLink="false">https://www.politik-digital.de/?p=164275</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div data-parent="true" class="vc_row row-container" id="row-unique-0"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column text-lead" ><p>Seit Menschengedenken prägen Maschinen die Entwicklungen der Menschheit mit. Spätestens seit den Erfahrungen des Lockdowns ist zudem deutlich geworden, dass eine neue Art von Maschinen angetrieben durch künstliche Intelligenz nun Teil des Alltags geworden ist. Ob Kommunikation, Konsum oder Unterhaltung diese Alltagshelfer sind überall. Aber wissen deren Nutzer überhaupt was diese Maschinen wirklich (mit ihnen) tun? Das Buch „Machine Habitus“ wirft einen neuen Blick auf eine alte Frage zur Beziehung von Mensch zu Maschine.</p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span><strong>Alle Wege führen nach Rom aber jetzt mit Algorithmus</strong></span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ><p>Zu Beginn seines Buches nimmt der Autor Massimo Airoldi seine Leserschaft mit auf eine Reise in die ewige Stadt, fern ab der großen Sehenswürdigkeiten und Touristenströme. Der Stadtteil Tor Pignattara hat wenig von dem Glanz der klassischen Postkartenmotive. Auf etwa zwei Quadratkilometern leben etwa 50.000 Menschen unterschiedlichster Ethnien auf engsten Raum zusammen. Die Heterogenität dieses Viertels ist hoch genau wie seine Arbeitslosigkeit. In dieser Umgebung wächst IAQOS auf. Allerdings IAQOS ist kein gewöhnlicher Bewohner, denn sein Name bedeutet übersetzt „Künstliche Intelligenz im Stadtteil mit Open Source“. Mithilfe dieser KI können die Einheimischen ihre Wünsche und Anliegen rund um die Entwicklungen des Stadtteils kommunizieren und mit diesem digitalen Bewohner austauschen. Langfristig auf besondere Weise „aufgewachsen“ sammelt IAQOS die verschiedenen Daten der Bewohner von Tor Pignattara, um schließlich selbst ein digitales Mitglied davon zu werden.</p>
<p>Was aber würde passieren, wenn IAQOS in einem wohlhabenderen Stadtteil mit einer ganz anderen Geschichte, Gesellschaft und Kultur aufgewachsenen wäre? Würde sich IAQOS gleich oder angesichts anderer Umstände anders „entwickeln“? Diesen Fragen zur Interaktion zwischen Mensch und Maschine widmet sich dieses Buch. Motiviert wird „Machine Habitus“ vor allem durch zwei Annahmen, welche Airoldi zu widerlegen versucht. Zum einen kritisiert der französische Soziologieprofessor, dass Maschinen und Technologie oft als Objekte außerhalb der Gesellschaft gesehen werden. Zum anderen stört den Autor die Behauptung, dass Algorithmen auf Basis von mathematischen Verfahren stets neutral seien. Zentrales Anliegen seiner theoretischen Überlegungen ist es ein Verständnis zu vermitteln, dass moderne lernende Maschinen nicht neutral sind, sondern mit ihren Entwicklern und Nutzern im Austausch stehen als gemeinsam deren Umwelt, Verhalten und Wahrnehmung reproduzieren und verändern.</p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span><strong>Was wir mit Maschinen machen oder Maschinen mit uns </strong></span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ><p>Eine Betrachtung der Beziehung zwischen Mensch und Maschine scheint zunächst nicht viel Neues zu bieten. Seit Menschengedenken haben sie diese genutzt, um ihre Ziele zu erreichen. Angefangen von der Entdeckung des Feuers bis hin zum Entzünden von Raketen, um ins Weltall zu fliegen haben sich diese Maschinen immer weiterentwickelt. Gleiches gilt auch für Algorithmen, welche bereits existiert haben, bevor es hierfür überhaupt ein Wort gegeben hat. Was allerdings neu ist, dass ist die Beziehung zwischen Algorithmen, Mensch und Maschine.</p>
</div><div class="uncode_text_column" ><p>Wie sich die Menschheit weiterentwickelt hat, haben sich auch die Maschinen weiterentwickelt. Hierzu unterteilt der Autor die Geschichte in drei Epochen. Während der analogen Phase von der Antike bis etwa dem Ende des Zweiten Weltkrieges stand Computer noch für Personen, welche Berechnung per Auftrag durchführten. Erste Ansätze mechanischer Rechenmaschinen unterstützen diese Arbeit, aber die Algorithmen dienten vor allem dazu, um bestimmte bereits vorgegebene Ziele zu erreichen. In der digitalen Phase von 1946 bis 19998 entstanden zunehmend leistungsfähigere Computer. Erste Ansätze von „Good-Old-Fashioned AI“ kamen auf. Basierend auf bestimmten logischen Bedingungen konnten diese Maschinen einfache kognitive Prozesse des Menschen abbilden. Hierbei folgten die Maschinen klaren vorgegebenen Regeln, wie beispielsweise im Schach. Zwar hat dieses Spiel viele Möglichkeiten, diese sind jedoch klar begrenzt und berechenbar. In der Phase der Plattformen, deren Beginn der Autor um 1998 verortet, änderte sich diese Beziehung jedoch. Ursprünglich gedacht als Aufbewahrungsstätte für Informationen änderte sich die Struktur des Internets grundlegend, als die Erfinder von Google Larry Page und Sergey Brin das PageRanking einführten. Von da an waren alle Seiten nicht mehr gleichberechtigt, sondern stehen nun in unterschiedlichen Verhältnissen. Manche Seiten erhalten ein höheres Ranking und damit mehr Aufmerksamkeit als andere Seiten. Kurz gesagt aus einem digitalen Aufbewahrungsort wurde ein Netzwerk. Quantitativ hat sich in dieser Epoche die Anzahl der Geräte stark erhöht, tragen heute doch die meisten ständig das Smartphone als Inbegriff des digitalen Zeitalters mit sich herum. Zugleich haben sich qualitativ die Möglichkeiten erhöht, was diese neuen Geräte leisten können. Anders als bei allen Phasen zuvor agieren die Maschinen nun zunehmend autonom, wobei Ziele und Zweck derselbigen vielfach undeutlich werden. Diese neue Generation verarbeitet selbstständig die unzähligen Daten, welche die Nutzer des Internets jeden Augenblick als Spuren ihrer Präsenz im digitalen Raum hinterlassen. Gleichzeitig agieren die Nutzer wiederum mit den Ergebnissen, welche diese Maschinen produzieren. In diesem Sinne reproduziert die Mensch-Maschine-Interaktion aktuelle gesellschaftliche Entwicklungen und soziale Zustände. Algorithmen, Maschinen und Menschen sind verbunden durch ein komplexes soziotechnologisches Netzwerk, das soziale und technische Prozesse miteinander verwebt.</p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span><strong>Ein Wechselspiel zwischen Sozialisierung und Digitalisierung </strong></span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ><p>Allerdings regen die Überlegungen des Soziologen dazu an, selbst darüber nachzudenken, worin die Grenzen bestehen zwischen Maschinen, die immer mächtiger werden und Menschen, welche diese zwar bedienen aber immer weniger verstehen können. Beide haben viele Gemeinsamkeiten wie das Beispiel aus Tor Pignattara zeigt. Sowohl Menschen als auch Maschinen müssen zunächst sozialisiert werden, um ihrer jeweiligen Rolle gerecht zu werden. Dies bedeutet die Regeln und Normen einer Gesellschaft zu erlernen, um als Mitglied innerhalb einer sozialen Gemeinschaft agieren zu können. Beim Menschen geschieht dies durch die Erziehung. Indem diese durch Bezugspersonen, das soziale Umfeld oder Institutionen wie die Schule erzogen werden, erhalten sie bestimmte Verfahren, um die Vielzahl der kulturellen Codes, welche die soziale Interaktion mit anderen Menschen produzieren zu verarbeiten. Abhängig davon, in welchen Umfeldern dieser Prozess erfolgt, können die Personen ganz andere Muster entwickeln, auf welche sie in bestimmten Situationen zurückgreifen können. Einen ähnlichen Habitus, wie ihn der Soziologe Pierre Bourdieu beschrieben hat, können auch Maschinen entwickeln. Diese lernen bestimmte kulturelle Codes, welche in maschinenlesbarer Form vorliegen, zu verarbeiten und zu strukturieren. Während Menschen jedoch durch Erfahrungen sozialisiert werden, geschieht dies bei Algorithmen durch die Eigenschaften welchen ihnen zugeschrieben werden. Allerdings sind Menschen immer durch ihre kulturellen Prägungen in gewisser Weise voreingenommen, weshalb diese Überlegungen danach fragen, warum das gleiche nicht auch für Algorithmen gelten könnten. Schließlich müssen diese auch erst „sozialisiert werden“ um ihre gesellschaftlichen Anforderungen erfüllen zu können.</p>
</div><div class="uncode_text_column" ><p>Zentrales Argument des „Machine Habitus » ist es, Algorithmen nicht einfach nur als neutrale Maschinen, sondern als soziale Agenten zu begreifen, welche selbst gewisse Veränderungen herbeiführen können, somit eine gewisse Form von Macht ausüben können. Deutlich werden diese Überlegungen an Themen wie Filterblasen und Fakenews, oder der wachsenden Bedeutung von Bots, welche sich immer weniger von menschlichen Akteuren unterscheiden lassen. Ebenso wie Menschen, die sowohl als Individuum, als auch als Teil einer Gesellschaft agieren, sind Algorithmen soziale Agenten, welche in ein komplexes Netzwerk eingebunden sind. Jeder soziale Raum, sei dies die Gesellschaft oder soziale Netzwerke, ist eine Ansammlung von Beziehungen zwischen verschiedenen Positionen in der Gesellschaft. Diese Positionen werden durch das soziale Kapital bestimmt, sprich, die Möglichkeiten, welche sich für das Individuum ergeben, das über diese Verbindungen verfügt. Sowohl Menschen vergleichen ihre Position im sozialen Raum wie dies auch Maschinen tun. Beide unterscheiden sich lediglich darin, dass Menschen hierfür erlernte Muster nutzen, während Maschinen durch Wahrscheinlichkeitsrechnungen die Beziehungen zwischen Menschen, Objekten und Informationen bestimmen. Allerdings liegt hierin der große Unterschied zwischen Menschen und den Algorithmen komplexer Maschinen darin begründet, dass menschliche Akteure ein Bewusstsein für die Zwänge und Einschränkungen haben, die ihr Umfeld ihnen auferlegt. Hierauf können menschliche Akteure emotional reagieren und versuchen diese Umstände zu verändern, während technische Akteure diesen keine normativen Bedeutungen zuschreiben.</p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span><strong>Mensch und Maschine gegeneinander im Miteinander</strong></span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ><p>Mit seiner Anregung eines „Machine Habitus“ möchte der Soziologieprofessor Massimo Airoldi vor allem dazu anregen, Algorithmen nicht mehr als black boxes, außerhalb der Gesellschaft zu sehen, sondern als zentrale Akteure im gesellschaftlichen Wandlungsprozess der digitalen Transformation zu begreifen. Hierzu bietet der Autor einige Ansätze für mögliche zukünftige Beziehungen zwischen den Algorithmen und deren menschlichen Nutzern. Zwar erhalten die Algorithmen durch deren Konstrukteure eine erste Sozialisierung. Allerdings erfolgt eine weitere Sozialisierung, indem diese in verschiedenen Kontexten eingesetzt werden. Ähnliches passiert auch in der menschlichen Entwicklung. Zwar erhält jeder eine gewisse Prägung durch die Kindheit, aber andere Kontexte wie etwa der Beruf führen zu einer zweiteren Sozialisierung. Egal ob Maschine oder Mensch, die zweite Sozialisierung bringt neue Muster hervor, die Beziehung von sich zu anderen Akteuren und dem Umfeld einschätzen zu können.</p>
</div><div class="uncode_text_column" ><p>Ausblickend wird die Beziehung zwischen Menschen und Algorithmen als Maschinen vor allem durch zwei Faktoren bestimmt. Einerseits steht die Asymmetrie der Informationen, Je mehr die Algorithmen an Daten sammeln, desto besser können sie ihr Umfeld beschreiben, während Menschen immer größere Schwierigkeiten haben, die Funktionsweise der Algorithmen zu verstehen. Andererseits steht die Übereinstimmung der Ziele, welche der Algorithmus verfolgt und den Erwartungen, welche Menschen an deren Nutzung mitbringen. Hierbei können entweder Menschen den Habitus von Maschinen verändern oder aber Maschinen Menschen dazu anregen, ihre Verhalten zu verändern. Derart werden soziale Strukturen gleichsam reproduziert als auch grundlegend verändert je nach Beziehungsart.</p>
</div><div class="vc_custom_heading_wrap "><div class="heading-text el-text" ><h2 class="h2" ><span><strong>Wer ist der Algorithmus?</strong></span></h2></div><div class="clear"></div></div><div class="uncode_text_column" ><p>Abschließend regt „Machine Habitus“ vor allem dazu an, selbst darüber nachzudenken, wie unser Alltagsleben zunehmend durch die Beziehung zu Algorithmen und Maschinen mitbestimmt wird, ohne dass wir es immer direkt merken. Allerdings wird auch deutlich, dass Maschinen nicht neutral sind, sondern die positiven, aber auch negativen Eigenschaften sowie Ungleichheiten der Gesellschaft reproduzieren. Jedoch anders als Maschinen können sich Menschen dessen bewusstwerden, denn als Ausblick gibt das Werk zu bedenken, dass wir am Ende als Menschen der eigentlich entscheidende Algorithmus sind, indem wir die Welt mit ihren vielen komplexen Zusammenhängen nach unseren Vorstellungen zu ordnen versuchen.</p>
</div><div class="uncode_text_column" ><p>Photo by <a href="https://unsplash.com/@beingabstrac">rishi</a> on <a href="https://unsplash.com/?utm_source=unsplash&amp;utm_medium=referral&amp;utm_content=creditCopyText">Unsplash</a></p>
</div></div></div></div></div></div><script id="script-row-unique-0" data-row="script-row-unique-0" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-0"));</script></div></div></div><div data-parent="true" class="vc_row styleptrl--cc-module has-bg need-focus style-color-gyho-bg limit-width boxed-row row-container" id="row-unique-2"><div class="row unequal col-no-gutter single-top-padding single-bottom-padding single-h-padding row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-middle pos-center align_left column_parent col-lg-4 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding  unradius-std" ><div class="uncont" ><div class="uncode_text_column" ><p>Text: <a href="https://creativecommons.org/licenses/by-sa/3.0/de/" target="_blank" rel="noopener noreferrer">CC-BY-SA 3.0</a></p>
</div></div></div></div></div></div><div class="wpb_column pos-middle pos-center align_right column_parent col-lg-8 styleptrl--cc-module--col single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ><div class="uncode_text_column" ><p><img decoding="async" class="alignnone size-medium wp-image-159021" src="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png" alt="" width="300" height="52" srcset="https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1-300x52.png 300w, https://www.politik-digital.de/wp-content/uploads/2020/05/CC-Lizenz-630x110111-305x53-1.png 305w" sizes="(max-width: 300px) 100vw, 300px" /></p>
</div></div></div></div></div></div><script id="script-row-unique-2" data-row="script-row-unique-2" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-2"));</script></div></div></div><div data-parent="true" class="vc_row row-container" id="row-unique-3"><div class="row limit-width row-parent"><div class="wpb_row row-inner"><div class="wpb_column pos-top pos-center align_left column_parent col-lg-12 single-internal-gutter"><div class="uncol style-light"  ><div class="uncoltable"><div class="uncell no-block-padding" ><div class="uncont" ></div></div></div></div></div><script id="script-row-unique-3" data-row="script-row-unique-3" type="text/javascript" class="vc_controls">UNCODE.initRow(document.getElementById("row-unique-3"));</script></div></div></div>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/machine-habitus-rezension-164275/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Das algorithmische Orakel von Wien</title>
		<link>https://www.politik-digital.de/news/das-algorithmische-orakel-von-wien-153199/</link>
					<comments>https://www.politik-digital.de/news/das-algorithmische-orakel-von-wien-153199/#respond</comments>
		
		<dc:creator><![CDATA[admin]]></dc:creator>
		<pubDate>Tue, 12 Sep 2017 15:04:22 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[NSA]]></category>
		<category><![CDATA[Dokumentation]]></category>
		<category><![CDATA[Privatisierung]]></category>
		<category><![CDATA[Friedrich Moser]]></category>
		<category><![CDATA[machine learning]]></category>
		<category><![CDATA[Netzwerkanalyse]]></category>
		<category><![CDATA[Terrorismusbekämpfung]]></category>
		<guid isPermaLink="false">http://politik-digital.de/?p=153199</guid>

					<description><![CDATA[Terrorbekämpfung mit Smart Data: Diesem Thema widmet sich die sehenswerte Dokumentation „Terrorjagd im Netz“. Heute um 20:15 auf arte und [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="http://politik-digital.de/wp-content/uploads/TitelbildRezensionArte-e1505232541824.jpg"><img decoding="async" class="alignleft size-full wp-image-153200" src="http://politik-digital.de/wp-content/uploads/TitelbildRezensionArte-e1505232541824.jpg" alt="TitelbildRezensionArte" width="640" height="279" /></a>Terrorbekämpfung mit Smart Data: Diesem Thema widmet sich die sehenswerte Dokumentation „Terrorjagd im Netz“. Heute um 20:15 auf arte und bis zum 19.09. in der arte-Mediathek.</p>
<p>Ineffizienz und Outsourcing der Sicherheitsdienste: Nach „A good American“ ist „Terrorjagd im Netz“ der nächste Dokumentarthriller von Friedrich Moser, der ein düsteres Bild der digitalen Massenüberwachung zeichnet. Der mehrsprachige Film des österreichischen Filmemachers beginnt im nächtlichen Wien. Ein junger Mann zieht durch beleuchteten Straßen der Metropole und stellt sich als Christian Weichselbaum vor – Co-Founder und leitender Data Scientist des Wiener Start-Ups <a href="http://kivu.tech/">Kivu Technologies</a>. Das Unternehmen hat sich auf Analyse und Auswertung von terrorverdächtigen Inhalten im Netz spezialisiert.</p>
<p>Kivu hat ein revolutionäres System entwickelt. Es erlaubt soziale Netzwerke binnen weniger Momente zu analysieren und relevante Daten in einer selektiven und effizienten Darstellung zu präsentieren. Weichselbaum hat sich als Datenanalyst schon länger mit maschinellem Lernen auseinandergesetzt. Das, was ihn jedoch prägte, war der Anschlag auf den französischen Konzertsaal Bataclan durch die Terrororganisation Islamischer Staat. Wie in einem Live-Stream hätte man im Internet die Nachrichten von den anwesenden Konzertgängern verfolgen können. Die Reaktionen reichten von blanken Entsetzen bis zu Befürwortung durch Sympathisanten. Gerade diese hätten die Inhalte in entsprechenden Netzwerken geteilt und sich darüber ausgetauscht – alles öffentlich. Nach dieser beispielhaften Erfahrung war es nicht verwunderlich, dass Weichselbaum 2015 auf die Anfrage des Gründers von Kivu – <a href="https://fleming.events/en/events/speakers/security/iacsp-asean-security-awards-symposium/robert-wesley">Robert Wesley</a> – einging.</p>
<h3>Alles im Leben kann als Netzwerk dargestellt werden</h3>
<p>Wesley, unter anderem Präsident der <a href="http://www.terrorism-research.org/about/">Terrorism Research Initiative</a>, suchte nach Experten, um ein Analyseverfahren zu entwickeln. Dieses sollte Daten, die auf Anschläge hinweisen, treffsicher auswerten, aber gleichzeitig keine Datenschutzrechte verletzen. Genau das hat Kivu-Team geschafft. Allein durch <a href="https://netzpolitik.org/2014/wissenserschliessung-aus-offenen-quellen-wie-bundeswehr-und-bnd-die-auswertung-sozialer-netzwerke-rechtfertigen/">Open Source Intelligence</a>, also die Auswertung von Metadaten in sozialen Netzwerken, konnten graphische Knotenpunkte der Datenstandorte erstellt werden. Durch die Verdichtung lassen sich Gefährder herausfiltern. Die Personen bleiben anonym, da sie nur als codierte Ortungspunkte dargestellt werden. Sollte sich in diesen Knotenpunkten mit Androhungen beschäftigt werden, z.B. durch Erwähnungen, liken oder teilen, besteht ein Anfangsverdacht. Bei steigender Verdichtung wird das Radikalisierungspotential höher. Wenn dies abrupt abricht, besteht akut Gefahr auf einen Anschlag. Die Verhaltungsänderung als algorithmisches Frühwarnsystem.</p>
<h3>“How can it be, that despite all this traces and evidences that the intelligence service had no idea that these attacks were being plotted. “</h3>
<p>Begeistert folgt man den Ausführungen der jungen Entwickler und Mathematiker, die ein so revolutionäres wie auch einfaches System entwickelt haben. Sind in der Zukunft Radikalisierung und Anschläge vorhersehbar? Dies alles wirkt zeitversetzt. Der internationale Terrorismus ist, trotz seiner zunehmenden Präsenz in Europa, kein Phänomen der letzten zwei Jahre. Seit dem Fanal der Anschläge des 11. September, ist die drastische Ausweitung vom staatlichen Zugriff auf Daten eine internationale Kontroverse. Datenschutz im Ausnahmezustand – alles im Namen der Sicherheit. Die englische Narration von Lousia Gummer beschreibt in fast maschineller Aufzählung: „While the background of the attackers is quite diverse, there seems to be a pattern. In each at least one of the terrorist where known to the police, the perpetrators are part of a network, the terrorist where communicating electronically with each other and there was a digital footprint clearly indicating radicalization. Wie kann es sein, dass mit all der Technologie der Sicherheitsdienste diese Muster nicht vorher herausgefiltert werden konnten.</p>
<h3>„There are too many choices.”</h3>
<p>Ein kurzer Einspieler von Edward Snowden ist richtungsweisend für den zweiten Akt der Dokumentation. Denn trotz aller gesammelten Daten fehlt die Übersicht, was an Informationen relevant ist. Die schiere Informationsmasse, die Institutionen wie die NSA im Namen der Sicherheit sammeln, ist einfach zu gewaltig. Bisherige Anschläge konnten dadurch teilweise fast bis zu ein Jahr lang geplant werden, ehe sie stattfanden. Ein absurdes Zeugnis für die angebliche Notwendigkeit der Praktiken der Sicherheitsdienste. Snowden konstatiert: „Man braucht nicht mehr Informationen, sondern bessere und gezieltere Informationen.“</p>
<p>Wer <a href="http://agoodamerican.org/">A good American</a> bereits gesehen hat, weiß dass es sich bei dieser Feststellung um kein Novum handelt. Robert Wesley und sein Team stellten fest, dass ihr Konzept bereits in fast identischer Weise entwickelt worden war und zwar vom ehemaligen Technischen Direktor der NSA: William Edward Binney. Die Kurzfassung dieser bizarren Ereignisse beinhaltet, dass Binney sein eigenes Programm Thin Thread bereits in den 90er Jahren konzipierte. Kurz vor der Fertigstellung wurde das Programm aber für das konkurrierende und hochsubventionierte Projekt Trail Blazer verworfen &#8211; und das drei Wochen vor den Anschlägen des 11. Septembers.</p>
<h3>Binney über Trail Blaizer: &#8220;It&#8217;s better than anything that the KGB, the Stasi, or the Gestapo and SS ever had.&#8221;</h3>
<p>Das Projekt, so Binney, hätte durch Netzwerkanalysen Metadaten von bekannten Terroristen in Sekunden erkannt können. Die erschreckende Erkenntnis: die Daten der Attentäter vom 11.09.2001 wären in den damaligen Datensatz enthalten gewesen. Im Rahmen der darauf erlassenen Notstandsgesetze fand Trail Blaizer seine Verwendung in der NSA. Der Beginn der großangelegten illegalen Massenüberwachung. Binney kündigte und ging auf Konfrontationskurs – all dies wurde Teil der globalen Überwachungs- und Spionageaffäre.</p>
<h3>Privatisierung des Sicherheits- und Verteidigungssektors</h3>
<p>Aufbauend auf dieser rekapitulierten Entwicklung stellt Moser den Bezug zu derzeitigen globalen Trends im Bereich Sicherheit her: Notstandsgesetze, Massenüberwachung und eine enorme Auslagerung der Aufgaben der Verteidigungsministerien an private Unternehmen. Eine „Abwärtsspirale“ für den Datenschutz, da die Staatssicherheit zu einem weltweiten Geschäft wird. Während der private Sektor immer mehr an technischer Aufklärung verdient, übersteigen diese Kosten den ursprünglichen Etat staatlicher Ressorts bei weitem.</p>
<h3>„Die Öffentlichkeit weiß nicht, welche Kompetenzen die Regierung über die Geheimdienste an Private Unternehmen abgibt.“</h3>
<p>Das System scheint nicht nur ineffizient, sondern auch noch zusätzlich undurchsichtiger zu werden. Eine Carte blanche für nichtstaatliche multinationale Kompetenzträger. Düster zieht die Kameraeinstellung über europäische Hauptstädte und ihre Regierungsgebäude. Unternehmen als Teil der Exekutiven, die nach Auftragslage vom Staat als bedrohlich eingestufte Organisationen oder Personen überwacht. Der Entzug der Legitimität außerstaatlichen Kritikbewegungen? Und wann enden die Ausnahmezustände der terrorgeplagten Staaten, wenn das lukrative Outsourcing staatlicher Aufgaben sich doch erst entfaltet?</p>
<h3>Ein kleiner Hoffnungsschimmer in der dystopischen Suggestion: Zurück zu Kivu – zurück nach Wien.</h3>
<p>William Binney ist aufgrund seiner Expertise in einer beratenden Funktion bei Kivu. Die Firma ist zwar auch ein privater Anbieter, versteht sich aber vor allem als zielorientierte Initiative. Radikale und terroristische Inhalte werden präventiv mit einem anonymen privacy design aufgespürt – also ohne die Privatsphäre oder Datenschutzrechte zu verletzten. Regierungen sollen das Programm nutzen und nur über Schlüsselzugriffe aus verschiedenen Ministerien darauf zugreifen können. Der Film endet und eine ganz persönliche und zynische Fragestellung bleibt: Handelt es hier um das Modell der Zukunft und wenn ja, ist es dann wettbewerbsfähig?</p>
<p>Friedrich Moser transportiert durch seine 90-minütige Dokumentation „Terrorjagd im Netz“ das gleiche Gefühle der Empörung wie in „A Good American.“ Während die Machenschaften und Partikularinteressen des Deep Staates vom zeitgenössischen Terror überdeckt und legitimiert werden, ermahnt Moser den Zuschauer, die Augen vor diesen Entwicklungen nicht zu verschließen. Über die Frustration dieser Spirale hinaus verweist er aber auch auf das Potenzial abseits fatalistischer Zweckmäßigkeit: Thin Thread und das Wiener Team von Kivu entmystifizieren den Irrglauben, dass Datenschutzrechte für die Sicherheit gebogen werden müssen. Ganz im Gegenteil – durch ihr effektives System nehmen sie der Privatisierung des Sicherheits- und Verteidigungssektors die Legitimitätsgrundlage. Eine aktuelle Darstellung eines schwelenden Konfliktes, die man nicht verpassen sollte.</p>
<p>Die Dokumentation „Terrorjagd im Netz“ von Friedrich Moser läuft um 12.09.2017 um 20:15 auf Arte. Der Film kann vom 12.-19.09.2017 auch online auf <a href="http://www.arte.tv/">ARTE.TV</a> angesehen werden.</p>
<p>Titelbild: Copyright by <a href="https://www.arte.tv/sites/de/presse/programm/2017-09-12/072654-000-A/?lang=de" target="_blank" rel="noopener noreferrer">ARTE</a></p>
<p><a href="http://politik-digital.de/wp-content/uploads/TitelbildRezensionArte.jpg" target="_blank" rel="noopener noreferrer"><img decoding="async" class="alignleft  wp-image-139428" src="http://politik-digital.de/wp-content/uploads/CC-Lizenz-630x11011.png" alt="CC-Lizenz-630x1101" width="441" height="77" /></a></p>
<p><img decoding="async" src="http://vg05.met.vgwort.de/na/b76402208ee9466fb38ce67c7c48ef44" alt="" width="1" height="1" /></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.politik-digital.de/news/das-algorithmische-orakel-von-wien-153199/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
