Die Berechenbarkeit der Zukunft, einer der ältesten Träume der Menschheit, wird immer realer. Schon jetzt können Algorithmen erfolgreich unser Suchverhalten und unsere Interessen vorhersagen, Facebook könnte Wahlen beeinflussen und die Software PredPol sagt uns wo Verbrechen stattfinden werden. Steuern wir auf die digitale Entmündigung zu?

Unendliche Weiten bevölkert von Daten, Informationen, Bits und Likes. Und wir, inmitten dieser Untiefen endloser Datenstränge. Immer größer sind die Wellen der digitalen Weltmeere geworden, längst höher als jeder Mensch in der Lage wäre zu überblicken. Tagtäglich werden wir deshalb von Algorithmen geleitet, die uns durch das Meer von Informationen lenken und uns den Weg zu unserem gewünschten Ziel leuchten: der Algorithmus als neuzeitlicher Leuchtturm?

Algorithmen sind digitale Helfer, welche durch komplexe Berechnungen und Analysen eingespeister Daten, Entscheidungen erleichtern und für uns Informationen filtern. Nicht erst seit der Einbindung des Hummingbird Algorithmus von Google im September 2013, der Suchanfragen semantisch verarbeitet und auf die Bedeutung einer Anfrage schließt, sind Algorithmen in aller Munde. Überall begegnen wir diesen digitalen Wegweisern, die unsere Suchanfragen, Interessen und letztlich auch Entscheidungen auf Grundlage wiederkehrender Muster abschätzen und so durch das Internet leiten. Obwohl die Wirkungsweisen, Risiken und Chancen der digitalen Wegweiser zunehmend bekannt und wissenschaftlich diskutiert werden, sind die Auswirkungen von Algorithmen auf NutzerInnen häufig immer noch zu abstrakt. Wenige NutzerInnen werden deshalb wirklich aktiv oder sprechen sich gegen die mathematische Informationsselektion aus. Zu groß ist die Bindung an Anbieter einschlägiger Programme für Suchmaschinen, soziale Netzwerke und Kurznachrichtendienste.

Herrschaft der Datensammler: Wir oder die Daten?

Prominentestes Beispiel ist natürlich Google. So schlägt uns die Suchmaschine mögliche Suchanfragen vor, bevor wir sie überhaupt vollständig eingegeben haben. Auch unzusammenhängende Wörter werden sinngemäß verbunden und unserem Suchverhalten zugeordnet. Mögliche Ergebnisse werden dann abschließend in der Reihenfolge der Antwortwahrscheinlichkeit gelistet. Ein Riesenvorteil will man meinen. Nicht fassbar wäre die Dauer, die wir bräuchten, um das Internet manuell nach einer Antwort zu durchforsten. Ein weiteres Beispiel ist Amazon. Auf Basis unserer Käufe und Suchanfragen, schlägt uns der größte digitale Marktplatz der Welt unsere zukünftigen Kaufwünsche direkt vor. Umständliches Suchen wird also zusehends durch Aussuchen ersetzt. Auch hier wird für uns selektiert.

Eines ist klar, Selektion passiert nicht nur online. Auch in der nicht-digitalen Welt folgen wir individuellen Mustern, filtern Informationen und folgen unseren Interessen. Dennoch besteht hier ein deutlicher Unterschied. Offline sind wir die Entscheider, bestimmen welche Informationen wir konsumieren, welche wird ausschließen, welche wir uns anschauen und auf Basis welcher ethischen Werte wir schließlich handeln. In den von Algorithmen bestimmten Bereichen des Internet tun wir das nur noch bedingt.

Von Wahlbeeinflussung und Verbrechensvorhersagen

Die Beziehung zwischen Algorithmen, Objektivität und Regeln wird also in der Diskussion um Governance im digitalen Raum immer wichtiger. Hier eröffnet sich die Frage, wer die Algorithmen eigentlich steuert und über unsere digitale Welt entscheidet?

Facebook demonstrierte bereits im Rahmen der US-amerikanischen Kongresswahlen 2010, wie BürgerInnen durch Algorithmen in ihrem Wahlverhalten beeinflusst werden können. In einer groß angelegten Studie – veröffentlicht im Wissenschaftsjournal nature – mit 61 Mio. zufällig ausgewählten US-amerikanischen NutzerInnen, testete das Unternehmen die Möglichkeiten der sozialen Einflussnahmen und politischen Mobilisierung. Unter Rückgriff eines sogenannten „I-voted Buttons“ wurde einzelnen NutzerInnen die Möglichkeit gegeben, auf ihre Wahlteilnahme aufmerksam zu machen und sich über naheliegende Wahlurnen zu informieren. Griffen die NutzerInnen auf die Funktion zurück und machten auf ihre Wahlbeteiligung aufmerksam, wurde dies im „News-Feed“ der Freunde angezeigt. Ergebnis: Die Wahlbeteiligung der Gruppe, denen der Button angezeigt wurde, lag höher als die der Kontrollgruppe, der lediglich konventionelle Informationen zugespielt wurden.

Auch die Möglichkeit der Vorhersage von Verbrechen ist keine Zukunftsmusik mehr. Was zunächst besorgniserregend klingt, ist bereits in vielen US-amerikanischen Städten fester Bestandteil der täglichen Polizeiarbeit. Die Software PredPol, „Predictive Policing“, analysiert mit Hilfe eines komplexen Algorithmus Kriminalstatistiken und sagt so voraus, wann und wo die Wahrscheinlichkeit für Verbrechen am höchsten ist. Städte werden dabei in 150x150m Kacheln eingeteilt und Hotspots zukünftiger Straftaten markiert. Zusätzlicher Service: die NutzerInnen können nach Art der Verbrechen filtern. Dennoch unterstreicht PredPol, dass sie keinesfalls mit Science Fiction wie dem Spielfilm „Minority Report“ gleichzusetzen sind. Man speise keine personenbezogenen oder demographischen Daten in den PredPol-Algorithmus ein.

Herrschaft durch Algorithmen vs. Herrschaft über Algorithmen

Wichtiger als die Feststellung, dass Utopien à la „George Orwell“ gar nicht mal so unwahrscheinlich sind, ist allerdings die Tatsache, dass sich politische Institutionen des Themas annehmen und Lösungen finden müssen. Bei vielen digitalen Fragen ist der technische Fortschritt deutlich schneller als der gesellschaftspolitische Diskurs die Folgen der digitalen Entwicklung überhaupt greifen kann. Dabei kommt es zu einer Machtverschiebung von den InhaberInnen der Daten zu Unternehmen, die diese Daten speichern und verarbeiten. Gleichzeitig versagen Staaten dabei, ihren BürgerInnen ausreichenden Schutz zu gewährleisten und Unternehmen Grenzen aufzuzeigen: ein Machtvakuum entsteht. Als Folge dieses Vakuums sinkt unter anderem das Vertrauen der BürgerInnen in politische Institutionen und der Einfluss einzelner Unternehmen steigt.

Im Zentrum einer breiten Diskussion müssen daher Verlässlichkeit, Transparenz, Nachvollziehbarkeit und Objektivität von Algorithmen stehen. Aktuell gibt es leider noch wenige Räume, in denen die gesellschaftlichen und politischen Auswirkungen von Algorithmen überhaupt thematisiert werden. Zu den wenigen Pionieren dieses Diskurses zählen, neben der in der vergangenen Woche vorgestellten Initiative Algorithm Watch, das Centre for Internet and Human Rights (CIHR), welches sich mit der Ethik algorithmischer Entscheidungsfindung beschäftigt. Auch Vortragsreihen wie die „Governing Algorithm Conference“ der New York University greifen das Thema auf und wollen einen Anstoß für einen gesellschaftlichen Diskurs geben. Dennoch sind diese Projekte weiterhin Einzelfälle. Politisch wird das Thema allenfalls beiläufig angesprochen.

Wenn Bundesjustizminister Heiko Maas im Jahr 2015 zum „Vorreiter“ digitaler Grundrechte wird und als einer der ersten deutschen Politiker in seinem „Artikel 4“ den folgenden Grundsatz vertritt: „Kein Mensch darf zum Objekt eines Algorithmus werden“, dann ist das zwar ein Ansatz, es wird aber auch deutlich, dass für die Definition institutioneller Handlungsrahmen für Algorithmen, noch viel Luft nach oben ist. Dass die automatisierte Informationsverarbeitung mit Artikel 22 Teil der neuen Datenschutzgrundverordnung geworden ist, tröstet dabei nur wenig. Denn die Bildung von Personenprofilen wird hier gleichzeitig als normale Datenverarbeitungstechnik angesehen.

Um ein Machtgleichgewicht zwischen Algorithmen, EntwicklerInnen und NutzerInnen herzustellen, muss Nachvollziehbarkeit gewährleistet werden. Algorithmen bieten viele Vorteile und helfen die Informationen zu finden, die wir wirklich suchen. Hierfür ist es aber wichtig, dass NutzerInnen aufgezeigt wird, nach welchen Grundsätzen ihre Suche unterstützt und geleitet wird. Wir brauchen eine vertrauenswürdige digitale Governance, AnsprechpartnerInnen, die uns transparent und objektiv über die Wirkungsweisen von Algorithmen aufklären können, und Grenzen, innerhalb derer unsere gesellschaftlichen Freiheiten nicht von Algorithmen angetastet und selektiert werden dürfen.

Titelbild: Lindau Port Lighthouse by Hans via pixabay licensed CC0

CC-Lizenz-630x1101