Mit dem “Atlas of Automation” hat die gemeinnützige Organisation AlgorithmWatch mit Unterstützung der Bertelsmann Stiftung und Mozilla am 2. April in Berlin eine Studie vorgestellt, die als Bestandsaufnahme des Einsatzes von Systemen zur automatisierten Entscheidungsfindung (ADM) in Deutschland dienen soll. Ziel ist, ADM-Prozesse transparent zu machen.

Was ist ADM?

ADM – das steht für Algorithmic Descision Making, also dem Vorgang, bei dem Künstliche Intelligenz (KI) das Verhalten von Menschen analysiert und Entscheidungen für sie trifft. Was sich abstrakt anhört, begegnet uns im digitalen Leben täglich: Spotify schlägt uns Musik basierend auf bereits abgespielten Songs vor, Facebook und Instagram zeigen uns Inhalte an, die auf unsere individuellen Interessen abzielen, und unser Mailprogramm filtert die Nachrichten, die es als Spam erachtet. Diese Entscheidungen beruhen allesamt auf Algorithmen. Auch auf dem Arbeitsmarkt, in der Medizin, im Bereich der Sicherheit und Überwachung sowie der Städteplanung finden ADM-Prozesse bereits Anwendung.

Wenn ADM ein so zentraler Bestandteil unseres alltäglichen Lebens ist, wieso wird in der Zivilgesellschaft so wenig darüber gesprochen? Carla Hustedt (Projektleiterin Ethik der Algorithmen, Bertelsmann Stiftung) glaubt, es läge daran, dass zu wenig Wissen in der breiten Bevölkerung besteht. Bei Versuchen, das Thema für Ottonormalverbraucher greifbarer zu machen, würden allzu oft Beispiele aus USA oder China angebracht. Jetzt sei es an der Zeit, sich auch in Deutschland intensiv mit ADM auseinanderzusetzen.

Angst vor ADM oder „Es gibt auch gute Drachen!“

Was haben Drachen und ADM gemeinsam? So einiges! Das findet zumindest Lorenz Matzat, Mitbegründer von AlgorithmWatch und Projektleiter des Berichts Atlas of Automation. ADM würde, genau wie dem Mythos der Drachen, allzu oft mit Angst und Misstrauen begegnet. Dabei habe es in Geschichten doch immer auch gute Drachen gegeben. Werden automatisierte Entscheidungssysteme also zu einer Schreckensgestalt gemacht, die sie nicht sind? Matzat findet, es sollte eine sachliche Diskussion über ADM geführt werden. Horrorszenarien, in denen Maschinen die Kontrolle über die Menschen ergreifen, seien weder realistisch noch zielführend. Als erster Schritt sollte zwischen KI und ADM differenziert werden – so lautete der klare Tenor der Podiumsgäste. Oder wie Heather West (Leitende Richtlinienmanagerin Mozilla) es ausdrückte: „Wenn wir über KI sprechen, denken wir an Killerroboter und nicht an unseren Facebook-Feed. ADM-Systeme sind meist sehr hilfreiche Werkzeuge über die wir bislang viel zu wenig gesprochen haben.”

Der Bericht “Atlas of Automation” ist der erste deutsche ADM-Atlas und liefert Antworten auf essentielle Fragen rund um die Thematik: Wo wird die automatisierte Entscheidungsfindung bereits eingesetzt, wo ist ihr Einsatz geplant, welche Regulierungsansätze gibt es, welche wichtigen Akteure sind in diesem Bereich tätig? Schwerpunktmäßig beschäftigt sich der Bericht mit den Themen Arbeit (z.B. automatisierte Bewerbungsverfahren), Gesundheit & Medizin (z.B. Gesundheitsapps), Internet (z.B. Upload-Filter), Sicherheit und Überwachung (z.B. Gesichtserkennung), Bildung, Aktienhandel, Stadt und Verkehr.

Diskriminierungspotential und Verantwortung

Weil die ADM-basierten Systeme frei von Vorurteilen agieren sollten, sind sie im besten Fall neutraler als menschliche Entscheidungen. Sie sind darauf ausgelegt, effizienter als Menschen zu arbeiten, weil sie weitaus mehr Informationen speichern können und mit steigender Datenmenge stetig dazulernen. Wo liegt also das Diskriminierungspotential? Es sind immer Menschen, die Algorithmen entwickeln. Das bedeutet, es besteht stets die Gefahr, dass menschliche Vorurteile in den ADM-Prozessen reproduziert werden, weil sie schon in den gesammelten Daten enthalten sind. Tina Klüwer (Geschäftsführerin parlamind, Mitglied der Enquete-Kommission des deutschen Bundestags „Künstliche Intelligenz“) plädiert deshalb dafür, Menschen, die Daten erheben, auswerten und dann Algorithmen entwickeln, sensibel für Diskriminierungsformen wie Sexismus und Rassismus zu machen. Auch Lorenz Matzat weist darauf hin, dass die Daten nur einen Bruchteil der Realität widerspiegeln. Es gehe in Daten und Statistiken immer auch viel Kontext verloren. Neben dem Bericht hat die AlgorithmWatch deshalb eine Online-Datenbank erstellt, die ADM-Produkte und –Technologien aufzeichnet, beschreibt, und die fortlaufend erweitert wird.

Wer sollte die Verantwortung für Diskriminierung in ADM-Prozessen übernehmen? Julia Borggräfe (Abteilungsleiterin “Digitalisierung und Arbeitswelt” im Bundesministerium für Arbeit und Soziales), hat dazu eine klare Haltung: „Die Menschen, die Systeme entwickeln, müssen dafür die Verantwortung tragen, selbst wenn sie glauben, es gäbe keine Verzerrung in ihrem System.“ Tina Klüwer bringt die Debatte auf den Punkt, wenn sie sagt: “Wir sind keine Opfer der Algorithmen. Wir haben stets die Macht, sie zu beeinflussen.“

Fazit

Automatisierte Entscheidungsfindung ist mittlerweile fester Bestandteilteil unseres Alltags. Obwohl fast alle Lebensbereiche von ADM-Prozessen durchsetzt sind, werden sie in der öffentlichen Debatte mit Künstlicher Intelligenz vermengt. Gleichwohl wird dabei oft eine Dystopie entworfen, in der Roboter die Welt übernehmen. Die Realität ist aber, dass ADM-Systeme von Menschen gemacht werden und deshalb in manchen Fällen deren Einstellungen nahtlos reproduzieren. Anstatt sich diffusen Ängsten hinzugeben, sollte ein radikaler Kurswechsel hin zu einer differenzierten Diskussion über ADM und KI stattfinden.

Die Studie können Sie hier herunterladen: Atlas of Automation

Photo by: sgcdesignco on Unsplash