KI, die Blackboxcut

Der Begriff Künstliche Intelligenz, KI, scheint fest in den Strukturen unseres Alltags verankert. Er begegnet uns nicht nur, wenn wir in sozialen Netzwerken unterwegs sind, Suchmaschinen nutzen oder uns überhaupt im Internet aufhalten. Auch in selbstfahrenden Autos beispielsweise; oder in der Medizin – Algorithmen, die Krankheiten diagnostizieren, die darüber entscheiden, wie Spenderorgane verteilt werden.  Gerade in diesen Bereichen wirkt es erschreckend, wenn die Metapher der Blackbox auftaucht. Es entsteht das Bild einer Technologie, deren Entscheidungen von niemandem nachvollzogen werden kann. Auch nicht von den Menschen, die sie programmiert haben. In diesem Artikel versuchen wir, eine technische Antwort auf die Frage zu finden, wie das eigentlich sein kann.

„Nur eine definierte Abfolge von Tätigkeiten, um das Problem zu lösen – mehr ist es nicht“

Um besser zu verstehen, was wir an KI eigentlich nicht verstehen, müssen wir uns anschauen, was hinter der Technologie steht. Der Begriff Künstliche Intelligenz beschreibt – streng genommen – etwas, was momentan noch gar nicht existiert. Was genau Intelligenz bedeutet ist zwar eine Definitionsfrage, aber ein System, das der vorherrschenden Vorstellung von menschlicher Intelligenz nahe kommt, gibt es derzeit noch nicht. Stattdessen fungiert KI als Sammelbegriff für eine ganze Reihe an Algorithmen, an Systemen, die jeweils eine bestimmte Aufgabe erfüllen. Schwache Künstliche Intelligenz (narrow Artifical Intelligence) lautet die eigentlich zutreffende Bezeichnung.

Davon ist nicht jede automatisch eine Black Box. „Algorithmen sind zunächst nicht einmal ausschließlich digital“, sagt Dr. Sebastian Thieme, Bioinformatiker und -physiker, der versucht, den abstrakten Begriff ein wenig plastischer werden zu lassen. „Ein Zauberwürfel zum Beispiel, wenn man den löst, ist das auch ein Algorithmus. Ein Algorithmus ist nichts anderes als ein Lösungsweg für ein Problem. Nur eine definierte Abfolge von Tätigkeiten, um das Problem zu lösen – mehr ist es nicht.“ Bei dem Zauberwürfel können wir dann eindeutig sagen, wie wir ihn gelöst haben: Ein paar Mal nach links drehen, dann nach rechts, die weiße Seite zuerst.

Mit einer Black Box hat das höchstens die eckige Form gemeinsam. Wird es also erst kompliziert, wenn wir die digitale Ebene erreichen? „Es gibt einige digitale Algorithmen, bei denen man genau weiß, warum sie auf ein bestimmtes Ergebnis gekommen sind. Beispielsweise regelbasierte Arten. Bei ihnen wird sozusagen ein Entscheidungsbaum abgelaufen. Man fragt jedes Mal: Ist diese Bedingung erfüllt? Falls ja, laufen wir nach rechts, falls nein, nach links.“ Zahlensortiert könne man es sich ganz gut vorstellen. Man nehme irgendeine Kugel mit einer Zahl, lasse sie hereinfallen und sie nimmt einen ganz bestimmten Weg durch den Baum – alle Zahlen größer als fünf nach rechts, alle kleineren nach links. „Jeder kann sich diesen Baum aufmalen und verstehen, warum aus der Ausgangssituation dieser Weg resultierte. Deshalb mag ich diese Art von Algorithmus. Sie sind einfach zu verstehen, weil sie unheimlich intuitiv sind.“ Warum nutzten wir dann nicht immer Algorithmen, die wir verstehen? Wäre das nicht nur konsequent intuitiv? So einfach ist es leider nicht. Wie oft ist es auch hier so, dass ein Ja gleichzeitig ein Nein bedeutet: „Will ich nachvollziehen, wie eine Entscheidung getroffen wird und akzeptiere dafür häufiger, dass das Ergebnis nicht korrekt ist, oder will ich es häufiger korrekt haben – und verstehe es dafür nicht, habe also die Black Box?“, fragt Professor Florian Ellsaesser des Centre for Human and Machine Intelligence der Frankfurt School of Finance and Management. Ein Ja zu absoluter Nachvollziehbarkeit kann in einigen Fällen ein Nein zu bestmöglicher Leistung bedeuten: „Das ist typischerweise der Trade-Off. Komplette Nachvollziehbarkeit oder Neuronale Netzwerke – sonst würde jeder die nachvollziehbaren verwenden.“

Knoten und Kanten statt Neuronen und Synapsen

Damit sind wir bei der schwarzen Kiste angekommen: Künstliche neuronale Netze, die Algorithmen, die wohl von sich behaupten dürften, die Metapher der Black Box geprägt zu haben. Um zu verstehen, was sie so schwieriger nachzuvollziehen macht, als beispielsweise ihre regelbasierten Alternativen, müssen wir einen Blick auf ihre Struktur werfen. Ein neuronales Netz könnte man sich vorstellen wie ein Gehirn, erklärt Thieme. Aber anstelle von Neuronen und Synapsen spricht er von einem System aus Knoten und Kanten: Die Knoten sind unsere Neuronen, hier in Form von mathematische Formeln, die Kanten die Synapsen, hier die zu den Formeln gehörenden Gewichte. Diese Knoten sind hierarchisch angeordnet, die einzelnen Hierarchiestufen werden als Schichten oder Layer bezeichnet. Geeignet sind solche Systeme vor allem für Aufgaben wie das Erkennen von Bildern, Gesichtern oder Sprache.

Wie kann dieses Netz nun einen Output generieren, eine Zielfunktion erfüllen? Um einen Output zu erzeugen, also beispielsweise um zu erkennen, ob auf einem Foto eine Katze oder keine abgebildet ist, wird das System mit Daten gefüttert – Input. In diesem Fall sind das Fotos, viele Fotos, von Katzen und ab und zu anderen Tieren dazwischen. „Diese Bilder nehmen dann einen bestimmten Weg durch das Netzwerk. Irgendwann lernt das Netzwerk sozusagen: Wenn dieser eine Weg genommen wird, ist es eine Katze. Wenn es einen anderen Weg nimmt, ist es keine Katze.“ Neuronale Netze sind Systeme, die maschinell lernen. Das Netzwerk soll am Ende in der Lage sein, eine Katze auf dem Foto zu erkennen. In dem Katzenbeispiel von Thieme funktioniert das auch sehr gut – bis der Algorithmus auf einmal ein Foto eines Meerschweinchens auf einem Sofa als Katze erkennt. Was gibt es nun für Möglichkeiten, das zu erklären?

„Das ist wie bei den ganzen Strukturen im Gehirn – da kann man auch kein einzelnes Neuron benennen, wenn man etwas zu erklären versucht“

Die Schwierigkeit nachzuvollziehen, welcher Weg warum genommen wurde, begründet sich in der Komplexität der Systeme: „Man muss sich vorstellen, dass sie hunderte von verschiedenen Layern haben, mit Millionen von Knoten. Es lässt sich nicht einfach sagen: Ah, okay, wegen dieses Knotens ist das jetzt so“, sagt Thieme. Der Versuch, die Black Box einfach zu öffnen, also in den Algorithmus hineinzuschauen, mache aufgrund der unzählig vielen Knoten, Kanten und Layer schlichtweg keinen Sinn. „Das ist wie bei den ganzen Strukturen im Gehirn, da kann man auch kein einzelnes Neuron benennen, wenn man etwas zu erklären versucht“, so auch Ellsaesser. Außerdem ist es auch hier ähnlich wie bei menschlichen Gehirnen: Es gibt nicht nur eine Version von neuronalem Netz, die überall benutzt wird. „Das neuronale Netz“ gibt es genauso wenig wie es beispielsweise „den Deutschen“ oder „den Ausländer“ gibt – wir bewegen uns immer noch in einem unheimlich generellen Begriffsspektrum, warnt Ellsaesser. Da neuronale Netzwerke für jede Aufgabe oder Zielfunktion individuell programmiert werden, unterscheiden sie sich in vielerlei Hinsicht, wie beispielsweise der Art der Hierarchie oder Verknüpfungen zwischen den Knoten.

Wir können lediglich ein Gefühl dafür entwickeln, wie der Algorithmus funktioniert

Doch besteht nun irgendeine Möglichkeit, wenigstens das neuronale Netz unserer Katzenfotos nachvollziehbarer zu machen? Tatsächlich gibt es die. Es ist durchaus vorstellbar, die Black Box wenigstens ein bisschen verständlich zu machen; zwar nicht transparent, aber etwas wie dunkles Milchglas scheint möglich. „Eine Idee ist, mit verschiedenen Inputs zu spielen und zu schauen, was das Modell rauswirft. Beispielsweise könnten wir mit einem Algorithmus fragen, ob jemand ein politisch engagierter Bürger werden wird – und er gibt aus, dass ich kein solcher Bürger werde. Wenn wir jetzt verstehen wollen, woran das liegt, können wir verschiedene Parameter nehmen und die variieren“, erklärt Ellsaesser. „Wir fragen uns, was passieren würde, wenn ich meinen Universitätsabschluss ändern würde. Wenn ich nicht in Frankfurt studiert hätte, sondern beispielsweise in Berlin – was würde sich ändern?“ Dieses Ausprobieren passiert natürlich nicht analog, sondern systematisch; ein weiterer Algorithmus übernimmt diese Arbeit. „So bekommt man ein Gefühl dafür, wie der Algorithmus funktioniert.“ Keine Gewissheit also, aber immerhin eine Idee der Funktionsweise.

Wenn man solche Verfahren im Katzenbeispiel anwendet erkennt man, dass das neuronale Netz nie gelernt hat Katzen zu erkennen – sondern Tiere auf Sofas. In dem Datensatz, mit dem der Algorithmus trainiert wurde, saßen überdurchschnittlich viele Katzen auf einer Couch, weshalb der Algorithmus das Sofameerschweinchen fälschlicherweise für eine Katze hielt. Vermutlich. Denn: „Am Ende des Tages ist es eben immer noch eine Black Box. Wir haben lediglich ein besseres Verständnis davon, wie sie funktioniert – aber wir kennen nicht jedes Detail, wir werden es nie zu 100 Prozent nachverfolgen können.“

Gilt das nur für Algorithmen?

Bedeutet das, dass wir die Technologie nicht nutzen sollten? Sollten wir nicht verstehen, was wir tun? „Es ist ein wenig so, wie wenn Sie einen Menschen fragen: Ihre Nachbarin, wird sie eine engagierte Studentin werden? Menschen werden das mit Ja oder Nein beantworten und einige Gründe dafür nennen können, aber auch nicht alle. Wenn ich ihnen dann ein paar Parameter gebe, beispielsweise, dass sie in der Schule immer schon sehr gute Noten hatte – dann kann man beobachten, wie sich ihre Entscheidung verändern würde“, erklärt Ellsaesser weiter.

Es drängt sich  also die Frage auf, inwiefern sich eigentlich unsere eigenen Handlungen und Urteile von einer Black Box unterscheiden. Uns ist häufig eben nicht alles über die Art, wie wir Urteile fällen oder Entscheidungen treffen bekannt. Wenn ich gefragt werde, ob meine Nachbarin irgendwann eine gute Studentin sein wird, werde ich nicht alle Parameter benennen können, die meine Antwort beeinflussen. Vielleicht habe ich in der Vergangenheit mehr weibliche statt männliche Studierende kennengelernt, vielleicht halte ich Frauen grundsätzlich für klüger oder ehrgeiziger, vielleicht bin ich Pessimistin. All das oder zumindest ein Teil davon fließt in meine Entscheidung mit ein, ohne dass ich mir dessen voll bewusst bin; ohne, dass ich benennen könnte, wie stark welcher Faktor die Entscheidung getrieben hat. Und hier ist es wie Ellsaesser sagt – erst, wenn er mich zu vielleicht ein paar zehn oder hundert verschiedenen möglichen Nachbarn mit unterschiedlichem Alter, Geschlecht, Hobbies befragt, werden wir vielleicht eine Idee davon bekommen, welche Faktoren zu wie viel Prozent hinter meinen Entscheidungen stehen.

Warum die Black Box noch ein anderes Problem darstellt

So ein Vergleich impliziert natürlich nicht, dass diese Algorithmen keine Probleme darstellen. Vielmehr soll er zeigen, dass etwas, was noch nicht hundertprozentig nachvollzogen werden kann, nicht automatisch abgelehnt werden sollte. Er soll zeigen, dass gelernt werden muss, differenziert mit so einer Technologie umzugehen. Wenn man das tut, fällt vielleicht auch auf, dass Algorithmen noch auf eine ganz andere Art eine Black Box darstellen. Es scheint, dass für viele Menschen nicht nur neuronale Netze, sondern jeglicher digitale Algorithmus eine Black Box darstellt – dass, obwohl wir doch so viel darüber sprechen, vielen nicht bewusst ist, dass Künstliche Intelligenz bisher noch nicht existiert, oder dass der Großteil der Algorithmen mehr mit einer Kaffeemaschine gemeinsam hat als mit der Science-Fiction-Vorstellung eines menschenähnlichen, bösartigen, weißen Roboters. Das fehlende Wissen und das daraus resultierende fehlende Einschätzungsvermögen ist gleichermaßen ein Problem, über das gesprochen werden muss und dem entgegengewirkt werden muss. Was uns dazu bewegt hat, diesen und die folgenden Artikel zu schreiben.

 

Titelbild: Photo by Falco Negenman on Unsplash

CC-BY-NC 2.0