Was sind eigentlich Algorithmen? Ein Algorithmus kann als eine Art Rezept betrachtet werden, das beschreibt, wie eine bestimmte Eingabesequenz (z.B. eine Suchanfrage) in eine Ausgabesequenz (Antwort) umgewandelt werden kann. Dazu brauchen Algorithmen klar definierte Regeln, um ein „Problem“ zu lösen. Das Problem dabei ist: Wer definiert diese Regeln? Sind diese Regeln vielleicht diskriminierend, intransparent, ethisch bedenklich oder manipulierend?  

Oft werden deswegen die Algorithmen von sozialen Medien wie Facebook und Instagram kritisiert, weil sie zumindest intransparent sind und vermutet wird, dass sie für eine zunehmende Polarisierung der Gesellschaft mitverantwortlich sind. So wird die Entstehung von sogenannten Filterblasen in sozialen Netzwerken als potenzielle Bedrohung für die Demokratie betrachtet, da Algorithmen dort populistische und ideologisierte Meinungen verstärken können. Nun deuten aktuelle Studien darauf hin, dass die Auswirkungen von Algorithmen möglicherweise weniger gravierend sind, als sie in den vergangenen Jahren dargestellt wurden. Wie valide sind diese Erkenntnisse? In welchem Maße beeinflussen uns Algorithmen tatsächlich? 

In insgesamt 16 Studien wurde untersucht, welchen Einfluss Facebook und Instagram auf die Verbreitung von Falschinformationen, politische Beteiligung und Polarisierung haben. Die ersten Studien wurden jetzt in den wissenschaftlichen Zeitschriften „Science“ und „Nature“ veröffentlicht. Die Forschungsarbeit ist eine Kooperation zwischen externen Wissenschaftler*innen und Wissenschaftler*innen vom Konzern Meta, dem Mutterkonzern von Facebook und Instagram, der auch die Studien finanzierte. Es ist das erste Mal, dass das Unternehmen mit externen Forscher*innen kooperiert und ihnen Zugang zu Daten von ihren sozialen Plattformen zur Verfügung stellt.

Ergebnisse der Studien

An drei der Studien beteiligten sich freiwillig mehrere zehntausend US-amerikanische Facebook- und Instagram- Nutzer*innen. In Umfragen wurden die Studienteilnehmer*innen vor, während und nach den Studien zu ihren politischen Einstellungen befragt. Darüber hinaus wurde das Wissen über politische Standpunkte der Präsidentschaftskandidaten Donald Trump und Joe Biden abgefragt. 

Die erste Studie untersuchte das Verhalten von knapp 23.400 Facebook Nutzer*innen und knapp 21.380 Instagram Nutzer*innen über einen Zeitraum von drei Monaten. Die Teilnehmer*innen wurden in zwei Gruppen aufgeteilt: Eine Hälfte sah die Beiträge auf ihren Startseiten in chronologischer Reihenfolge, während die andere Hälfte Beiträge erhielt, die vom bestehenden Algorithmus der Plattform ausgewählt wurden.  

Die Hypothese war, dass eine Abkehr vom typischen Algorithmus der Plattformen zu einer Abschwächung der Polarisierung führen würde. Diese wurde anhand des Grades der Unterstützung für die Partei, mit der die Teilnehmer*innen sympathisierten, ermittelt. Jedoch konnte diese Hypothese nicht bestätigt werden.

Bei der chronologischen Anzeige des Feeds wurden den Nutzer*innen mehr politische Inhalte angezeigt. Auch der Anteil von politischen Inhalten aus nicht vertrauenswürdigen Quellen stieg im Vergleich zum algorithmischen Feed um mehr als zwei Drittel an. Obwohl das Verhalten der Nutzer*innen durch die chronologische Sortierung beeinflusst wurde – sie interagierten weniger mit den Beiträgen und verbrachten insgesamt weniger Zeit auf den Social-Media-Plattformen – konnte keine Reduzierung der Polarisierung oder ein Einfluss auf politisches Wissen und Überzeugungen festgestellt werden. Die erhebliche Bedeutung des Algorithmus für Meta aus ökonomischer Sicht wird aber deutlich, da dieser dazu beiträgt, Nutzer*innen länger auf der Plattform zu halten. 

Bei einer zweiten Studie wurde die Auswirkung von den sogenannten Filterblasen (oder auch Echokammern genannt) untersucht. Dafür wurde der Algorithmus für eine Gruppe der Teilnehmer*innen so angepasst, dass Inhalte aus gleichgesinnten Quellen im Feed nicht mehr priorisiert worden sind.  Inhalte, die der Meinung des Nutzers/ der Nutzerin entsprechen, wurden damit um rund ein Drittel reduziert. Infolgedessen wurden vermehrt Inhalte aus Quellen außerhalb der politischen Einstellung angezeigt. Auch hier konnte nicht festgestellt werden, dass die Änderung des Algorithmus Auswirkungen auf die politische Extremität, die Polarisierung und die Meinung zu den Präsidentschaftskandidaten hatte. Die Studienteilnehmer*innen interagierten weniger mit den Inhalten, die nicht ihren politischen Überzeugungen entsprachen, einen Einfluss auf ihre politischen Meinungen hatten diese aber nicht.

In einer dritten Studie wurden bei einer Gruppe von Teilnehmer*innen alle Reshares (Beiträge, die im Feed auftauchen, weil sie von anderen Seiten geteilt wurden) aus dem Feed entfernt. Die Entfernung von Reshares führte zu einer Verringerung der Anzahl von Medienbeiträgen zu politischen Themen. Auch der Anteil an Posts aus nicht vertrauenswürdigen Quellen verringerte sich. Mit dem veränderten Algorithmus hatte sich das Nachrichtenwissen der Teilnehmer*innen verschlechtert und sie interagierten weniger mit den angezeigten Beiträgen. Auch in diesem Fall konnte aber kein Einfluss auf die Polarisierung oder politische Einstellungen der Proband*innen festgestellt werden.  

Kritik

Alle Studien bestätigen, dass die Algorithmen der Plattformen von Meta die Inhalte beeinflussen, die von Nutzer*innen gesehen werden. Sie beeinflussen auch das Verhalten auf den Plattformen, zum Beispiel die Nutzungszeit oder die Interaktion mit Beiträgen. Es gibt aber wenig Beweise dafür, dass Algorithmen die Nutzer*innen auch außerhalb der Plattform beeinflussen. Denn es konnte nicht nachgewiesen werden, dass die Algorithmen von Meta einen Einfluss auf politische Überzeugung der Nutzer*innen haben oder zur Polarisierung beitragen. Die bisherigen Forschungsergebnisse werfen also ein positives Licht auf Meta. 

Kritiker*innen betonen, dass Meta trotz der Ergebnisse nicht aus der Verantwortung gezogen werden darf. Die Studienergebnisse würden lediglich zeigen, dass die Problematik der zunehmenden gesellschaftlichen Polarisierung weitaus komplexer ist und nicht durch einfache Änderungen des Algorithmus lösbar. Auch Andreas Jungherr, Politikwissenschaftler an der Otto-Friedrich-Universität Bamberg zweifelt an der Übertragbarkeit der Studienergebnisse auf die gesamte Gesellschaft: „Die Ergebnisse der Studien sind nicht über den Einzelfall hinaus verallgemeinerbar. Sicherlich kann man mit den Autorinnen und Autoren sagen, dass auf Basis dieser Befunde keine Polarisierung in der Breite der an der Studie Teilnehmenden festzustellen ist. Darüber hinaus wird es dünn.“ 

Weitere Kritiker*innen heben die Limitationen der Studien hervor: Zum einen sei der Zeitpunkt und die Dauer der Studiendurchführung (3 Monate) nicht optimal gewesen. Die Ergebnisse könnten anderes ausgefallen sein, wenn die Studien nicht während eines polarisierten Wahlkampfes und in dem spezifischen politischen Kontext der Vereinigten Staaten durchgeführt worden wären. Insbesondere im US-amerikanischen Zweiparteiensystem sei es schwierig, die politischen Überzeugungen der Wähler*innen zu verändern. 

Nach Andreas Jungherr seien die Studienergebnisse lediglich eine Momentaufnahme, da Newsfeed-Algorithmen sich ständig verändern. Auch Whistleblowerin Frances Haugen, die 2021 Tausende von internen Facebook-Dokumenten an die Börsenaufsichtsbehörde weitergab, betont, dass Meta bereits in den Monaten vor der US-Präsidentschaftswahl den Algorithmus der Plattformen verändert habe, um gegen extreme Beiträge vorzugehen. Eine generelle Aussage über den Einfluss von Instagram und Facebook in Wahlkämpfen könne also nicht getroffen werden. 

Zum anderen wird kritisiert, dass die Teilnahme an den ersten drei Studien auf Freiwilligkeit basierte. So sind die Studienteilnehmer*innen wahrscheinlich überdurchschnittlich aktive Nutzer*innen mit überdurchschnittlichem politischem Interesse. Daher können die Ergebnisse nicht unmittelbar auf die Gesamtbevölkerung übertragen werden. Frühere Studien zeigen bereits, dass bestimmte Gruppen (zum Beispiel ältere, eher rechte Männer) eher polarisierende Nachrichten in sozialen Medien konsumieren als andere. Eine Untersuchung der Auswirkung des Algorithmus auf solche spezifischen Gruppen könnte also lohnenswert sein.  

Die Leiter*innen der externen Forscher*innen der Studien Talia Jomini Stroud und Joshua A. Tucker kommentieren die Ergebnisse wie folgt: „Wir wissen jetzt, wie einflussreich der Algorithmus ist, aber wir wissen auch, dass eine Änderung des Algorithmus, und sei es auch nur für ein paar Monate, die politischen Einstellungen der Menschen wahrscheinlich nicht verändern wird. Was wir nicht wissen, ist, warum. Es könnte daran liegen, dass der Zeitraum, in dem die Algorithmen geändert wurden, nicht lang genug war, oder dass es diese Plattformen schon seit Jahrzehnten gibt, oder dass Facebook und Instagram zwar einflussreiche Informationsquellen sind, aber nicht die einzigen Quellen, die Menschen verwenden.”

Wie unabhängig sind die Ergebnisse?

Die Forschung zu den Auswirkungen von digitalen Plattformen ist schwierig, da der Zugang zu Daten von Social-Media-Plattformen begrenzt ist. Die Zusammenarbeit zwischen Meta und externen Wissenschaftler*innen verspricht erste Einblicke auf den Einfluss von Algorithmen. Wie bei jeder Industrie-Wissenschaftskooperation muss aber die Unabhängigkeit der Ergebnisse kritisch hinterfragt werden. Die Studien sind von Meta finanziert worden und der Konzern habe Einfluss auf das Forschungsteam und die Forschungsfragen gehabt.

Die Ergebnisse der Studien stellen Meta positiv dar. Zudem haben die Studien nach Jungherr eine „große rhetorische Kraft“, durch ihren renommierten Publikationsort, die große Menge an Daten und die Beteiligung von renommierten Wissenschaftler*innen. Das sei besonders bedenklich, da die Studienergebnisse jetzt mit großer Wahrscheinlichkeit in der Öffentlichkeit und gegenüber der Politik benutzt werden, um Facebook und Instagram als ungefährlich darzustellen. Es sei zu erwarten, dass „die Grenzen der Generalisierbarkeit der Arbeiten dabei keine allzu große Beachtung finden“. 

Er betont die Notwendigkeit zur Entwicklung von Leitlinien für die Zusammenarbeit mit der Tech-Industrie. Nur so können Potenziale genutzt werden, aber gleichzeitig sichergestellt werden, dass Unternehmen keine Forschungsagenda prägen und Forschungsergebnisse nicht für PR-Zwecke manipuliert werden können. 

Foto von Warren auf Unsplash.