Facebook gehört heute für viele genauso zum Alltag wie Zähneputzen und Abendessen. In Deutschland hat das Netzwerk über 28 Millionen aktive Nutzer, täglich entsteht eine unfassbare Menge an unterschiedlichsten Inhalten und Meinungen. Immer öfter wird jetzt diskutiert, ob Facebook extremistische oder beleidigende Beiträge überhaupt angemessen prüft und in ausreichendem Maße darauf reagiert. Wir haben uns die Löschpraxis des Unternehmens genauer angesehen.

Fast eineinhalb Milliarden Menschen weltweit haben zurzeit ein Facebookprofil und nutzen es aktiv, das heißt mindestens einmal im Monat. Dass bei der schieren Zahl von Nutzern unterschiedlichste Meinungen, Ideen und Weltbilder aufeinanderprallen, bleibt nicht aus. Daran ändert auch die Filterblase nichts (wenn es sie denn gibt), denn jeder kann seine Standpunkte durch eigene Beiträge, auf Seiten, in Gruppen und in den Kommentaren frei und sichtbar für alle äußern. Dass diese moderne Form der Speakers‘ Corner ihre Schattenseiten hat, wird immer dann deutlich, wenn extremistische, sexistische oder gewaltverherrlichende Seiten gestartet werden oder man einen Blick in die Kommentare unter Beiträgen von Medien, Politikern, Parteien oder Vereinen wirft. Die häufigste Reaktion der Nutzer auf solche Kommentare ist eine Mischung aus Neugier, Abscheu, Entsetzen und Belustigung. Wer solche Entgleisungen jedoch nicht hinnehmen will, kann die Inhalte und deren Urheber an Facebook melden – in der Hoffnung, dass diese gelöscht und der Nutzer im schlimmsten Fall gesperrt wird.

Insbesondere in der Hochphase der Pegida-Demonstrationen haben sich rechte oder menschenfeindliche Äußerungen zuhauf unter den Beiträgen nicht nur der zahlreichen Bündnisse gegen Pegida, sondern vor allem bei kritischen Nachrichtenseiten gefunden. Wenn gewünscht, können Nutzer auf Facebook in relativer Anonymität agieren. Denn das Netzwerk verlangt zwar seit einiger Zeit Klarnamen, überprüft aber selbstverständlich nicht, ob „Martin Meier“ wirklich der ist, für den er sich ausgibt. So suggerieren Pseudonyme und Abkürzungen ein sicheres Gefühl der Unerkanntheit. Man handelt also in einem in der Regel sehr homogenen Umfeld, im Schutz der Masse und – wenn gewollt – ziemlich inkognito. Doch wurden inzwischen gegen einige Pegida-Ableger und deren Organisatoren Strafbefehle aufgrund volksverhetzender Beiträge auf Facebook erlassen.

Neben ausgewiesenen Reizthemen wie die Unterbringung von Flüchtlingen, Integrations-, Innen- und Frauenpolitik scheint aber nahezu jedes Thema das Potential zu haben, zumindest beleidigende Kommentare zu produzieren. Wenn sich dann eine Gruppe Gleichgesinnter zusammenfindet, übernehmen solche Meinungen schnell die Wortführerschaft und schrecken andere Nutzer ab.

Was macht Facebook dagegen?

Bislang hat sich Facebook stets schwer damit getan, einzelne Postings aufgrund ihres Inhalts zu löschen. Vor allem die von Staat zu Staat unterschiedliche Bewertung dessen, was durch die Meinungsfreiheit abgedeckt ist und was über diese Grenze hinausgeht, macht den Community-Administratoren die Arbeit schwer. Facebook Deutschland ließ durch seine Kommunikationsagentur ausrichten, dass die Community-Standards ausnahmslos globale Gültigkeit haben, regionale Besonderheiten oder Empfindlichkeiten aber teilweise berücksichtigt werden. Während in den USA viele Beiträge mit dem Recht auf freie Meinungsäußerung legitimiert werden und vor allem Posts mit sexuellem oder gewaltverherrlichendem Inhalt gelöscht werden, werden in Deutschland rechte und rassistische Parolen besonders sensibel behandelt.

Angesichts der Masse an Beiträgen und Kommentaren ist eine Filterung durch Facebook schlicht nicht möglich, und es wird auch keine technische Lösung zur automatischen Blockierung bestimmter Wörter eingesetzt. Dafür können Nutzer fremde Beiträge melden und kategorisieren, die ihrer Meinung nach die Verhaltensrichtlinien verletzen. Diese Meldungen werden nach Auskunft von Facebooks Kommunikationsagentur von einem Team aus Muttersprachlern schnellstmöglich bearbeitet und auf die Verletzung der Gemeinschaftsstandards geprüft.

Erkennen die Mitarbeiter eine Regelverletzung, wird der gemeldete Beitrag gelöscht und der Autor verwarnt. Beiträge mit strafrechtlich relevantem Inhalt werden zwar gelöscht, Facebook stellt allerdings keine Strafanzeige gegen den betroffenen Nutzer. Die häufigste Kritik gibt es hinsichtlich der Einschätzung, ob eine Regelverletzung vorliegt. Denn oft werden Drohungen, Beleidigungen oder rassistische Kommentare nicht von Facebook gelöscht, mit der Begründung, ein Verstoß gegen die Gemeinschaftsregeln sei nicht erkannt worden. Die Standardabsage von Facebook lautet: „Wir haben die von dir [Grund der Meldung] gemeldete Seite geprüft und festgestellt, dass sie nicht gegen unsere Gemeinschaftsstandards verstößt.“ Eine äußerst unbefriedigende Antwort, die sich für den Nutzer wie ein Schlag ins Gesicht anfühlt, wenn Drohungen gegen Leib und Leben, offener Rassismus und härteste sexistische Beleidigungen nicht geahndet werden. Auf unsere Nachfrage ließ Facebooks durch seine Kommunikationsberatung bestätigen, dass die Prüfer zwar die Anzahl der gemeldeten Beiträge sehen, diese aber keine Rolle bei der Bewertung spiele. Dadurch sollen gezielte „Meldeangriffe“ von organisierten Gruppen neutralisiert werden.

Die Netzgemeinde setzt inzwischen auf Selbsthilfe. Auf Facebook wurden mittlerweile viele Seiten wie Netz gegen Nazis, Fussballfans gegen Rechts, Störungsmelder oder der „DIE WELT“-Praktikant gegründet, die gezielt hetzerische Kommentare sammeln und veröffentlichen, so werden die Urheber aus dem Schatten des Netzwerks in die Öffentlichkeit gebracht.

Transparenter Umgang mit Löschanträgen von Regierungen

Die andere Seite dieser Diskussion wird von Facebook selbst deutlich offensiver angegangen. Seit 2013 veröffentlicht das Unternehmen halbjährlich den Government Request Report, in dem die Anfragen von Regierungen an Facebook offengelegt werden. In den Berichten wird nicht nur die Zahl der Anträge auf Herausgabe von Informationen genannt, es werden auch die hauptsächlich beanstandeten Inhalte aufgeführt. Anfragen nach spezifischen Nutzern werden vor allem im Zusammenhang mit der Verfolgung und Bekämpfung von Verbrechen gestellt und nach eigenen Angaben von Facebook sehr genau juristisch geprüft.

Ein Blick auf den aktuellen Bericht für das zweite Halbjahr 2014 zeigt, dass in Deutschland 2.132 Anfragen gestellt wurden und in 34,3 Prozent der Fälle Daten von Nutzern (zum Beispiel Name, Datum der Erstanmeldung und zum Teil IP-Adressen oder Inhalte von Beiträgen des Accounts) herausgegeben wurden. Im gleichen Zeitraum wurden in den USA 14.274 Nutzerinformationen beantragt und in 79,1 Prozent Auskünfte gewährt. Hinzu kommen in den USA mehrere Hundert Datenanfragen im Zusammenhang mit der nationalen Sicherheit und der Auslandsüberwachung, die allerdings nur in Tausenderschritten angezeigt werden dürfen. In Großbritannien liegt die Auskunftsquote bei 75,1 Prozent bei insgesamt 2.366 Anfragen. Offenbar werden in Deutschland im Vergleich also besonders viele unberechtigte Anfragen von Seiten der Strafverfolgungsbehörden oder der Regierung gestellt, die von Facebook nach Prüfung der gesetzlichen Grundlagen in Deutschland als unbegründet eingeschätzt werden.

Interessant ist auch, welche Inhalte in den verschiedenen Ländern als Verstoß gegen die nationalen Gesetze ausgemacht werden und für welche eine Zugangsbeschränkung oder Löschung beantragt wird. In Deutschland sind es im Einklang mit dem Jugendschutzgesetz vor allem Beiträge mit rechtsextremistischem Inhalt und Holocaustleugnungen. Solche Inhalte werden auch in Israel regelmäßig von staatlicher Seite angezeigt und im Zugang beschränkt, während Norwegen und Großbritannien Löschung für Inhalte beantragten, die das Glücksspiel illegal fördern. Dass nationale Besonderheiten Einfluss auf das Ausmaß der freien Meinungsäußerung haben, wird an den Beispielen Saudi-Arabien und der Türkei deutlich. Saudi-Arabien erwirkte beispielsweise die Löschung von Beiträgen, die die königliche Familie kritisieren. Türkische Gerichte haben bereits mehrfach Inhalte gemeldet und entfernen lassen, die den Staatsgründer Mustafa Kemal Atatürk diffamieren.

In vielen Fällen wäre es für Facebook sicher angezeigt, eine genauere juristische Betrachtung vorzunehmen, um im Einklang mit nationalen Gesetzen hetzerische oder beleidigende Post löschen zu können. Einige Urteile zu volksverhetzenden Beiträgen, Kommentaren und „Gefällt mir“-Angaben aus den vergangenen Jahren lassen darauf schließen, dass der Spielraum für Facebook hier deutlich größer ist, als bislang angenommen. Insbesondere sollte das Netzwerk die Ahndung solcher Verfehlungen aber nicht ausschließlich den Nutzern aufbürden und ihnen die Übergabe der Informationen an die Gerichte überlassen, sondern seine Verantwortung als soziales Netzwerk selbstbewusster auslegen.

Bild: mkhmarketing (CC BY 2.0)

CC-Lizenz-630x1101

Privacy Preference Center