Tarotkarten by Rizzi via Flickr, CCoDie Big Data gestützte „vorhersagende Polizeiarbeit“ kommt auch in deutschen Bundesländern vermehrt zum Einsatz. Eine Studie des Max Planck Instituts für ausländisches und internationales Strafrecht fragt, wie das Verfahren bei der Kriminalitätsprävention hilft. Der Abschlussbericht liegt jetzt vor.

Welche Möglichkeiten gibt es, Verbrechen präventiv zu bekämpfen? Diese Frage ist für den Rechtsstaat zeitlos in ihrer Aktualität. Ein Blick auf die polizeiliche Kriminalstatistik zeigt, dass die Anzahl an Wohnungseinbrüchen trotz eines Rückgangs von 10 % zwischen den Jahren 2015 und 2016 mit rund 151.000 Einbrüchen deutlich höher liegt, als noch vor zehn Jahren. Um diesem Trend etwas entgegen zu setzen, nutzen die deutschen Bundesländer Predicitive Policing Software. Diese, ursprünglich aus den USA stammende, Technologie kommt dort seit nunmehr zehn Jahren in diversen Bundesstaaten zum Einsatz.

Der Grundgedanke fußt darauf, über Big Data-Analysen vergangener, für die Verbrechensprävention relevanter Daten Aussagen über die Wahrscheinlichkeit zukünftiger Straftaten zu treffen. In Analogie zu seismologischen Aktivitäten kommt es nach dieser Vorstellung häufiger zu Verbrechen an Orten, die bereits Tatort waren. Die verwendeten Programme nutzen dabei unterschiedliche Vorgehensweisen. PredPol, das unter anderem von der Polizei in Los Angeles eingesetzt wird, nutzt einen selbst lernenden Algorithmus nach einem „Epidemic Type Aftershock Sequence Model“. Dabei werden täglich erhobene Daten mit bereits existierenden Datenbänken abgeglichen und auf wiederkehrende Muster untersucht, um auf einem Gitternetz des Stadtgebietes festzulegen, wo vermehrte Polizeipräsenz notwendig sein könnte.

Bisher nur dürftige Ergebnislage

Ergebnisse des amerikanischen Predictive Policing lassen sich in Ermangelung objektiver Langzeitstudien zum jetzigen Zeitpunkt noch nicht absehen. Alexander Gluba, Referent des Landeskriminalamts Niedersachsen, bemerkt dabei zu Recht, dass die Erfolgsmeldungen aus Übersee zumeist auf „dünnen Pressemitteilungen“ oder euphorischen Angaben der Software-Hersteller basieren. Auch sei die Messung der Wirkung im Echtbetrieb schwierig, wenn auf eine Prognose fußende Maßnahmen schlussendlich dazu führen würden, dass diese gar nicht mehr zuträfe.

In Deutschland gibt es verschiedene Ansätze: Während einige Bundesländer eigene Softwarelösungen probieren, nutzt die Polizei in Bayern und Baden-Württemberg das Programm PRECOBS. Letzteres wurde vom Max Planck Institut für ausländisches und internationales Strafrecht im Rahmen eines baden-württembergischen Pilotprojektes evaluiert. Der Abschlussbericht der Studie, die einen Zeitraum vom Oktober 2015 bis April 2016 abdeckt, liegt jetzt vor.

PRECOBS arbeitet auf Grundlage des „Near Repeat“-Phänomens, welches Straftaten wie Wohnungseinbrüche als Folgetaten innerhalb kurzer zeitlicher Abstände von bis zu sieben Tagen beschreibt. Speziell Reihenhäuser und Doppelhaushälften seien nach kriminologischer Sicht anfällig für wiederkehrende Einbruchsdelikte. PRECOBS gleicht aktuelle Daten der Polizei mit vergangenen Datensätzen über Tathergänge und Tatbegehungsweisen nach Wenn-Dann-Entscheidungen ab, um die Wahrscheinlichkeit eines „Near Repeat“-Phänomens zu bestimmen.

Laut der Studie wurden im Evaluationszeitraum in den Polizeipräsidien von Stuttgart und Karlsruhe 183 Alarme durch PRECOBS ausgelöst. Auf einen ausgelösten Alarm kamen damit im Durchschnitt bis zu 48 Arbeitsstunden für die Polizeibeamten. In Stuttgart haben die Wissenschaftler einen besonders starken Rückgang der Wohnungseinbruchszahlen in den durch PRECOBS ausgemachten „Near Repeat Areas“ festgestellt, während in Karlsruhe die Fallzahlen über den Beobachtungszeitraum konstant blieben. Laut den Autoren der Studie lässt sich die Wirksamkeit von Predictive Policing trotzdem nicht eindeutig nachweisen. Das würde vor allem an Schwankungen und methodischen Einschränkungen liegen. So sei der Evaluationszeitraum recht kurz gewesen und ginge mit einem Verzicht auf ein experimentelles Design und eine eingeschränkte Anzahl an Testgebieten einher. Zudem würde sich PRECOBS in ländlichen Gebieten aufgrund eines geringeren Ballungsgebietes nach Expertenmeinung weniger eignen. Außerdem lässt sich die Wirksamkeit nicht losgelöst von den polizeilichen Folgemaßnahmen ermitteln.

Während die Hälfte der befragten Polizeibeamten den Einsatz befürwortet, haben vor allem Beamte, die mit einer Vielzahl von Alarmen konfrontiert wurden, eine negative Meinung über PRECOBS. Die Wissenschaftler gehen davon aus, dass diese Meinung wegen einer gefühlten Mehrbelastung zustande kommt, da die Beamten im Alarmfall andere Arbeiten liegen ließen.

Einsatz contra Datenschutz?

Für Alexander Gluba ist es daher wichtig, dass dem Personal die Skepsis gegenüber der Technologie genommen wird – auch weil damit Ängste vor einem Know how-Verfall oder vor Stellenabbau begegnet würde. Das Problem liegt hier überspitzt in einem Informationsdefizit der Beamten gegenüber den Analysten und der Notwendigkeit, die Funktionsweise der Algorithmen transparent zu gestalten. Auch aus der Perspektive des Datenschutzes ist dies wünschenswert. Alexander Sander vom Verein Digitale Gesellschaft weist in diesem Zusammenhang auf die Gefahr einer Verlagerung der Kriminalität hin. Wenn nur schon vorhandene Daten in die Prognosen einfließen würden, könnten andere Verbrechen übersehen werden. Auch gelten Daten, die bei der Einbruchsprävention helfen, nicht als sensibel, aber anhand des Testlaufs für die Gesichtserkennungssoftware am Berliner Bahnhof Südkreuz erkennt Sander auch in Deutschland eine Tendenz zu verstärkter Verhaltenskontrolle bei Personen. Zumindest in China ist die Gesichtserkennung schon im Einsatz, um Rotsünder durch Social Shaming zu disziplinieren.

Ob sich in Deutschland der Einsatz von Predictive Policing ähnlich entwickeln wird, bleibt kontrovers, denn personenbezogene Daten dürfen bisher aus Datenschutzgründen nicht genutzt werden. Deshalb wurde die Software PRECOBS vom Bayerischen Landesbeauftragten für den Datenschutz, Dr. Thomas Petri, auch nicht beanstandet. Eine eher negative Perzeption der Software liegt vielleicht auch an dem überschwänglichen Erfolgsmarketing der Hersteller und reißerischen Medienberichte á la „Minority Report“. Die Technologie ist nicht in der Lage, die Zukunft vorherzusehen. Das Risiko für mögliche Verbrechen wird auf der Grundlage von Mustern in vorhandenen Daten errechnet. Damit arbeiten die Algorithmen nur so gut, wie ihre Datenbasis es zulässt. Auch stellt sich die Frage, welche Arten von Verbrechen sich vorhersagen lassen – und welche nicht. Letztendlich müssen menschliche Analysten die Handlungsentscheidungen treffen. Predictive Policing könnte ohne die Verwendung personenbezogener Daten eine sinnvolle und legitime Ergänzung der polizeilichen Arbeit darstellen. Ob sich der Einsatz aber wirklich auszahlt, kann nur durch Langzeitstudien geklärt werden.

Titelbild: Tarot by Rirriz via Flickr, CC0

CC-Lizenz-630x110