Predictive Policing  Wie Algorithmen bei der Verbrechensbekämpfung helfen

Predictive policing – Wie lassen sich nicht-ausgeführte Straftaten eigentlich messen? Foto: Chris Barbalis via unsplash | CC0 1.0

Verbrechen verhindern, bevor sie vollbracht sind – ein Wunsch, der bei Polizei und Bevölkerung Anklang findet. Zwei Experten erklären, ob und wie Prognose-Systeme zum Predictive Policing dabei helfen können.

Der Polizist John Anderton hat ein Problem: Er arbeitet für die Abteilung Precrime der Washingtoner Polizei in den USA und verhaftet normalerweise Menschen, die kurz davor stehen, einen Mord zu verüben. Nun sagt das System voraus, dass er selbst bald einen Mord begehen wird. Irrt sich die als fehlerfrei geltende Prognose? Oder ist eben auch ein Polizist nicht gefeit, einen feigen Mord zu begehen?
 
Der Plot des US-Spielfilms Minority Report aus dem Jahr 2002 dient als vielzitiertes Beispiel für die Idee von „Pre-Crime“ – also quasi Verbrechensverhinderung vor einer Straftat – und Predictive Policing, das sich gemäß einer Studie der Uni Hamburg mit „vorhersagebasierte Polizeiarbeit“ übersetzen lässt. Dabei zentral sind Algorithmen, die die operative Prognose von Verbrechen übernehmen.
 

 
Das Bild von Predictive Policing ist medial meist eher düster: Befürchtet werden vor allem Fehlprognosen oder Bespitzelung, gar ein alles kontrollierender Polizei- und Überwachungsstaat. In deutschen Polizeibehörden ist Predictive Policing spätestens seit 2016 angekommen – mit Minority Report hat das jedoch wenig zu tun. „Ich stand eines Nachts vor einer Karte, in die die Polizeibeamten noch Nadeln gesteckt haben“, sagt Thomas Schweer. Der Soziologe ist Geschäftsführer des Instituts für musterbasierte Prognosetechnik (IfmPt) in Oberhausen. „Damals habe ich gesagt: Wir leben im Jahr 2000. 1969 sind wir zum Mond geflogen und wir stecken im Jahr 2000 immer noch Nadeln in eine Karte?“ Das IfmPt entwickelte – „von Beamten für Beamten“, so Schweer – die wegweisende polizeiliche Prognose-Software PRECOBS, die in Deutschland und der Schweiz zum Einsatz kommt.
 

Wie funktioniert PRECOBS?

Stark vereinfacht funktioniert die Software PRECOBS in etwa wie die Kaufvorschläge von Online-Händlern: „Kunden die XY kauften, kauften auch ….“ Die Software sucht basierend auf Daten nach Mustern, mit denen sich zukünftiges Tatverhalten vorhersagen lässt. Je mehr Daten das System kennt, desto genauer können Vorschläge gemacht werden.
 
Kommt es also im Einsatzgebiet von PRECOBS zu einem Wohnungseinbruch, geben die Polizeibeamt*innen dazu ausgewählte Daten in das System ein – zum Beispiel: Wie wurde eingebrochen? Um welche Uhrzeit? Was wurde gestohlen? In welcher Gegend liegt der Tatort? Die Leistung von PRECOBS ist es dann, eine Prognose darüber abzugeben, in welcher Gegend der nächste Wohnungseinbruch stochastisch sehr wahrscheinlich wird. Die wissenschaftliche Basis ist der sogenannte Near-Repeat-Ansatz: Wird in einer bestimmten Gegend eingebrochen, so ist ein Einbruch im selben Umfeld in naher Zukunft sehr wahrscheinlich. Erstellt das System eine Prognose, fahren die Beamt*innen in die Gegend und schauen sich dort um: Gibt es auffällige Fahrzeuge? Schleichen verdächtige Personen umher? Ist irgendetwas vor Ort unstimmig?
 
Der Prognoseleistung von PRECOBS und vergleichbaren Systemen ist aktuell (noch) auf Wohnungseinbrüche beschränkt, der tatsächliche Nutzen der Software umstritten. Ende 2020 verfügen jedoch einige Bundesländer über polizeiliche Prognose-Software, die entweder von externen Dienstleistern angekauft oder innerhalb der Behörde erstellt wurde.

PRECOBS ist auf Massenkriminalität wie Wohnungseinbrüche spezialisiert (siehe Infokasten) und soll die Wahrscheinlichkeit des nächsten Einbruchs in einer Gegend vorhersagen – der Erfolg ist umstritten. In einer Evaluation habe man „nur einen sehr eingeschränkten Nutzen“ von PRECOBS feststellen können, sagt der Kriminologe Dominik Gerstner. Er arbeitet am Max-Planck-Institut zur Erforschung von Kriminalität, Sicherheit und Recht in Freiburg im Breisgau, das zwischen 2015 und 2016 die Software des IfmPt genau untersuchte. Überflüssig sei das System nicht – aber die Effekte für die Polizeiarbeit „liegen nur in einem moderaten Bereich“, so Gerstner. Entwickler Schweer sagt über die Evaluation: „Wenn man die Studie liest, findet man viele Hinweise auf die Funktionalität von PRECOBS. Nur die Conclusio ist nicht gut gemacht.“ Für ihn sei das Ergebnis aber keineswegs ein Rückschlag: „Warten Sie die Zeit ab.“

Predictive Policing weltweit auf dem Vormarsch

Womit Schweer Recht behalten könnte. Denn polizeiliche Prognose-Software ist bereits in Großbritannien, Südafrika, Brasilien, der Schweiz und den Niederlanden im Einsatz. Auch China experimentiert mit dem „Sesame Credit“ – einem Social-Scoring-System, das an die deutsche SCHUFA erinnert, jedoch noch mehr Ranking-Faktoren einbezieht. Kritisch sieht man in Deutschland besonders das US-amerikanische Predictive Policing. So kann beispielsweise bei der „Strategic Subject Liste“ (auch „Heat List“ genannt) in Chicago nicht mehr klar zwischen Verdächtigen und potentiellen Opfern von Straftaten unterschieden werden. Unklar ist für Betroffene auch, wie sie auf die Liste gelangen – und ob sie jemals davon gelöscht werden.
 

 
In der kalifornischen Stadt Fresno wiederum erfahren Beamt*innen vor einem Notruf vom Prognose-System „Beware“, ob ihr Gegenüber am Einsatzort Vorstrafen hat oder eine Schusswaffe besitzt. „Das beeinflusst dann vor allem das Handeln der Polizisten“, so Gerstner. „Ob sie eher klingeln oder mit gezückter Waffe vor der Haustür stehen. Das kann in den USA natürlich schon einen großen Unterschied machen.“ Problematisch seien in den USA auch der Einsatz personenbezogener Daten beim Predictive Policing – also beispielsweise Wohnort, Konto- oder Familienstand – sowie rassistisch-ethnische Stereotype und Vorverurteilung ärmerer Menschen durch die Polizei. Auch in Deutschland werden personenbezogene Daten erhoben – allerdings aktuell nur in Bezug auf sogenannte islamistische „Gefährder“. Gerstner und Schweer betonen beide: Eine Software kann auch fehlerhafte Ergebnisse liefern, beispielsweise aufgrund fehlender oder falscher Daten oder schlichtweg Eingabefehlern. Derartige Konstellationen könnten sich dann mit schwerwiegenden Folgen für Betroffene innerhalb eines Systems fortpflanzen.

Digitalisierungs-Schub statt Dystopie

Für Deutschland gilt aber erst einmal: Predictive Policing ist eher Digitalisierungsschub als dystopische Science Fiction. Für die Beamt*innen bedeutete die Software eine Arbeitserleichterung, so Gerstner, auch wenn einige Bundesländer unterschiedliche Lösungen nutzen. Polizist*innen können nun für bestimmte Straftaten viel strukturierter Daten erheben und auswerten sowie auffällige Muster rechtzeitig erkennen. Sie kommen damit „vor die Lage“, wie es laut Schweer im Polizeijargon heißt – können also voraussehen, welche Anforderungen die Einsatzkräfte bewältigen müssen.
 
Ebenso wurde mit der Einführung klar: die Polizei braucht für ihre Arbeit auch moderne Computer, Smartphones und Software, die sie verstehen und richtig bedienen kann. Die Ausstattung mit moderner Technologie sei in Deutschland nicht selbstverständlich, so Schweer – wie auch das Zusammenspiel zwischen Mensch und Daten: „Sie müssen auch Vorbehalte auffangen“, so der Soziologe. „Da kommt jetzt eine Software, die sagt mir, wo ich hinfahren soll. Das darf für den Beamten keine Black Box sein und muss auch fachlich nachvollziehbar sein.“ Predictive Policing, da sind sich die Experten einig, sei keine „magische Glaskugel“ in der sich „Kriminalitäts-Trends“ oder gar künftige Straftaten ablesen ließen. Viele Ermittlungen – auch in der Cyberkriminalität – ließen sich gut mit klassischen Methoden durchführen. Vielmehr sind Predictive Policing-Intrumente Entscheidungs- und Ermittlungshilfe für die Beamt*innen, die Personal und Kosten sparen können.

Ein schlafender Riese – Polizei-Datenbanken

Doch harmlos ist deutsches Predictive Policing nicht. Denn die deutschen Sicherheitsbehörden verfügen über enorme Mengen von Daten, auch wenn diese auf quasi isolierten „Daten-Inseln“ schlummern. Die sparsamen Verknüpfungen zwischen ihnen erscheinen unzeitgemäß, schützen die dort lagernden Daten aber zusätzlich vor Zugriff. Instrumente wie PRECOBS erhöhen jedoch den Druck auf die Polizeiarbeit, genau solche Daten vermehrt anzufassen und mit ihnen als Rohstoff zu arbeiten. Brisant in Bezug auf Datenschutz und Risikoprognosen wird es zudem, wenn noch zusätzliche Daten extern hinzugekauft werden – zum Beispiel aus dem Geo-Marketing, wie Gerstner sagt. Unklar ist bisher, wie genau sich diese Daten auf Predictive Policing-Software auswirken würden und ob sie – wie in den USA – zur stärkeren Vorverurteilung bestimmter Gesellschaftsgruppen führen könnten.

Der Kriminologe Dominik Gerstner Der Kriminologe Dominik Gerstner | Foto: © Max-Planck-Institut zur Erforschung von Kriminalität, Sicherheit und Recht

Öffentliche Debatten über Predictive Policing bleiben schwach

Auch die Zusammenarbeit zwischen privatwirtschaftlichen Anbietern und öffentlichen Behörden kann Reibung erzeugen. So verwendet das Bundesland Hessen eine Prognose-Software, die auf dem Produkt Gotham der US-Firma Palantir basiert. Palantir arbeitet auch mit US-Behörden wie CIA, NSA und dem FBI zusammen. „Gotham ist komplex, da werden auch ganz verschiedene Datenquellen mit eingespeist“, so Kriminologe Gerstner. „Da stecken viele Algorithmen drin, die ein Geschäftsgeheimnis sind. Das ist natürlich ein Problem für Behörden.“ Der Kauf einer solchen Software von Steuergeldern muss sich für die Behörden rentieren. Dadurch entsteht Druck, Erfolge bei der Anwendung vorweisen zu können. Was aber, wenn dafür der Datenschutz stärker aufgeweicht werden muss, damit die „richtigen“ Ergebnisse schnell geliefert werden?
 
Nicht zuletzt existieren Predictive Policing-Instrumente zwar schon in einigen Bundesländern – die öffentliche Diskussion darüber ist eher schwach. Kritiker*innen befürchten neben Datenschutz-Problemen vor allem, dass auch juristische Grundpfeiler wie die Unschuldsvermutung und das Diskriminierungsverbot durch Predictive Policing-Instrumente wegbrechen könnten. Bislang offen sind auch Fragen nach dem Potential der Prognosen – zum Beispiel, wie lassen sich nicht-ausgeführte Straftaten eigentlich richtig messen? Zudem gilt intern unter Polizeibeamt*innen die Festnahmequote weiterhin als ein Erfolgsfaktor für ihre Arbeit – wie gehen Beamt*innen mit diesen Erwartungen künftig um? Und welche Rolle spielt die Software bei der Höhe der Festnahmequote? Ebenso grundlegend ist die Frage, warum Instrumente wie Predictive Policing gebraucht werden – denn die Kriminalitätsrate in Deutschland sinkt eher als dass sie steigt.

Fühlen wir uns also einfach nur unsicherer oder gibt es wirklich mehr Bedrohungen? Und: In welcher Gesellschaftsschicht fühlen wir uns eher bedroht – und in welcher eher kriminalisiert? Einer der strittigsten Punkte ist zudem die Entwicklung von Software, die radikalisierte Attentäter*innen ausfindig machen soll. Was, wenn sich aber ein potentieller Terroranschlag nur durch das ferngesteuerte Töten einer solchen Zielperson verhindern ließe? Und was, wenn die Prognose in nur einem einzigen Fall falsch läge?

Das könnte auch von Interesse sein

Failed to retrieve recommended articles. Please try again.

Empfehlungen der Redaktion

Failed to retrieve articles. Please try again.

Meistgelesen

Failed to retrieve articles. Please try again.