Es mag kein Zufall sein, dass „PRECOBS“ („Pre Crime Observation System“), das derzeit führende Softwareprodukt für vorhersageorientierte Polizeiarbeit (Predictive Policing) im deutschsprachigen Raum, uns an Steven Spielbergs Minority Report aus dem Jahr 2002 erinnert. Der auf einer Kurzgeschichte von Philipp K. Dick beruhende Film spielt im Washington DC des Jahres 2054 und die zentralen Figuren sind drei „Precogs“ (von „precognitive“, also „vorausahnend“). Sie dienen als Medium, um zukünftige Verbrechen vorherzusagen und zu verhindern. Selbst wenn die Täter von ihren zukünftigen Taten noch nichts ahnen und also noch nichts verbrochen haben, werden sie vorsorglich in Gewahrsam genommen und „unschädlich“ gemacht.

Minority Report, 2002
PRECOBS, das ursprünglich tatsächlich einmal PRECOGS genannt werden sollte, ist die Software eines in Deutschland angesiedelten Unternehmens, dem Institut für musterbasierte Prognosetechnik, die in den Polizeien in Bayern (München und Mittelfranken) und in der Schweiz in Zürich (Stadtpolizei) und den Kantonen Basel-Landschaft und Aargau implementiert wurde und in weiteren Ländern und Kantonen pilotiert wird. Andere Programme heißen „SKALA | MAP“ („System zur Kriminalitätsanalyse und Lageantizipation“, in Nordrhein-Westfalen) „Krim Pro“ (Berlin), „PreMAP“ („Predictive Policing Mobile Analytics for Police“, Niedersachsen) oder „KLB-operativ“ („Kriminalitätslagebild-operativ“, Hessen), die jeweils von den Länderpolizeien selbst entwickelt werden, um die Hoheit über die polizeieigenen Kriminalitätsdaten und die Nachvollziehbarkeit der algorithmisierten Bewertungs- und Entscheidungsprozesse zu behalten. Alle Softwareprogramme gehören zur Familie des „Predictive Policing“, also (teil-)automatisierter Techniken vorhersageorientierter Polizeiarbeit, die als erstes in den USA (z.B. in Form von PredPol) und mittlerweile in Städten rund um den Globus eingesetzt werden und die, wie manche hoffen und andere befürchten, die Polizei und die Bekämpfung von Kriminalität revolutionieren werden.

Der Urahn polizeilicher Prognosesoftware: PredPol; Quelle: wabe.org
Kritiker sehen eine Zukunft heraufziehen, die Spielbergs Minority Report in der Tat nicht unähnlich ist: Denn die Software ist nicht nur dazu angelegt, Risikogebiete auszuweisen, also Orte und Regionen in Städten zu identifizieren, in denen in naher Zukunft eine erhöhte Wahrscheinlichkeit besteht, Opfer einer Straftat zu werden; vielmehr soll die Polizei im Bestfall bereits vor Ort sein, ehe sich das nächste Verbrechen überhaupt ereignen kann. Im Gegensatz zur lange erprobten Regionalanalyse operiert die Polizei nun also gewissermaßen in Echtzeit und idealerweise im Vorgriff: Anders als bei der klassischen Gefahrenabwehr, reagiert die Polizei nicht einfach nur auf mehr oder weniger konkrete Anzeichen einer Gefahr, sondern sie antizipiert das mögliche nächste Verbrechen. Sie operiert im Vorfeld einer Straftat.
Kritik
Bedenken gegenüber einer auch rechtlich nicht unproblematischen systematischen Ausweitung polizeilicher Intervention durch Vorverlagerung beziehen sich grundsätzlich auf zwei Ebenen. Erstens die Ausweitung des Verdachts gegenüber den „üblichen Verdächtigen“: Wo die Polizei immer schon vor Ort ist, richte sich das Augenmerk prinzipiell auf alles Irreguläre, d.h. das, was „nicht normal“ ist. Aktiviert werde damit also polizeiliches Erfahrungswissen, das bestimmte Kriminalitätsformen im städtischen Raum immer schon bestimmten Milieus zuordnet. Verstärkt geraten auf diese Weise, so die Kritik, diejenigen ins polizeiliche Visier, die sich aufgrund ihres Erscheinungsbildes einer sozialen Gruppe zugeordnet finden („meine Schweine erkenne ich am Gang“) – und die nunmehr gewissermaßen unter dringenden Verdacht gestellt werden, unter der Maßgabe, dass das nächste Verbrechen mutmaßlich gleich wie das letzte passiert.
Zweitens werden Techniken vorhersageorientierter Polizeiarbeit in einer Linie mit Maßnahmen vorgreifender Intervention gesehen, die in der Bekämpfung von Terrorismus oder Organisierter Kriminalität bereits wirksam sind: Automatisierte Verfahren der Auswertung ebenso großer wie heterogener Datenmengen (z.B. von Metadaten wie Kontakten über das Handy oder Kontobewegungen) erlauben es nämlich, bisher ungekannte Verdachtsmuster zu generieren. Ins polizeiliche Visier kann auf diese Weise prinzipiell jeder geraten, und zwar aufgrund alltäglicher Verhaltensroutinen, die aber zu einem bestimmten Zeitpunkt einem bestimmten Verdachtsmuster entsprechen. Die Konsequenzen können, je nach Kontext, von der Transportverweigerung durch eine Fluglinie über das Einfrieren des Vermögens bis hin zur gezielten Tötung mittels Drohnen reichen.
Polizeiliche Praxis
Im deutschsprachigen Raum ist Predictive Policing schon von der technischen Entwicklung her derzeit noch weit von einer solchen Praxis entfernt. So konzentrieren sich Einsatz und Erprobung vorhersageorientierter computergestützter Verfahren bislang auf das Delikt des professionellen Wohnungseinbruchs. Und es ist gerade die angenommene Professionalität der Täter, die nicht nur begründet, dass die Politik sich dieses anwachsenden Problems angenommen hat, sondern auch dass dieser Kriminalitätstypus berechenbar ist: Professionelle Täter gehen nach einem klaren und mit nur wenigen Datenpunkten konturierbaren Muster vor, vor allem geräuschlos und schnell, insgesamt risikoarm (nur solche Beute wird entwendet, die in einen Strumpf passt).
Das algorithmengestützte Bewertungsprinzip besteht folglich darin, von bestimmten „Triggern“ auszugehen, also Indikatoren, die für einen professionellen Einbruch sprechen, indem die Täter z.B. eher geräuschlos und gezielt vorgehen. Die Software PRECOBS registriert und analysiert deshalb die Tatzeit, den Gebäudetypus, in dem der Einbruch stattfand (z.B. Einfamilienhaus oder Wohnblock), den Modus Operandi (also das konkrete Vorgehen) sowie die entwendeten Gegenstände (Geld, Schmuck etc.). Im Sinne der „Near Repeat-Theory“ geht man ferner davon aus, dass professionelle Täter nicht nur systematisch, sondern auch seriell vorgehen. Das heißt, innerhalb eines bestimmten Zeitraums, z.B. von bis zu sieben Tagen, ist in einem gewissen Umkreis, z.B. von vierhundert Metern, mit hoher Wahrscheinlichkeit ein weiterer Einbruch zu erwarten. Grundlage für eine solche Prognose ist die Auswertung entsprechender Vorfälle von Einbruchdiebstahl in den vergangenen Jahren, die es erlauben, bestimmte Stadtteile als Risikogebiete unterschiedlicher Stufen auszuweisen. Wird in diesen Gebieten nun ein neuer Einbruch registriert, überprüft die Software mit Hilfe der Triggerkriterien, ob es sich um einen Profitäter handelt und gibt bei positivem Ergebnis einen Alarm ab, der vom zuständigen Analytiker – auch Operator genannt – verifiziert wird.
Diese Techniken vorhersageorientierter Polizeiarbeit sind also noch vergleichsweise simpel: Sie beschränken sich auf ausgewählte Delikte, in diesem Fall nur den Einbruchdiebstahl, beruhen auf ebenso einfachen Kriminalitätstheorien, die davon ausgehen, dass Täter rational handeln und ihre Taten entsprechend berechenbar sind, und sie beruhen auf polizeieigenen Kriminalitätsdaten. Vor allem aber werden hier noch keine selbstlernenden Algorithmen eingesetzt, die aufgrund der Auswertung einer Vielzahl, insbesondere heterogener Daten selbständig neue Kriterien des Verdachts generieren können.
Algorithmen
Doch die Weichen für eine andere Zukunft vorhersageorientierter Polizeiarbeit sind bereits gestellt; eine Zukunft, die tatsächlich stärker in jene Richtung geht, auf die die gegenwärtig noch größtenteils inadäquaten, aber doch häufig verwendeten Schlagwörter wie Big Data und Künstliche Intelligenz verweisen. So wird an einer Erweiterung der prognostischen Deliktpalette gearbeitet, damit in Zukunft neben Wohnungseinbruchdiebstählen z.B. auch Kfz-Einbrüche und -Diebstähle bzw. Raubdelikte vorhergesagt werden können. Ferner gibt es international Bestrebungen, nicht nur räumlich gebundene, sondern auch personenbezogene Vorhersagen zu generieren. Als einer der Vorreiter bekannt geworden ist in diesem Kontext die „Strategic Subject List“ – gerne auch „Heat List“ genannt – der Polizei Chicago, die Personen nach Kriterien wie Vorstrafen, Gangmitgliedschaft und gewaltsamen Todesfällen im Bekanntenkreis einen Risikograd bezüglich der Wahrscheinlichkeit zuordnet, Opfer oder Täter eines Tötungsdeliktes zu werden.

Infografik des BKA zu RADAR-iTE; Quelle: bka.de
Dabei ist schon die Bekanntschaft mit gewaltbekannten Personen einschlägig. Auch in Deutschland gibt es ähnliche Bemühungen: Das vom Bundeskriminalamt in Zusammenarbeit mit Psychologen von der Universität Konstanz entwickelte Prognosesystem „RADAR-iTE“ („Regelbasierte Analyse potenziell destruktiver Täter zur Einschätzung des aktuellen Risikos – Islamistischer Terrorismus“) zielt darauf, individuelle Risikopotenziale islamistischer Gefährder auf der Grundlage ihres beobachtbaren Verhaltens zu konkretisieren. Dazu gehört auch nicht direkt kriminalitäts- oder gewaltrelevantes Verhalten: Wichtig sein können etwa neben der Anzahl an und dem zeitlichen Abstand zwischen Straftaten auch die Integration in das Arbeitsleben, Familienanschluss, Erfahrung mit Waffen usw. Verteilt werden jeweils Plus- und Minuspunkte, ein am Ende ermittelter Zahlenwert wird in eine Farbskala übersetzt, die dann die Gefährlichkeitsstufe anzeigt.
Entscheidend für einen qualitativen Sprung in Richtung auf vorgreifende Polizeiarbeit ist die Verknüpfung: nicht nur die zunehmende Vernetzung der Prognosetechnologie innerhalb der Polizei(en), sondern auch mit externen Datenträgern und -quellen. Was auch unter dem Begriff der plattformisierten Polizeiarbeit (platform policing) firmiert, die es erlaubt, Daten unterschiedlicher Herkunft und Struktur zusammenzubringen und von einem zentralen Ort aus zugänglich und verknüpfbar zu machen, findet sich in neuen polizeilichen Softwareentwicklungen und -installationen bereits dezidiert angelegt. So arbeitet die Polizei Hessens beispielsweise als erste in Deutschland mit der Software „Gotham“ des US-Unternehmens Palantir. „hessenDATA“, wie die maßgeschneiderte Gotham-Version dort heißt, bezieht auch Daten aus Sozialen Medien wie Facebook in die Analyse ein.
Prognosen
Für die Zukunft ist durchaus davon auszugehen, dass sich stärker datengetriebene und weniger theoriebasierte Techniken vorhersageorientierter Polizeiarbeit dauerhaft etablieren und weiter ausdifferenzieren werden. Dabei kann den derzeit genutzten prognostischen Softwarelösungen eine immanente Erweiterungstendenz zugeschrieben werden, denn das analytisch-technische Potenzial moderner predictive analytics ist noch nicht annähernd ausgeschöpft. Dies gilt sowohl für die Ebenen der Algorithmen (welche und wie viele Theorien werden operationalisiert?) und Daten (welche und wie viele Daten werden algorithmisch analysiert?) als auch für das Portfolio der prognostizierten Delikte. Überdies ist eine Integration von Daten aus anderen Sicherheitstechnologien, z.B. (intelligenter) Überwachungskameras, technisch gesehen problemlos möglich. So ist beispielsweise nicht undenkbar, dass die Daten und Erkenntnisse, die derzeit im Rahmen des Pilotprojekts „Sicherheitsbahnhof Berlin Südkreuz“ zur biometrischen Gesichtserkennung am Berliner Südbahnhof sowie am Hauptbahnhof in Mannheim erhoben werden – dies im Rahmen des Projektes „Mannheimer Weg 2.0“, in dem es um automatisierte Identifizierung von verdächtigem Verhalten durch „musterbasierte Aktivitätserkennung“ geht –, in Zukunft mit polizeilicher Prognosesoftware gekoppelt werden.
Vorausschauende Polizeiarbeit, das gilt es zu betonen, kann durchaus zu mehr Effektivität bei der Prävention und Verfolgung von Straftaten beitragen. Ob sie von verhältnismäßigem Nutzen ist oder zu einer beständigen Ausweitung polizeilicher Intervention führt, wird auch davon abhängen, wie Polizei und Gesellschaft mit der Technologie umgehen. Noch die besten polizeilichen Vorhersagetechnologien operieren nur mit Wahrscheinlichkeiten. Jeder daran anschließende Verdacht ist insofern eben genau das: ein Verdacht, also eine Vorhersage mit einer relativen, nicht absoluten Sicherheit. Einiges wird davon abhängen, welche Daten überhaupt in den Computer eingespeist werden, also ob die Algorithmen z.B. einfach die Vorurteile der Menschen und gesellschaftliche Ungleichheiten reproduzieren, und wie transparent die Funktionsweise der Prädiktionsmaschinen gemacht wird und werden kann. Und einiges wird davon abhängen, wie technikgläubig wir sind: inwieweit der Mensch der Maschine die Hoheit der Einschätzung und Beurteilung einer Lage übergibt.