Warning: Use of undefined constant PP_MULTIPLE_AUTHORS_VERSION - assumed 'PP_MULTIPLE_AUTHORS_VERSION' (this will throw an Error in a future version of PHP) in /home/geschic8/public_html/wp-content/themes/gdg/functions.php on line 45

Es mag kein Zufall sein, dass „PRECOBS“ („Pre Crime Obser­va­tion System“), das derzeit führende Soft­ware­pro­dukt für vorher­sa­ge­ori­en­tierte Poli­zei­ar­beit (Predic­tive Poli­cing) im deutsch­spra­chigen Raum, uns an Steven Spiel­bergs Mino­rity Report aus dem Jahr 2002 erin­nert. Der auf einer Kurz­ge­schichte von Philipp K. Dick beru­hende Film spielt im Washington DC des Jahres 2054 und die zentralen Figuren sind drei „Precogs“ (von „preco­gni­tive“, also „voraus­ah­nend“). Sie dienen als Medium, um zukünf­tige Verbre­chen vorher­zu­sagen und zu verhin­dern. Selbst wenn die Täter von ihren zukünf­tigen Taten noch nichts ahnen und also noch nichts verbro­chen haben, werden sie vorsorg­lich in Gewahrsam genommen und „unschäd­lich“ gemacht.

Mino­rity Report, 2002

PRECOBS, das ursprüng­lich tatsäch­lich einmal PRECOGS genannt werden sollte, ist die Soft­ware eines in Deutsch­land ange­sie­delten Unter­neh­mens, dem Institut für muster­ba­sierte Progno­se­technik, die in den Poli­zeien in Bayern (München und Mittel­franken) und in der Schweiz in Zürich (Stadt­po­lizei) und den Kantonen Basel-Landschaft und Aargau imple­men­tiert wurde und in weiteren Ländern und Kantonen pilo­tiert wird. Andere Programme heißen „SKALA | MAP“ („System zur Krimi­na­li­täts­ana­lyse und Lage­an­ti­zi­pa­tion“, in Nordrhein-Westfalen) „Krim Pro“ (Berlin), „PreMAP“ („Predic­tive Poli­cing Mobile Analy­tics for Police“, Nieder­sachsen) oder „KLB-operativ“ („Kriminalitätslagebild-operativ“, Hessen), die jeweils von den Länder­po­li­zeien selbst entwi­ckelt werden, um die Hoheit über die poli­zei­ei­genen Krimi­na­li­täts­daten und die Nach­voll­zieh­bar­keit der algo­rith­mi­sierten Bewertungs- und Entschei­dungs­pro­zesse zu behalten. Alle Soft­ware­pro­gramme gehören zur Familie des „Predic­tive Poli­cing“, also (teil-)automatisierter Tech­niken vorher­sa­ge­ori­en­tierter Poli­zei­ar­beit, die als erstes in den USA (z.B. in Form von PredPol) und mitt­ler­weile in Städten rund um den Globus einge­setzt werden und die, wie manche hoffen und andere befürchten, die Polizei und die Bekämp­fung von Krimi­na­lität revo­lu­tio­nieren werden.

Der Urahn poli­zei­li­cher Progno­se­soft­ware: PredPol; Quelle: wabe.org

Kritiker sehen eine Zukunft herauf­ziehen, die Spiel­bergs Mino­rity Report in der Tat nicht unähn­lich ist: Denn die Soft­ware ist nicht nur dazu ange­legt, Risi­ko­ge­biete auszu­weisen, also Orte und Regionen in Städten zu iden­ti­fi­zieren, in denen in naher Zukunft eine erhöhte Wahr­schein­lich­keit besteht, Opfer einer Straftat zu werden; viel­mehr soll die Polizei im Best­fall bereits vor Ort sein, ehe sich das nächste Verbre­chen über­haupt ereignen kann. Im Gegen­satz zur lange erprobten Regio­nal­ana­lyse operiert die Polizei nun also gewis­ser­maßen in Echt­zeit und idea­ler­weise im Vorgriff: Anders als bei der klas­si­schen Gefah­ren­ab­wehr, reagiert die Polizei nicht einfach nur auf mehr oder weniger konkrete Anzei­chen einer Gefahr, sondern sie anti­zi­piert das mögliche nächste Verbre­chen. Sie operiert im Vorfeld einer Straftat.

Kritik

Bedenken gegen­über einer auch recht­lich nicht unpro­ble­ma­ti­schen syste­ma­ti­schen Auswei­tung poli­zei­li­cher Inter­ven­tion durch Vorver­la­ge­rung beziehen sich grund­sätz­lich auf zwei Ebenen. Erstens die Auswei­tung des Verdachts gegen­über den „übli­chen Verdäch­tigen“: Wo die Polizei immer schon vor Ort ist, richte sich das Augen­merk prin­zi­piell auf alles Irre­gu­läre, d.h. das, was „nicht normal“ ist. Akti­viert werde damit also poli­zei­li­ches Erfah­rungs­wissen, das bestimmte Krimi­na­li­täts­formen im städ­ti­schen Raum immer schon bestimmten Milieus zuordnet. Verstärkt geraten auf diese Weise, so die Kritik, dieje­nigen ins poli­zei­liche Visier, die sich aufgrund ihres Erschei­nungs­bildes einer sozialen Gruppe zuge­ordnet finden („meine Schweine erkenne ich am Gang“) und die nunmehr gewis­ser­maßen unter drin­genden Verdacht gestellt werden, unter der Maßgabe, dass das nächste Verbre­chen mutmaß­lich gleich wie das letzte passiert.

Zwei­tens werden Tech­niken vorher­sa­ge­ori­en­tierter Poli­zei­ar­beit in einer Linie mit Maßnahmen vorgrei­fender Inter­ven­tion gesehen, die in der Bekämp­fung von Terro­rismus oder Orga­ni­sierter Krimi­na­lität bereits wirksam sind: Auto­ma­ti­sierte Verfahren der Auswer­tung ebenso großer wie hete­ro­gener Daten­mengen (z.B. von Meta­daten wie Kontakten über das Handy oder Konto­be­we­gungen) erlauben es nämlich, bisher unge­kannte Verdachts­muster zu gene­rieren. Ins poli­zei­liche Visier kann auf diese Weise prin­zi­piell jeder geraten, und zwar aufgrund alltäg­li­cher Verhal­tens­rou­tinen, die aber zu einem bestimmten Zeit­punkt einem bestimmten Verdachts­muster entspre­chen. Die Konse­quenzen können, je nach Kontext, von der Trans­port­ver­wei­ge­rung durch eine Flug­linie über das Einfrieren des Vermö­gens bis hin zur gezielten Tötung mittels Drohnen reichen.

Poli­zei­liche Praxis

Im deutsch­spra­chigen Raum ist Predic­tive Poli­cing schon von der tech­ni­schen Entwick­lung her derzeit noch weit von einer solchen Praxis entfernt. So konzen­trieren sich Einsatz und Erpro­bung vorher­sa­ge­ori­en­tierter compu­ter­ge­stützter Verfahren bislang auf das Delikt des profes­sio­nellen Wohnungs­ein­bruchs. Und es ist gerade die ange­nom­mene Profes­sio­na­lität der Täter, die nicht nur begründet, dass die Politik sich dieses anwach­senden Problems ange­nommen hat, sondern auch dass dieser Krimi­na­li­täts­typus bere­chenbar ist: Profes­sio­nelle Täter gehen nach einem klaren und mit nur wenigen Daten­punkten kontu­rier­baren Muster vor, vor allem geräuschlos und schnell, insge­samt risi­koarm (nur solche Beute wird entwendet, die in einen Strumpf passt).

Das algo­rith­men­ge­stützte Bewer­tungs­prinzip besteht folg­lich darin, von bestimmten „Trig­gern“ auszu­gehen, also Indi­ka­toren, die für einen profes­sio­nellen Einbruch spre­chen, indem die Täter z.B. eher geräuschlos und gezielt vorgehen. Die Soft­ware PRECOBS regis­triert und analy­siert deshalb die Tatzeit, den Gebäu­de­typus, in dem der Einbruch statt­fand (z.B. Einfa­mi­li­en­haus oder Wohn­block), den Modus Operandi (also das konkrete Vorgehen) sowie die entwen­deten Gegen­stände (Geld, Schmuck etc.). Im Sinne der „Near Repeat-Theory“ geht man ferner davon aus, dass profes­sio­nelle Täter nicht nur syste­ma­tisch, sondern auch seriell vorgehen. Das heißt, inner­halb eines bestimmten Zeit­raums, z.B. von bis zu sieben Tagen, ist in einem gewissen Umkreis, z.B. von vier­hun­dert Metern, mit hoher Wahr­schein­lich­keit ein weiterer Einbruch zu erwarten. Grund­lage für eine solche Prognose ist die Auswer­tung entspre­chender Vorfälle von Einbruch­dieb­stahl in den vergan­genen Jahren, die es erlauben, bestimmte Stadt­teile als Risi­ko­ge­biete unter­schied­li­cher Stufen auszu­weisen. Wird in diesen Gebieten nun ein neuer Einbruch regis­triert, über­prüft die Soft­ware mit Hilfe der Trig­ger­kri­te­rien, ob es sich um einen Profi­täter handelt und gibt bei posi­tivem Ergebnis einen Alarm ab, der vom zustän­digen Analy­tiker – auch Operator genannt – veri­fi­ziert wird.

Diese Tech­niken vorher­sa­ge­ori­en­tierter Poli­zei­ar­beit sind also noch vergleichs­weise simpel: Sie beschränken sich auf ausge­wählte Delikte, in diesem Fall nur den Einbruch­dieb­stahl, beruhen auf ebenso einfa­chen Krimi­na­li­täts­theo­rien, die davon ausgehen, dass Täter rational handeln und ihre Taten entspre­chend bere­chenbar sind, und sie beruhen auf poli­zei­ei­genen Krimi­na­li­täts­daten. Vor allem aber werden hier noch keine selbst­ler­nenden Algo­rithmen einge­setzt, die aufgrund der Auswer­tung einer Viel­zahl, insbe­son­dere hete­ro­gener Daten selb­ständig neue Krite­rien des Verdachts gene­rieren können.

Algo­rithmen

Doch die Weichen für eine andere Zukunft vorher­sa­ge­ori­en­tierter Poli­zei­ar­beit sind bereits gestellt; eine Zukunft, die tatsäch­lich stärker in jene Rich­tung geht, auf die die gegen­wärtig noch größ­ten­teils inad­äquaten, aber doch häufig verwen­deten Schlag­wörter wie Big Data und Künst­liche Intel­li­genz verweisen. So wird an einer Erwei­te­rung der prognos­ti­schen Delikt­pa­lette gear­beitet, damit in Zukunft neben Wohnungs­ein­bruch­dieb­stählen z.B. auch Kfz-Einbrüche und -Dieb­stähle bzw. Raub­de­likte vorher­ge­sagt werden können. Ferner gibt es inter­na­tional Bestre­bungen, nicht nur räum­lich gebun­dene, sondern auch perso­nen­be­zo­gene Vorher­sagen zu gene­rieren. Als einer der Vorreiter bekannt geworden ist in diesem Kontext die „Stra­tegic Subject List“ – gerne auch „Heat List“ genannt – der Polizei Chicago, die Personen nach Krite­rien wie Vorstrafen, Gang­mit­glied­schaft und gewalt­samen Todes­fällen im Bekann­ten­kreis einen Risi­ko­grad bezüg­lich der Wahr­schein­lich­keit zuordnet, Opfer oder Täter eines Tötungs­de­liktes zu werden.

Info­grafik des BKA zu RADAR-iTE; Quelle: bka.de

Dabei ist schon die Bekannt­schaft mit gewalt­be­kannten Personen einschlägig. Auch in Deutsch­land gibt es ähnliche Bemü­hungen: Das vom Bundes­kri­mi­nalamt in Zusam­men­ar­beit mit Psycho­logen von der Univer­sität Konstanz entwi­ckelte Progno­se­system „RADAR-iTE“ („Regel­ba­sierte Analyse poten­ziell destruk­tiver Täter zur Einschät­zung des aktu­ellen Risikos – Isla­mis­ti­scher Terro­rismus“) zielt darauf, indi­vi­du­elle Risi­ko­po­ten­ziale isla­mis­ti­scher Gefährder auf der Grund­lage ihres beob­acht­baren Verhal­tens zu konkre­ti­sieren. Dazu gehört auch nicht direkt kriminalitäts- oder gewalt­re­le­vantes Verhalten: Wichtig sein können etwa neben der Anzahl an und dem zeit­li­chen Abstand zwischen Straf­taten auch die Inte­gra­tion in das Arbeits­leben, Fami­li­en­an­schluss, Erfah­rung mit Waffen usw. Verteilt werden jeweils Plus- und Minus­punkte, ein am Ende ermit­telter Zahlen­wert wird in eine Farb­skala über­setzt, die dann die Gefähr­lich­keits­stufe anzeigt.

Entschei­dend für einen quali­ta­tiven Sprung in Rich­tung auf vorgrei­fende Poli­zei­ar­beit ist die Verknüp­fung: nicht nur die zuneh­mende Vernet­zung der Progno­se­tech­no­logie inner­halb der Polizei(en), sondern auch mit externen Daten­trä­gern und -quellen. Was auch unter dem Begriff der platt­for­mi­sierten Poli­zei­ar­beit (plat­form poli­cing) firmiert, die es erlaubt, Daten unter­schied­li­cher Herkunft und Struktur zusam­men­zu­bringen und von einem zentralen Ort aus zugäng­lich und verknüpfbar zu machen, findet sich in neuen poli­zei­li­chen Soft­ware­ent­wick­lungen und -instal­la­tionen bereits dezi­diert ange­legt. So arbeitet die Polizei Hessens beispiels­weise als erste in Deutsch­land mit der Soft­ware „Gotham“ des US-Unternehmens Palantir. „hessen­DATA“, wie die maßge­schnei­derte Gotham-Version dort heißt, bezieht auch Daten aus Sozialen Medien wie Face­book in die Analyse ein.

Prognosen

Für die Zukunft ist durchaus davon auszu­gehen, dass sich stärker daten­ge­trie­bene und weniger theo­rie­ba­sierte Tech­niken vorher­sa­ge­ori­en­tierter Poli­zei­ar­beit dauer­haft etablieren und weiter ausdif­fe­ren­zieren werden. Dabei kann den derzeit genutzten prognos­ti­schen Soft­ware­lö­sungen eine imma­nente Erwei­te­rungs­ten­denz zuge­schrieben werden, denn das analytisch-technische Poten­zial moderner predic­tive analy­tics ist noch nicht annä­hernd ausge­schöpft. Dies gilt sowohl für die Ebenen der Algo­rithmen (welche und wie viele Theo­rien werden opera­tio­na­li­siert?) und Daten (welche und wie viele Daten werden algo­rith­misch analy­siert?) als auch für das Port­folio der prognos­ti­zierten Delikte. Über­dies ist eine Inte­gra­tion von Daten aus anderen Sicher­heits­tech­no­lo­gien, z.B. (intel­li­genter) Über­wa­chungs­ka­meras, tech­nisch gesehen problemlos möglich. So ist beispiels­weise nicht undenkbar, dass die Daten und Erkennt­nisse, die derzeit im Rahmen des Pilot­pro­jekts „Sicher­heits­bahnhof Berlin Südkreuz“ zur biome­tri­schen Gesichts­er­ken­nung am Berliner Südbahnhof sowie am Haupt­bahnhof in Mann­heim erhoben werden – dies im Rahmen des Projektes „Mann­heimer Weg 2.0“, in dem es um auto­ma­ti­sierte Iden­ti­fi­zie­rung von verdäch­tigem Verhalten durch „muster­ba­sierte Akti­vi­täts­er­ken­nung“ geht –, in Zukunft mit poli­zei­li­cher Progno­se­soft­ware gekop­pelt werden.

Voraus­schau­ende Poli­zei­ar­beit, das gilt es zu betonen, kann durchaus zu mehr Effek­ti­vität bei der Präven­tion und Verfol­gung von Straf­taten beitragen. Ob sie von verhält­nis­mä­ßigem Nutzen ist oder zu einer bestän­digen Auswei­tung poli­zei­li­cher Inter­ven­tion führt, wird auch davon abhängen, wie Polizei und Gesell­schaft mit der Tech­no­logie umgehen. Noch die besten poli­zei­li­chen Vorher­sa­ge­tech­no­lo­gien operieren nur mit Wahr­schein­lich­keiten. Jeder daran anschlie­ßende Verdacht ist inso­fern eben genau das: ein Verdacht, also eine Vorher­sage mit einer rela­tiven, nicht abso­luten Sicher­heit. Einiges wird davon abhängen, welche Daten über­haupt in den Computer einge­speist werden, also ob die Algo­rithmen z.B. einfach die Vorur­teile der Menschen und gesell­schaft­liche Ungleich­heiten repro­du­zieren, und wie trans­pa­rent die Funk­ti­ons­weise der Prädik­ti­ons­ma­schinen gemacht wird und werden kann. Und einiges wird davon abhängen, wie tech­nik­gläubig wir sind: inwie­weit der Mensch der Maschine die Hoheit der Einschät­zung und Beur­tei­lung einer Lage über­gibt.

Datenschutzerklärung