Sammelbesprechung „Predictive Policing“, rezensiert von Holger Plank

Predictive Policing – Sammelbesprechung der folgenden Bände:

Hofmann, Henning[1]: „Predictive Policing. Methodologie, Systemati­sierung und rechtliche Würdigung der algorithmenbasierten Krimi­nalitätsprognose durch die Polizeibehörden.“[2] (Reihe: Internetrecht und Digitale Gesellschaft, Band 23; ISBN: 978-3-428-15374-9, 339 Seiten, Verlag Duncker & Humblot, Berlin, 2020, 89,90 €)

Sommerer[3], Lucia M. (Hrsg.): „Personenbezogenes Predictive Poli­cing. Kriminalwissenschaftliche Untersuchung über die Automa­tisierung der Kriminalprognose“[4] (Reihe: Schriften zur Kriminologie, Band 19; ISBN: 978-3-8487-6233-0, 400 Seiten, Nomos Verlag, Baden-Baden, 2020, 104.- €)

Bode, Felix[5] / Seidensticker, Kai[6] (Hrsg.): “Predictive Policing. Eine Bestandsaufnahme für den deutschsprachigen Raum“[7] (ISBN: 978-3-86676-597-9, 250 Seiten, Verlag für Polizeiwissenschaft, Frankfurt, 2020, 28,90 €)

„Predictive Policing“ (PP), kann man wörtlich als interdisziplinäre „voraus­schauende Polizeiarbeit“ übersetzen.  PP erfolgt i. d. R. auf der Grundlage krimi­nologischer Theorienlehre (zumeist Near-Repeat-Ansatz[8], vgl. unten metho­di­sche Kritik Hofmanns) unter Nutzung algorithmenbasierter „Software zur Ana­lyse historischer Kriminalitätsdaten (meist im Zusammenspiel mit aktuellen, kri­minologisch relevanten Lagedaten – zumindest in den USA durchgängig auch Sozialdaten). Sie soll Prognosen zukünftiger Verbrechensareale[9] oder sogar über zukünftige Straftäter ermöglichen und diese für die (polizeiliche) Einsatzplanung nutzen“.[10] PP ist seit geraumer Zeit, in Deutschland mindestens seit dem Jahr 2010 in Praxis und Wissenschaft in aller Munde. Mitunter euphorisch (unter dem Stichwort „Polizieren der Zukunft“) bei Kriminalpolitik und Polizeibehörden (vgl. Beitrag Rolfes, Sammelband oben 3., S. 217), nicht nur zur Einbruchs­prädiktion, sondern auch bei anderen Deliktsgruppen[11], aber z. B. auch im Rah­men der Analyse und Nutzung von Big-Data Beständen[12], eher verhalten-kritisch in der sozialwissenschaftlichen Literatur, z. T. dogmatisch deutlich ablehnend in der Rechtswissenschaft.[13] Die dem PP-Gedanken in Bezug auf Big-Data Aus­wertungen zugrundeliegende Logik, so bspw. Hofmann (S. 294 f.), laute: „Big Data verheißt sinngemäß auch Big Security“, das entspreche dem modernen „Mantra eines proaktiven, sicherheitsgewährleistenden Staates“ und finde sich dementsprechend auch in Strategien des PP wieder. Es sei aber „weniger ein tech­nischer Quantensprung“, sondern erscheine vielmehr als „zwangslogisches Kon­tinuum einer umfänglichen staatlichen Präventionspolitik.“

Konsequent zu Ende gedacht, verändert PP die Verbrechensaufklärung allerdings elementar. Die klassische detektivische kriminalistische Ermittlerarbeit wird durchbrochen, durch maschinelle Automatismen verdrängt. Der Kriminalist, der Indiz für Indiz sammelt, jedes für sich und alle in Kombination zueinander interpretiert, kommt ggf. in einen Rollenkonflikt. Seine Stärke, die Spuren zu immer neuen Hypothesen zusammenzusetzen, ist nicht mehr gefragt. Humane heuristische und syllogistische Arbeit, die der italienische Historiker Carlo Ginzburg als „Indizien- oder auch Spurenparadigma“[14] bezeichnet, ein durch Spürsinn, Augenmaß und Intuition getragenes diagnostisches Modell für alle am Einzelfall orientierten Wissenschaften, nicht nur für die Kriminalistik, führt als interpretatorischer Akt dazu, in scheinbar nebensächlichen empirischen Daten eine komplexe Realität aufzuspüren, die nicht direkt erfahrbar ist, wird künftig durch algorithmenbasierte Datenanalytik ersetzt. Computergestützte Analytik unterscheidet sich eklatant von der klassischen indiziengeleiteten krimina­listischen Ermittlungstätigkeit. Big Data „erledigt aber nicht nur das Spu­renparadigma, sondern mit dem PP schaltet die Kriminalsitik auch von der Vergangenheits- zur Zukunftsorientierung um.“[15] Die zunehmende Techno­logisierung der Polizei sei ferner auch mit einem kulturellen Transformations­prozess verbunden, der in praxi als auch in der Aus- und Fortbildung noch zu wenig Berücksichtigung finde (vgl. Beitrag von Legros im Sammelband oben 3.).

Dieses Thema wird also seit geraumer Zeit und mit guten Gründen intensiv interdisziplinär beforscht und vielfach kritisch komentiert und begleitet[16]. Die drei jüngsten, sehr ansehnlichen und durchgängig lesenswerten Werke von Hofmann und Sommerer (Monographien, jeweils zugleich Diss. iur.) und der Sammelband der Hrsg. Bode / Seidensticker fassen den aktuellen Diskussionsstand unter ver­schiedenen disziplinären Gesichtspunkten sehr gut zusammen, sodass sich dieser im Rahmen einer Sammelbesprechung unter Bezugnahme auf die jeweiligen Argumentationslinien der einzelnen Autoren*innen sehr gut darstellen lässt.

Hofmann (oben 1.) versucht, bestehende Unschärfen auf verschiedenen Ebenen herauszuarbeiten. Diese bestünden schon auf terminologischer Ebene, insbe­sondere aber auf methodischer[17] Ebene hinsichtlich der theoretischen Grund­lagen, bei der Interpretation der prognostischen Erklärungsmuster und vor allem auch bei der Frage, welches Datenmaterial zu Prognosezwecken verwendet wer­den solle und dürfe. Nicht zuletzt bestehe Unschärfe bei der Antwort auf die Frage, wie durch derartige Prognoseinstrumente Polizeiarbeit beeinflusst werde. Hofmann stellt fest, dass das „karikatureske Werbeversprechen“ rund um ver­fügbare PP-Tools, z. B. in der Headline der LA Times vom 21. August 2010 „stopping crime before it begins“ öffentlichkeitswirksam präsentiert, jedenfalls derzeit immer noch weit überzogen ist. PP sei kein Minority Report[18]. Im Moment existiere zudem keine hinreichende statistische Evidenz, die zweifelsfrei belege, das PP überhaupt zu einem merklichen Kriminalitätsrückgang führe. Dennoch schreiten auch in Deutschland (siehe oben, Fn. 11) die Implementierungsbe­mühungen nahezu ungebrochen voran, so Hofmann verwundert Mediale Berichterstattung und Verheißungen der Industrie klaffen im Gegensatz zu den tatsächlichen technischen Einsatzchancen stark auseinander. Auch wenn – unab­hängig von den gesicherten aktuellen Ergebnissen – PP-Tools vorhandene po­lizeiliche und z. T. „zugekaufte“[19], jeweils überwiegend nicht personenbezogene Informationsbestände automatisiert bündeln, diese auf effektivere Art und Weise in Risikoprognosen ummünzen und somit die taktische Einsatzplanung unter­stützten, handele es sich bei derzeitiger Leistungsfähigkeit der Tools letztlich nur um weiterentwickelte raumbezogene Methoden zur Visualisierung von Krimina­litätsrisiken, die mit der Fixierung von Stecknadeln auf einem Stadtplan („Crime-Mapping“) ihren Anfang nahmen. Allerdings – so jedenfalls in den USA vielfach bereits Standard – wenn das kriminalgeographische, bislang streng räumliche Konzept zur geospatialen Verortung von Wohnungseinbruchsdiebstählen oder inzwischen auch weiteren Delikten der Einbruchskriminalität aufgeweicht werde, anstatt rein räumlicher nun auch individuelle Kriminalitätsrisiken mit signi­fikanter Vehemenz bei der algorithmenbasierten, softwaregestützten Ermittlung personeller Risikofaktoren ermittelt werden sollen, drohe der technische Impetus die rechtliche Entwicklung zu überholen. Damit sei unweigerlich ein staatliches Vordringen in grundrechtlich geschützte Sphären verbunden. Auch wenn nie­mand in Deutschland derzeit von einer derartiger Weiterentwicklung spricht (sehr lesenswert hierzu ist übrigens die Darstellung der Entwicklung der politisch-diskursiven Kommunikation seit 2010 bei Rolfes im Sammelband oben 3., S. 215 ff) oder die umfängliche Einbeziehung personenbezogener Daten zur Prognose­erstellung in PP-Tools vergleichbar mit den USA plant, müsse der Gesetzgeber die Herausforderung aufgreifen, „prädiktiv“ handeln und diesen Prozess in ge­ordnete, die individuellen Freiheitsrechte nachhaltige wahrende Bahnen lenken. Denn, in Anlehnung an Bonson[20] verweist Hofmann auf dessen beachtenswerte, gemessen an ihrer Erstveröffentlichung im Jahr 1967 ebenfalls „prädiktive“ Sentenz „(…) where information rests is where power lies, and (electronically computed) concentration of powers is catastrophically dangereous.“ Durch PP komme es nicht nur zu einer Datenkonzentration auf der Seite des Staates, viel­mehr werde die Konfliktlage durch eine weitere Facette der tiefgründigen Analysemöglichkeiten durch Big Data angereichert (S. 318). Obgleich die Gewährleistung von Sicherheit und Schutz der Bevölkerung zweifellos funda­mentaler Staatszweck[21] sei und durch PP womöglich Kriminalität auch effektiver, nachhaltiger und (irgendwann einmal) wirkungsvoller bekämpft werden könne, verlange die Verfassung eine hinreichende Balance zwischen Freiheit und Sicher­heit. Hofmann plädiert deshalb abschließend für eine gesamtgesellschaftliche Auseinandersetzung über PP. Damit sei wahrscheinlich eine gewisse „Entmysti­fizierung“ des Phänomens und damit – neben der Hervorhebung der potentiellen Einsatzchancen – auch eine sachgerechte Inaugenscheinnahme der Kosten und Risiken verbunden. Zudem schaffe dieser Diskurs eine wachsame Beobachtung der Auswirkungen derartiger staatlicher Datenanalyse und -auswertung auf die Freiheitsrechte der Betroffenen.

Daran schließt Sommerer mit ihrer im Schwerpunkt personenbezogener aus­gerichteten Betrachtung des Phänomens unmittelbar an. Sie (oben 2.) setzt ein­leitend ihre Untersuchung mit einer Interpretation einer Abbildung des Anta­gonismus‘ von Schicksal und Weisheit / Sicherheit bei Petrarch[22] PP semantisch in Bezug zu „der Zähmung des Zufalls“. Sie intendiert derart symbolisch eine die Darstellung einer spezifisch modernen Vereinigung der Erzrivalinnen Fortuna und Sapientia durch algorithmengestützte Vorhersagen im Rahmen des PP in ihrer Arbeit. Ein eindringliches Bild eines über Jahrhunderte hinweg bis heute schein­bar unvereinbaren Gegensatzpaares und eine gut gewählte mythologische Sym­bolik als Einstieg in ihre hervorragende Betrachtung. Wie schon bei Hofmann bildet der narrative Rahmen Verbrechen unterbinden zu können, bevor sie geschehen (S. 352), eine kriminalwissenschaftlich wertvoll, ja verlockende Folie. Ebenso wie Hofmann legt aber auch Sommerer – semantisch vorzüglich aus­gearbeitet und durch vilfältige mythologische Anknüpfungen sehr ansehnlich und daher für eine Diss. iur. sehr lesenwert beispielhaft vergleichend „mythisch aufgeladen“ – großen Wert auf den erforderlichen dogmatischen Antagonisten. Sie mahnt uns mit Blick in die Zukunft beispielhaft anschaulich, nicht fort­schrittsgläubig und unreflektiert blind zu bleiben für die augenblicklich tat­sächlichen Beschränkungen prädiktiver Algorithmen und die Risiken dieser Form der „Unsicherheitsabsorption“ für Gesellschaft und Rechtsstaat. Insbesondere warnt sie davor, dass die Gefährlichkeit eines jeden Bürgers in der algo­rithmischen Wende zu einem entpersonalisierten, abstrakten Dauerzustand werden könnte und plädiert gegen eine Sichtweise vom Menschen als deter­minierten „Rückfallautomaten“ (S. 352). Damit bleibt sie – ihrem Arbeitstitel entsprechend – deutlich stärker im kritischen personenorientierten Ansatz von PP verhaftet. Sie verweist zudem auf hinreichend empirisch belegte kriminologische Evidenzen. Jeder, auch verurteilte Straftäter, habe ein Recht auf einen Neuanfang. Derart angelegt bildet sie über die gesamte Arbeit eine durchgängig erkennbare Klammer zwischen den juristischen (Straf- und Strafprozessrecht) und den nicht-juristischen Kriminalwissenschaften (Kriminalistik und Kriminologie) und bewegt sich so innerhalb der Folie einer „Gesamten Strafrechtswissenschaft“. Diese findet sich abschließend auch sehr gut in der Gliederung ihrer aus den Argumentationslinien ihrer Arbeit heraus entwickelten stattlichen 19 Thesen (S. 353 – 356) wieder. Sie ordnet diese in die Kategorien a. Grundlagen des personen­bezogenen PP (Thesen 1-4), b. Rechtliche Grenzen des personenbezogenen PP (Thesen 5-14) und schließlich c. zur „algorithmischen Wende“ in der Krimi­nalitätskontrolle (Thesen 15-19) im Allgemeinen. Einige ihrer aus dem Inbegriff der Arbeit geschöpften, gut nachvollziehbaren Thesen möchte ich herausgreifen. So ist z. B. aus der Perspektive der Kriminologie vor allem These 18 bedeutsam. Demnach verliere die Disziplin mit dem Ausbau von PP gegenüber den Compu­terwissenschaften an Relevanz, denn Fragen nach Kausalitäten träten hinter bloße Korrelationen zurück. Deshalb müsse sich die Kriminologie detailliert mit Pro­zessen des maschinellen Lernens auseinandersetzen. Eine neue disziplinäre Sub­disziplin, die Autorin findet hierfür den Begriff der „algorithmenkundigen Krimi­nologie“, sei dringend erforderlich. Insofern korrespondiert die Autorin im Grun­de mit der gerade jüngst[23] vielfach bekräftigten Forderung nach einer eigenstän­digen Subdisziplin „Cyberkriminologie“. Kriminalsoziologisch höchst interes­sant finde ich auch den von Hannah Arendt entlehnten philosophischen Gedanken der „selbst auferlegten Gedankenlosigkeit“ der Kriminalitätskontrolle (These 19). Mit PP könne eine Situation hervorgerufen werden, in der der Mensch „das eigene Denken ausblendet und sich, eingebunden in ein hierarchisches System, völlig auf die Entscheidungen anderer, hier bspw. des Algorithmus, verlasse, ohne diese selbst zu hinterfragen oder an eigenen Wertmaßstäben zu messen.“ Rechtlich ka­tegorisiert weitet Sommerer im Gegensatz zu Hofmann den Blick auf die perso­nenorientierte Ausprägung von PP. Sie erkennt bspw. schon heute am Beispiel des „Fluggastdatenmusterabgleichs“ nach dem FlugDaG[24] eine dogmatisch kriti­sche rechtliche Grundlage für PP in Deutschland (These 1). Aber auch in Deut­schland vereinzelt implementierte Programme wie z. B. „Gotham“ von der Fa. Palantir (Fn. 12) oder auch Risikobewertungs-Tools für bestimmte Gefährder, wie z. B. das gemeinsam vom BKA und forensischen Psychologen der Universität Konstanz entwickelte Tool „RADAR-iTE“, könnten als Vorstufen eines perso­nenbezogenen PP betrachtet werden. Derartige Tools verengten zudem u. U. den Entscheidungskorridor von Polizeibeamten*innen in kritischer Weise (These 3 und 4). Es fehle (mit Ausnahme der Grundlage zu These 1) zudem bisher an mit Blick auf das Wesentlichkeitsgebot erforderlichen Rechtsgrundlagen für perso­nenbezogenes PP. Hierin stimmt sie z. B. auch mit Singelnstein / Busch (vgl. deren Beitrag im Sammelband oben 3., S. 261 ff – sie ordnen PP dort im Übrigen als hybrides Modell ein, welches an der Grenze von Polizeirecht und Strafrecht angesiedelt werden müsse) völlig überein. Zudem sei auch die Verwertung von „Treffern“ kritisch zu sehen. Für sich alleine könnte ein solcher keinesfalls die erforderliche Gefahrenabwehrschwelle der „konkreten Gefahr“ oder auch nur einen validen „Gefahrenverdacht“ erzeugen, stelle also nur einen ersten Anhalts­punkt dar, der vor Ergreifen einschneidender sicherheitsbehördlicher Maßnahmen mit weiteren prognostischen Markern verdichtet werden müsse (These 7). Eine humane Leistung, die maschinell noch nicht oder vielleicht auch nie wirklich konsistent und dogmatisch belastbar erbracht werden kann. Vielleicht ist dies zumindest vorübergehend die Rettung des Berufsstandes des „Kriminalisten“, möchte man mit Sommerer unter Bezug auf den oben erwähnten Beitrag von Flender (Fn. 15) anmerken. Außerdem sei es verfassungsrechtlich aus dem Menschenwürdekern des Rechts auf informationelle Selbstbestimmung ent­wickelt dringend geboten, Algorithmen und deren Funktionsweise bei Bedarf vollständig transparent und nachvollziehbar offenzulegen (These 10). Eine ganz wesentliche Voraussetzung, die interdisziplinär immer wieder aufgestellt wird[25] und die als grundlegend angesehen werden muss. Mit einem Verweis auf system­immanente Probleme bei der Verwendung bestimmter Tools in den USA sei ins­besondere wegen des „Minderheitenschutzes“ darauf zu achten, ggf. programm­seitig von Menschen unabsichtlich „transponierte“ Vorurteile im Programm sicher zu erkennen und zu beseitigen (These 11). Die von der Autorin schlüssig herausgearbeiteten Erkenntnisse, Feststellungen und Kritikpunkte zeigen deutlich die Notwendigkeit eines anhaltend kritischen gesamtgesellschaftlichen Diskurses und verlangen nach einer sachgerechten Auflösung beschriebener immanenter dogmatischer, kriminologischer und kriminalistischer Unschärfen.

Abschließend und über die bereits vereinzelten Anmerkungen und Hinweise aus / auf Beiträge(n) im Text oben nun noch kurz zusammenfassend zum Sammel­band von Bode und Seidensticker (Hrsg., siehe oben 3.). Neben dem Vorwort der Hrsg. enthält der Band weitere 16 Aufsätze mit Beiträgen von insgesamt 28 Autoren*innen. Es finden sich gleichermaßen Beiträge von Softwareanbietern[26], von polizeilichen Projektbeteiligten aus verschiedenen Bundesländern[27], dem be­nachbarten Ausland[28] sowie aus der Wissenschaft[29]. Die verschiedenen Perspek­tiven machen die ausgeprägte Interdisziplinarität des Phänomens und die bereits jetzt beachtliche Breite des Diskurses deutlich, die aber durch umfassende Eva­luation bestehender Praktiken noch ausgedehnt werden sollte (Belina, Sammel­band oben 3., S. 16). Schließlich sei „Evidence Based Policing“ in Form per­manenter Überprüfungen und Vergleiche vermeintlich effizienter Methoden heut­zutage der Goldstandard guter Polizeiarbeit.

Sommerer eröffnet und schließt ihrer Arbeit (oben 2.) jeweils mit einem Gegensatzpaar. Da mir ihre Arbeit aus verschiedenen Gründen sowohl semantisch wie auch inhaltlich-fachlich und in der Schlüssigkeit der entwickelten Argumente sehr gut gefällt, will ich mich abschließend auch auf diese, ihre historischen Anta­gonismen beziehen (S. 351 f.). Es mag sein, so ihr Resümee, dass zukünftige Ge­nerationen genauso amüsiert über die kritischen Analysen einer algorithmenge­steuerten Kriminalitätskontrolle im frühen 21. Jahrhundert schmunzeln, wie wir es heute in Bezug auf die Warnungen Platos vor der Technologie des Schreibens oder des Trithemus von den Auswirkungen der Druckerpresse tun. Beide Male plagten die Warnenden Sorgen, dass sich der Kontrollverlust, der mit der systematischen und massenweisen Verlagerung von Wissensproduktion und -speicherung von Individuen auf externe Medien verbunden ist, negativ auf Mensch und Gesellschaft auswirken würde. Ein anderer Teil, vielleicht kleinerer, gerade deshalb aber beachtenswerter Teil zukünftiger Gesellschaften wird u. U. vorwurfsvoller zurückblicken und die Frage stellen, warum keine Sicherungen für Rechtsstaatlichkeit und Grundrechtsschutz in die neue Technologie mit auf­genommen wurden. Reichen im digitalen Zeitalter die traditionellen Werkzeuge des Rechtsstaates aus, um den Status quo bestehenden Grundrechtsschutzes zu bewahren? Aus heutiger Sicht kann man sicher konstatieren, dass bei reinen raum­bezogenen PP-Tools auf der Grundlage anonymisierter polizeilicher Vorgangs­grunddaten ohne zusätzliche Fremddaten und bei entsprechend transparenten Algorithmen im Beschwerdefall die bestehenden Sicherungen ausreichend sind. Spätestens mit der Ausweitung personenbezogener prädiktiver maschineller Automatismen muss man wohl ebenso bestimmt feststellen, dass wohl noch er­heblicher Diskurs- und legislativer Handlungsbedarf besteht. Genügend gute Argumente für letztere Annahme werden in allen drei durchgängig lesenswerten und sehr informativen Werken geboten. Wer sich mit dem nicht mehr ganz neuen Phänomen allgemein oder wissenschaftlich vertieft auseinandersetzen möchte, wird in den Büchern unzählige grundsätzliche Aspekte, Anknüpfungspunkte und sehr aktuelle Literaturhinweise finden, die unbedingt Eingang in die kriminal- und gesellschaftspolitische Debatte über Ausmaß und Reichweite der Entwicklung und Nutzung von Algorithmen finden sollten. Dies ist schon deshalb erforderlich, weil die fortschreitende und sehr dynamische Digitalisierung unserer Umwelt auch bei den Sicherheitsbehörden den nachvollziehbaren Impuls auslöst, zugäng­liche Massendaten mittels automatisierter Analytik (Big-Data-Anwendungen) zur Strafverfolgung, insbesondere aber zur Gefahrenabwehr zu nutzen.

 

Holger Plank, Juli 2020

[1] Dr. iur., Rechtsanwalt in Bremen, Justiziar des Fußball-Bundesligisten SV Werder Bremen.

[2] Inhaltsverzeichnis – vgl. Website des Verlages.

[3] Dr. iur., LL.M. (Yale)

[4] Inhaltsverzeichnis – vgl. Website des Verlages. Die Arbeit wurde 2019 an der Universität Göttingen ausgezeichnet mit dem Appelhagen-Stifterpreis für die beste Dissertation.

[5] Prof. Dr. Felix Bode, lehrt Polizeiwissenschaften und Kriminologie an der Hochschule für Polizei und öffentliche Verwaltung Nordrhein-Westfalen (HSPV NRW), Duisburg.

[6] Kai Seidensticker, M. A., Kriminologe, Kriminalistisch-Kriminologische Forschungsstelle beim LKA NRW

[7] Vgl. Website des Verlages. Vgl. auch Rezension von Laura Struss, Criminologia.de

[8] Das Phänomen der sog. „repeated victimization“ ist in jüngerer Vergangenheit gerade im Zu­sammenhang mit Eigentumsdelikten (Wohnungseinbruchsdiebstahl) in den Fokus der krimi­nologischen Forschung gerückt. Studien weisen darauf hin, dass Individuen, die Opfer einer Gewalttat oder eines Eigentumsdeliktes geworden sind, eine erhöhte Wahrscheinlichkeit auf­weisen, erneut viktimisiert zu werden (z. B. Farrell & Pease, 2001). Die Beachtung dieser Er­kenntnisse hat geholfen, Kriminalitäts-Präventionsstrategien zu konkretisieren, unter anderem, über das den Erkenntnissen zugrundeliegende „Prädiktionspotenzial“, welches in den Bespre­chungsbänden aber z. T. kritisch bewertet wird.

[9] Hier erkennt man Ansätze der „Chicagoer Schule“, durch deren Forschungsbemühungen die Erkenntnis reifte, dass Kriminalität anhand geographischer Komponenten (insbesondere im Zusammenhang mit Umwelt- und sozioökonomischen Faktoren) besser verstanden und damit auch effektiver kontrolliert werden könne.

[10] Eine von zahlreichen Definition zum Thema, in diesem Fall von Knobloch, 2018, S. 9.

[11] In Deutschland jüngst etwa insbesondere im Rahmen der Prognose von Wohnungsein­bruchsdiebstählen in vielen Bundesländern, als eingekaufte und im Einsatz fortentwickelte Software, etwa in Bayern (Precobs) oder als polizeiliche Eigenentwicklungen, wie z. B. in NRW (SKALA), in Niedersachsen (PreMAP), in Hessen (KLB-operativ), in Berlin (KrimPro) oder in Hamburg, wo die softwaregestützten prediktiven Bemühungen in Sachen Einbruchskri­minalität inzwischen aber mangels Erfolgsaussicht eingestellt worden sind (vgl. Projektbericht „Prädiktionspotenzial schwere Einbruchskriminalität“, LKA Hamburg, 2019). In Hamburg gelangte man bspw. zu der Auffassung, dass sich die Umsetzung des Near-Repeat-Phänomens in Algorithmen im polizeilichen Alltag aufgrund der für eine Großstadt typischen engen räumlich-zeitlichen Tatkonzentration bei der Einbruchskriminalität und einer gemessen an diesen raum-zeitlichen Parametern unzureichenden polizeilichen Datenlage nur bedingt eigne (vgl. auch Beitrag von Hauber et al. im Sammelband oben 3.). Die Erzeugung und Qua­litätssicherung der für PP-Modelle erforderlichen polizeilichen Datenlage wird sehr schön im Beitrag von Schneider et al. im Sammelband oben 3. am Beispiel des sehr frühen Mo­dellprojekts der Züricher Polizei herausgearbeitet und führte z. B. zur mit hohem finanziellen Aufwand verbundenen personenbezogenen Ausstattung der Streifenbeamten mit Tablets, über die die erforderlichen Vorgangsgrunddaten bereits bei der Anzeigenaufnahme vor Ort ein­gegeben und zur Verarbeitung an den polizeilichen Zentralserver übermittelt werden können. Zur Entwicklung und sicherheitspolitischen Debatte rund um PP vgl. Beitrag Rolfes (zur Person, Fn. 29) im Sammelband oben 3.

[12] Software „Gotham“ der Fa. Palantir, im Einsatz in Hessen und NRW.

[13] Vgl. z. B. nur Egbert, Abschlussbericht „Predictive Policing. Eine ethnographische Studie neuer Technologien zur Vorhersage von Straftaten und ihre Folgen für die polizeiliche Praxis“ der Universität Hamburg, WiSo, Fachbereich Sozialwissenschaften, Kriminologische Sozial­forschung, vom 30.04.2019.

[14] Ginzburg, Spurensicherung, 4. Aufl., 2011, S. 36ff.

[15] Das hier angedeutete Dilemma beschreibt der Autor Wolfgang Flender sehr schön in seinem Gastbeitrag „Das Ende von Verstand und Spürsinn“ in der Süddeutschen Zeitung vom 15.04.2020 und prognostiziert – in seinem Genre – für die Kriminalliteratur „eine Zeitenwende“.

[16] Z. B. im Rahmen einer kritischen Evaluation am Beispiel des Einsatzes der Software Precobs im Land Baden-Württemberg durch das Max-Planck-Institut zur Erforschung von Kriminalität, Sicherheit und Recht, Freiburg, 2018, die letztlich zur Aussetzung des Projektes bei der Polizei in BW führte.

[17] Hofmann greift auf das grundlegende Modell von Perry et al., 2013 (vierstufige Funktions­matrix) zurück.

[18] Titel einer Kurzgeschichte des US-amerikanischen Science-Fiction-Autors Philip K. Dick aus dem Jahr 1956. Die Geschichte spielt in der Zukunft nach einem globalen Krieg. John Anderton ist der erfolgreiche Chef von Prä-Verbrechen, einer speziellen staatlichen Polizei­organisation. Mithilfe dreier Mutanten, sogenannter „Präkogs“, bei denen in früher Kindheit die Fähigkeit zu „Präkognition“ entdeckt wurde, sieht er „Prä-Verbrechen“ (zukünftige Ver­brechen) voraus und inhaftiert die „Täter“ noch vor der Tatausübung (vgl. Wikipedia, zuletzt abgerufen am 18.07.2020).

[19] Anonymisierte Sozialdaten der Städte, vgl. z. B. Evaluationsbericht des Projektes SKALA in NRW vom 30.04.2018, S. 71, 78.

[20] Zitiert in Westin, „Privacy and Freedom“, 1967, S. 299

[21] BVerfGE 115, 320 (358), Rn. 127 ff.

[22] Ders., Des Remèdes de l‘une et l’autre fortune prospère et adverse, Paris, 1524, Abb. Fortuna und Sapientia, S. 17 des Digitalisates der Bayerischen StaatsBibiliothek.

[23] Vgl. z. B. nur die Beiträge des 2020 erschienenen Sammelbandes „Cyberkriminologie“, siehe Besprechung im PNL vom 18.04.2020.

[24] Vgl. § 4 des Gesetzes über die Verarbeitung von Fluggastdaten zur Umsetzung der Richtlinie (EU) 2016/681 (Fluggastdatengesetz).

[25] Vgl. z. B. nur Zweig, 2019.

[26] Bspw. von Thomas Schweer, einem der Mitbegründer des Instituts für musterbasierte Pro­gnosetechnik (IfmPt), welcher mit einem Partner die weiter oben erwähnte Software „Precobs“ entwickelt hat oder von Kai Hartmann vom IT-Dienstleister Capgemini, der sich mit der Digitalisierung der Polizeiarbeit beschäftigt.

[27] So z. B. von Günter Okon (ehemals Bayerisches Landeskriminalamt – Einführungsverant­wortlicher der Software Precobs an den Modellstandorten München und Nürnberg; Alexander Gluba (LKA Nds. – Begleiter des Projektes PreMap); Mathias Berthold (LKA NRW) und Dr. Christian Erzberger (Gesellschaft für innovative Sozialforschung und Sozialplanung e. V./GISS-EV, Bremen) im Rahmen der Evaluation des Projekts SKALA in NRW.

[28] Schneider / Leutenberger zum sehr frühen Pilotprojekt mit der Software „Precogs“, heute „Precobs“ in Zürich, Schweiz.

[29] Etwa ein bewusst polemisch formuliertes Statement von Prof. Dr. Belina, oder Prof. Dr. Singelnstein / Johannes Busch von der Ruhr-Universität Bochum zu den rechtlichen Grenzen für PP bzw. Prof. Dr. Manfred Rolfes von der Universität Potsdam zu den politischen Debatten rund um PP.