Comprendere la polizia predittiva: cos’è e come funziona

“Signor Marks in nome della sezione precrimine di Washington D.C. la dichiaro in arresto per il futuro omicidio di Sarah Marks e Donald Dubin che avrebbe dovuto avere luogo oggi 22 aprile alle ore 8 e 04 minuti”.

Dal film: “Minority Report”, di Steven Spielberg

Un complesso sistema chiamato Precrimine (un cocktail tra computers e umani con poteri extrasensoriali) riesce a prevedere i crimini ancor prima del loro accadimento, aiutando così la polizia ad arrestare i presunti colpevoli, punendo di fatto la sola intenzione di consumare il fatto, ma non che lo stesso sia mai consumato!

Siamo nella Washington del 2054, e questa è la trama di un film

Nel mondo interconnesso e intelligente che ha sviluppato gli attuali modelli di progettazione delle smart city (aree urbane ben definite capaci di implementare le soluzioni tecnologiche ai bisogni della cittadinanza), una condizione fondamentale per l’elaborazione di strategie efficienti con previsioni attendibili, da parte dei software predittivi per il contrasto della criminalità, è rappresentata dalla disponibilità di una enorme quantità di dati, informazioni raccolte e analizzate poi (possibilmente anche in realtime) da sistemi predittivi; di questi dati, una parte interessante viene già catturata tramite l’utilizzo della sensoristica in campo (videosorveglianza, microfoni ambientali, sensori di misura, etc), raffigurata fisicamente dai device IoT (Internet of Things).

Ebbene proprio in questo contesto i sociologi hanno osservato come la crescita del fenomeno delle città intelligenti si stia riflettendo sulla sperimentazione delle tecniche di polizia predittiva.

Se, da un lato, una smart city permette di incrementare i Big Data a disposizione dei software predittivi destinati alle operazioni di polizia, dall’altro, questi ultimi, ne condividono la strategica capacità, l’indubbia efficienza nella prevenzione e nel contrasto della criminalità.

Un inciso: i software di analisi predittiva da sempre aiutano le aziende nell’anticipare le condizioni di quel mercato piuttosto che il trend di quel settore merceologico, aiutando di fatto i loro fatturati; ma soprattutto, con l’estrazione e l’analisi di dati aggregati incidono positivamente sulla rete vendita, sui clienti, sui bilanci societari.

Ora, tornando al tema centrale: possono le forze di polizia utilizzare i “Big Data” come strumento di analisi per migliorare l’efficienza dei propri compiti istituzionali e dei risultati attesi?

Ma cos’è realmente la polizia predittiva?

Lo strumento tecnologico della predictive policing, perché in buona sostanza di questo si tratta, è rappresentato dall’analisi dei dati acquisiti dalle fonti più disparate, quindi utilizzandone i risultati si può tentare, con le dovute cautele, di prevenire e rispondere nella maniera più favorevole possibile al contenimento della consumazione di probabili attività illecite.

L’idea di anticipare propositi criminosi piuttosto che rispondere semplicemente ad essi, risale agli anni 2000, quando il “the Office of Justice Assistance” in collaborazione al “Los Angeles Police Department” tennero il “Predictive Policing Symposium per approfondire questa avveniristica idea, e il suo impatto sul futuro professionale degli stessi operatori.

Un simposio che vide il fattivo coinvolgimento di ricercatori, criminologi, sociologi, specialisti del diritto, funzionari di diversi dipartimenti di polizia, coralmente impegnati nell’esplorare le possibili implicazioni politiche, la violazione dei diritti civili, l’impatto sulla sfera privacy, sul trattamento dei dati personali, che la tecnologia dell’investigazione predittiva potesse generare.

Inoltre, un ulteriore pericolo di queste metodologie da non sottovalutare fu correlato direttamente all’uso di processi matematici, appunto predittivi ed analitici, utilizzati nelle attività di polizia per mettere in luce qualsiasi potenziale attività criminale; metodi, peraltro, che ricadono all’interno di svariate categorie di servizio: previsione dei reati, previsione dei colpevoli e/o la loro identità, classificazione delle vittime di un reato.

Del resto, se riflettiamo attentamente, per prevenire un qualcosa bisogna anzitutto prevederlo, dunque, quale migliore aiuto di quello dato dai modelli matematici, dagli algoritmi specializzati, dall’intelligenza artificiale, tutti ingredienti contenuti, appunto, in specializzati software di analisi predittiva.

Tuttavia, questa “anticipazione analitica” rischia però di spostare troppo le forze dell’ordine dal concentrarsi su ciò che è accaduto verso cosa potrebbe accadere, rischiando di distribuire, e con scarsa efficacia, le risorse umane sul fronte del contrasto al crimine, trasformandone negativamente i risultati.

Charlie Beck, Chief of Los Angeles Police Department, sottolineava positivamente da sempre l’uso delle tecniche predittive nella scoperta dei reati, infatti l’esame analitico di determinati dati hanno ben aiutato i funzionari del suo dipartimento nell’anticipare con precisione taluni eventi criminosi.

Nello stesso tempo, però, metteva in guardia tutti dall’uso distorto di queste metodologie, che non vanno mai intese, o ancor peggio confuse, come la sostituzione futura di tutte le tecniche investigative di polizia collaudate e certificate ex lege, ovverosia, quelle procedure codificate basate sull’evidenza dei fatti, il riscontro probatorio, sulle analisi di intelligence.

Quanto detto fin qui ci porta allora ad una prima interrogativa riflessione: questa tecnica è davvero un modello di polizia e di sicurezza affidabile, o piuttosto il reale mutamento verso il mondo futuristico e violento del Judge Dredd?

Tuttavia, quanto detto fin qui ci spinge ad una ulteriore considerazione, vale a dire, come nel dominio della pubblica sicurezza l’uso dell’intelligenza artificiale, per la previsione in realtime di plausibili attività illecite, rappresenti oggi una priorità molto sentita anche all’interno della comunità scientifica, impegnata da sempre nello sviluppare modelli statistici in un crescendo di efficacia e affidabilità.

Modelli di algoritmi sviluppati con una capacità di analisi concentrata essenzialmente su due principali obiettivi: l’individuazione in primis del luogo e del momento di una probabile azione criminale, indirizzandosi successivamente poi sulle cause e le possibili vittime.

Per far ciò, la maggior parte dei progetti di predictive policing utilizzano informazioni storicizzate, ma riferite a dati certi e disponibili, calibrate su accadimenti non troppo lontani, che opportunamente analizzate con specifiche tecnologie, possono delineare, prevenire, individuare, il trend di particolari comportamenti criminogeni.

Ad esempio, una tecnica di machine learning, utilizzando dati e algoritmi statistici, ci permetterà di creare modelli heat maps necessari per poter comprendere il possibile momento temporale di un accadimento violento in luoghi che, secondo calcoli matematici, saranno gli scenari ideali (crime mapping) degli eventi; peraltro, proprio su tali previsioni si potranno modellare i mirati servizi di controllo, su territori classificati ad “alto rischio”.

Altro esempio di modello computazionale è rappresentato dal risk terrain modeling (RTM), software specializzato nella previsione di possibili attività di spaccio di sostanze stupefacenti circoscritte a determinati territori urbani.

Anche in Italia, da molto tempo, diversi operatori della pubblica sicurezza si stanno impegnando nella progettazione diretta di sistemi intelligenti a supporto dei vari uffici investigativi, nell’attenta opera di prevenzione dei crimini e del controllo del territorio, per contrastare tutti i possibili fenomeni di assembramenti violenti, con un focus particolare su quella predatoria, molto più diffusa, e per l’allarme sociale che ingenera.

Dal 2007 ad oggi sono stati sviluppati e impiegati dai nostri funzionari di polizia due software in particolare, operativi in diverse città italiane: il Key Crime, utilizzato dalla Questura di Milano, e l’altro, XLaw, un programma sviluppato specificatamente per la classe dei reati predatori, sperimentato dapprima dalla Questura di Napoli su alcuni quartieri, ma successivamente esteso ai territori urbani più ampi, come le città di Prato, Salerno, Venezia, Modena, Parma.

Abbiamo visto fin qui tutte le principali caratteristiche di questa metodologia di predire possibili atti violenti, o nel dare delle valide informazioni desunte dalle analisi video della videosorveglianza urbana, informazioni queste piuttosto utili alla polizia locale per poter prevenire, ad esempio, possibili raduni rave, attività queste tipiche della sicurezza urbana, anche se con possibili risvolti di ordine e sicurezza pubblica, ma sempre del tutto illegali.

Pur tuttavia, questa fattiva attività analitica costituita da metodi, tecnologie e algoritmi, anche quando potenzialmente utili alle forze dell’ordine, genera un ulteriore interrogativo: quale valore avranno in sede giudiziaria le informazioni raccolte tramite i “tools” di predictive policing?

Peraltro, questi strumenti di polizia predittiva, ma in linea di principio tutti i sistemi di intelligenza artificiale legati al settore, ad oggi non sono stati ancora oggetto di una specifica regolamentazione, sia nell’uso che nella validazione, delegando piuttosto condizioni e modalità d’impiego, nonché la valutazione e il probabile valore giuridico dei risultati assunti, alle abituali procedure operative quando non addirittura alle analisi del singolo operatore di polizia.

Invero, un primo approccio regolamentorio c’è stato il 3 dicembre 2018 mediante l’adozione della Carta Etica Europea “sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi adottata dalla CEPEJ (commissione europea per l’efficacia della giustizia).

Una Carta, tipico documento di soft law, che mette in luce, fissandoli, cinque principi cardinali che dovranno rappresentare una cornice imprescindibile sulla futura disciplina della materia: il rispetto dei diritti fondamentali, il principio di non discriminazione, il principio di qualità e sicurezza dei dati e delle decisioni giudiziarie, il principio di trasparenza e imparzialità e la possibilità di controllo da parte dell’utente.

Successivamente, poi, un ulteriore passaggio sul tema è datato 21 aprile 2021, quando la Commissione Europea presentò la proposta di Regolamento del Parlamento europeo e del Consiglio “che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’unione”.

La proposta non vuole ordinare in se l’intelligenza artificiale, in quanto tale, quanto piuttosto l’utilizzo nell’ambito UE di sistemi logici che contengono tecnologie fortemente impattanti la sfera privacy e la protezione dei dati personali per mezzo di software e di sistemi informatici intelligenti che dovranno, invece, far riferimento al data protection reform package, costituito nel Regolamento UE 2016/679 (GDPR) e nella Direttiva UE 2016/680 (direttiva considerata lex specialis).

Appare evidente come l’impiego di software predittivi nelle attività di polizia di prevenzione, ma particolarmente in quella giudiziaria laddove utilizzati per individuare una responsabilità penale, non potrà certo costituire l’unico elemento basilare su cui poggerà poi il dispositivo decisionale finale in sede di giudizio.

E questo è ancora più vero quando in gioco c’è la libertà personale dell’imputato, diritto imprescindibile protetto e garantito dalle Carte europee sui diritti fondamentali dell’uomo (artt. 5, 6, 8 CEDU – art. 6 CDFUE).

Del resto, già all’interno dell’art. 192, comma 2 CCP è stabilito che “l’esistenza di un fatto non può essere desunta da indizi a meno che questi siano gravi, precisi e concordanti”; dunque, è del tutto pacifico come qualsiasi output del software dovrà essere considerato come uno dei tanti elementi che potranno formare un giudizio di responsabilità penale.

Non va dimenticato, inoltre, che qualsiasi risultato scaturito dall’analisi investigativa predittiva dovrà essere sempre assunto nel pieno rispetto dei vincoli imposti dal codice di procedura penale (artt. 191 e 220), con prove ben delineate all’interno della cornice imposta dalla locuzione “al di là di ogni ragionevole dubbio” (art.533), una prerogativa di ragionevolezza che difficilmente sarà rinvenibile all’interno delle pieghe di un qualsiasi algoritmo, ancor meno computabile con metodologia statistica.

Si badi bene, però, che la stretta sinergia che si vorrebbe creare tra smart city e predictive policing, la cui genesi parte da una premessa comune, ovverosia, dall’esperimento di rendere una città lo strumento a disposizione di complesse “esperienze” informatico/matematiche legate al calcolo statistico, argomenti dogmatici molto spinosi.

Infine, le verosimili conseguenze fin qui analizzate come possibile incidenza negativa sui principi costituzionali del nostro diritto penale, meritano certamente una profonda e ragionata analisi del binomio applicativo tra città intelligente e modelli di polizia predittiva, perché anche a fronte di possibili e innegabili vantaggi, in termini di efficacia sociale del progetto e di prevenzione/repressione dei reati, ebbene, ci si dovrà misurare con un tema molto spigoloso: quello del pregiudizio algoritmico, pregiudiziale già centrale nella critica dei sistemi di sicurezza della video facial recognition.

Articolo a cura di Giovanni Villarosa

Profilo Autore

Giovanni Villarosa, laureato in scienze della sicurezza e intelligence, senior security manager, con estensione al DM 269/2010, master STE-SDI in sistemi e tecnologie elettroniche per la sicurezza, difesa e intelligence.

Condividi sui Social Network:

Articoli simili