La Commissione europea ha approvato un regime di aiuti di Stato da 612 milioni di…
Investigazioni predittive. Intervista alla Prof.ssa Antonia Marandola

La Prof.ssa Antonia Marandola è Professore ordinario di Diritto processuale penale presso il Dipartimento di Diritto, Economia, Management e Metodi quantitativi dell’ Università degli Studi del Sannio. Già professore ordinario di Diritto processuale penale presso la Facoltà di Giurisprudenza della Libera Università del Mediterraneo Jean Monnet di Casamassima.
Componente del Consiglio Direttivo del Centro per la Storia della Giustizia Criminale, del Comitato Scientifico dell’Osservatorio nazionale AIGA sulle Carceri. Membro del CESP -Centro europeo studi penitenziari da novembre 2022. In data 23 marzo 2023 è stata audita in qualità di esperta dalla 2 Commissione Giustizia del Senato nell’ambito dell’Indagine conoscitiva in tema di intercettazioni telefoniche.
Infine, è componente del comitato scientifico del portale ILPENALISTA.IT, Giuffrè editore, Milano, membro del comitato scientifico della Rivista La parola alla difesa, Pacini Editore e del comitato scientifico della Rivista Diritto penale e processo, Wolters Kluwer, Ipsoa, Milano.
La Prof.ssa Antonia Marandola
Nell’ambito dell’impiego dell’I.A. nel settore penale per la prevenzione e la sicurezza pubblica, ad oggi abbiamo delle casistiche di riferimento di successo?
Si, certamente. E’ da tempo che le autorità impiegano, accanto alle diverse banche dati in gestione da parte delle forze dell’ordine (SARI, AFIS, EURODAC O SGA), anche dei software come il KeyCrime e il software X Law hanno rivelato grandi potenzialità e un’ampia efficacia applicativa.
Così l’uso di Xlaw, a detta del suo ideatore, comporta una riduzione del 39% dei reati predatori (furti, scippi, rapine, truffe agli anziani), mentre il KeyCrime una riduzione del 50 % dei crimini.
Approfondirebbe con noi il software KeyCrime e il suo utilizzo in Italia da parte della polizia, è effettivamente una nuova forma di tutela il suo uso?
Certamente non si può negare che l’uso della tecnologia e della I.A. rappresenta, ormai, una realtà di larga e forte applicazione. Il software KeyCrime, invece di utilizzare la hotspot analysis per prevedere in quale area della città potrebbero avvenire dei crimini, così come fa il software X Law, tende a prevedere dove, come e quando le attività criminali seriali possono essere compiute. La caratteristica di KeyCrime è quella di analizzare un numero sterminato di dati (dove si sono compiute le rapine, a che ora, in che modo, come si sono comportati i rapinatori, che mezzi e armi hanno usato, come erano vestiti e molto altro ancora) per mettere in correlazione diversi crimini e determinare quali sono stati compiuti dalla stessa persona o gruppo di persone. È il crime linking, quindi, l’aspetto fondamentale del software. In altri termini, KeyCrime opera in due fasi: in un primo momento, attraverso l’algoritmo viene astratta la serie criminale, secondo la capacità predittiva e solo in un secondo momento è in grado di prevedere statisticamente quando e dove potrebbe compiere la nuova attività criminale (seriale).
Quali sono i grandi rischi connessi all’uso di software come KeyCrime o alla più semplice manipolazione di dati sensibili per investigazioni predittive?
Questo tipo di trattamento dei dati soffre di difetti ineludibili che pongono grandi rischi per i diritti e le libertà delle persone: falsi positivi, risultati discriminatori, processi opachi o, talvolta, impossibili da contestare e, dunque, non sempre in grado di assicurare quella verificabilità che è perno del nostro sistema processuale. Dall’altro si è già constatato come questi sistemi comportino una particolare attenzione e presenza delle forze di polizia in alcune zone del territorio controllato (e, diremmo, maggiormente “mappato”) rispetto ad altre. Al pari di altre esperienze già avviate lungamente in Paesi stranieri, anche in Italia si sono riscontrate alcune deficienze tipiche, legate alla modalità di raccolta dei dati elaborati, natura e carattere dei dati inseriti nelle banche dati che, troppo spesso avviene in modo generalizzato ovvero utilizzando i vasti archivi di dati personali e biometrici a disposizione delle diverse forze dell’ordine e di polizia. Tuttavia, va ricordato come X Law è stato, ad ottobre scorso, oggetto di brevettazione: è questo un passaggio che direi fondamentale, non soltanto per la verificabilità, in parte, del suo sistema di funzionamento che è uno degli aspetti critici legati all’impiego dell’IA, ma anche per l’affidabilità che tale “passaggio” rappresenta.
In tal senso, in Italia a che punto siamo per l’uso e le relative tutele riguardo l’utilizzo del riconoscimento facciale?
Per quanto guarda il riconoscimento facciale è dal 2017 che gli organi di polizia, impiegano il sistema automatico di riconoscimento delle immagini (S.A.R.I.). Il suo uso è ampio. Essa costituisce una delle complesse dotazioni tecnologiche a disposizione della polizia per la sorveglianza a fini di sicurezza ed un valido supporto per le attività investigative. Quando parliamo di riconoscimento facciale va, però, ricordato che il Garante per la protezione dei dati personali non ha espresso un parere favorevole circa l’utilizzo del sistema Sari Real Time da parte del Ministero dell’interno. Il riconoscimento può, infatti, avvenire attraverso il sistema Enterprise e il Real-time. Nella prima modalità, l’operatore ricerca l’identità di un volto statisticamente raffigurato all’interno di una banca dati di grandi dimensioni individuata nella piattaforma A.F.I.S. – S.S.A. (Automated finger-print identification system), ovvero il Sistema automatizzato di identificazione delle impronte digitali integrata dal sottosistema S.S.A., contenente le foto segnaletiche dei pregiudicati, i dati anagrafici e le informazioni riguardanti i loro dati biometrici, acquisiti in sede di foto-segnalamento. L’immagine fotografica è, poi, filtrata e processata in pochi istanti con il volto di milioni di soggetti schedati attraverso le impronte facciali elaborate dal software. La modalità Real time, invece, permette l’analisi automatica, in tempo reale, di volti ripresi in più flussi video live provenienti dalle telecamere installate nella medesima area. Ebbene, in quest’ultimo caso, l’Autorità garante ha non soltanto indicato come il sistema è privo di una base giuridica che legittimi il trattamento automatizzato dei dati biometrici per il riconoscimento facciale a fini di sicurezza, ma esso realizzerebbe per come è progettato una forma di sorveglianza indiscriminata/di massa. Il Sari Real Time realizzerebbe un trattamento automatizzato su larga scala che può riguardare anche persone presenti a manifestazioni politiche e sociali, che non sono oggetto di “attenzione” da parte delle forze di Polizia. Il Garante, in linea con quanto stabilito dal Consiglio d’Europa, ritiene di estrema delicatezza l’utilizzo di tecnologie di riconoscimento facciale per finalità di prevenzione e repressione dei reati. E’ sulla scorta di tali condivisibili osservazioni che la L. n. 205 del 2021 ha sospeso fino al 31 dicembre 2023 l’installazione e l’utilizzazione di impianti di video sorveglianza con riconoscimento facciale, attraverso l’uso dei dati biometrici di cui all’articolo 4, numero 14), del regolamento (UE) 2016/679 in luoghi pubblici o aperti al pubblico, da parte delle autorità pubbliche o di soggetti privati, tuttavia, il testo prevede un’eccezione – comma 12 del provvedimento- per cui il divieto non si applica “ai trattamenti ( ergo, ai dati personali per il riconoscimento biometrico) effettuati dalle autorità competenti a fini di prevenzione e repressione dei reati o di esecuzione di sanzioni penali di cui al d. lgs. 18 maggio 2018, n. 51, in presenza, salvo che si tratti di trattamenti effettuati dall’autorità giudiziaria nell’esercizio delle funzioni giurisdizionali nonché di quelle giudiziarie del pubblico ministero. Nonostante tale distinzione e il fatto che l’Italia vanti una copiosa normativa in materia di privacy è assolutamente necessario che il legislatore intervenga prontamente per strutturare una puntuale ed adeguata base normativa a tale attività, che tenga in debito conto i diritti e le libertà individuali coinvolte, definendo le specifiche situazioni in cui è possibile l’uso di tali sistemi.
Nel dibattito delle indagini informatiche, quali sono, secondo Lei, le più importanti domande da porci in merito alla convivenza tra i diritti e garanzie fondamentali dell’accusato, e la formulazione di una prova digitale che può non rispettare i valori costituzionali e di integrità del l. n. 48 del 2008 ?
La ringrazio per la domanda. In verità, l’intero procedimento e processo penale sono oggi pervasi, parallelamente alla nostra vita quotidiana, da prove tecniche ed informatiche che, in un primo momento, la legge da lei citata è riuscita, seppur in parte, a regolare. Assicurando genuinità ed affidabilità del dato unitamente all’esercizio dei diritti di difesa quella legge non trova, tuttavia, una sua necessaria evoluzione nel secondo protocollo della Convenzione di Budapest, firmato dall’Italia che non pare, su punto, offrire in adeguato standard di tutele. Al riguardo si attesta una forte arretratezza della politica e del legislatore a perimetrare, regolamentare e definire con puntualità i diritti dei singoli coinvolti e le modalità di acquisizione, assunzione e utilizzo di tali elementi nel corso delle indagini. Fatta eccezione per le intercettazioni e le perquisizioni telematiche, il codice di procedura penale quale fonte che tratteggia attraverso le norme il corretto bilanciamento fra la necessaria attività di accertamento (degli ipotetici) fatti di reato da parte dell’autorità giudiziaria e le garanzie e diritti di cui ogni individuo è portatore è fortemente silente. Si pensi all’impiego dei diversi troyan, ai sequestri dei telefonini, al controllo satellitare, alla videosorveglianza e all’uso più avanzato dei criptotelefonini. Ebbene la legge nulla dispone al riguardo e si deve alla giurisprudenza più illuminata la ricerca di quel punto di equilibrio spesso identificato nella genuinità, pertinenza, rilevanza proporzionalità dell’attività. Quest’ultima appare capace di articolare soluzioni applicative in linea con i valori e principi costituzionali e sovranazionali, ma è chiaro che occorre sul punto un immediato, chiaro e puntuale intervento normativo, che operi a vasto raggio garantendo il “controllo delle nuove tecnologie”. Sotto tale aspetto, è innegabile un elevato salto di qualità di tale gestione da parte delle forze dell’ordine e degli organi inquirenti ma occorre che il legislatore intervenga nuovamente a regolare la disciplina anche nel corso delle indagini preliminari, non già per evitare abusi, quanto piuttosto per fornire agli operatori e alla magistratura dei percorsi procedurali che gli consentano di svolgere in piena coerenza e nel rispetto dei diritti dei singoli le suddette attività. Per quanto il nostro Paese abbia firmato il 15 febbraio 2022 il secondo protocollo addizionale alla Convenzione di Budapest, esso contiene esigue previsioni procedurali, va ancora ratificato e la strada appare fortemente in salita. Deve, peraltro, considerarsi che a breve l’Italia sarà chiamata a dare attuazione alla Direttiva sulla prova elettronica europea e che l’attività della polizia e della magistratura è oggi sempre più chiamata a confrontarsi con la continua espansione e sviluppo di attività criminali che agiscono nell’ambito di contesti immateriali ( sempre più esteso e criptato). E’, allora, assolutamente necessario che la politica muova a configurare anche in quell’ambito la sfera di libertà e garanzia spettante agli individui, ma anche gli “spazi di azione”, anche sovranazionali, spettanti alla magistratura inquirente, oltre a predisporre dei mezzi e strumenti “pubblici” d’azione, affinchè non si ricorra a società private non sempre in grado di assicurare quelle qualità che la disciplina processuale pretende.