skip to Main Content

Ambiti, soluzioni e sviluppi del rapporto tra diritto penale e intelligenza artificiale. Le prospettive di riforma della responsabilità penale in ambito sanitario. Intervista al Prof. Avv. Cristiano Cupelli

Cristiano Cupelli Professore ordinario di diritto penale presso l’Università di Roma “Tor Vergata”. E’ docente di “Diritto penale 2” e “Diritto penale dell’economia” presso la Scuola Allievi Ufficiali dell’Arma dei Carabinieri ed è titolare del contratto di insegnamento della materia “Diritto penale dell’ambiente” presso il Dipartimento di Giurisprudenza dell’Università “Luiss Guido Carli” di Roma.

Avvocato dal 2001, ha conseguito il titolo di dottore di ricerca presso la Facoltà di Giurisprudenza dell’Università degli studi di Napoli “Federico II” nel 2003 e si è specializzato in “Diritto e procedura penale” presso l’Università “La Sapienza” di Roma nel 2004.

Ha partecipato, in qualità di relatore, a numerosi convegni ed incontri di studio nazionali ed internazionali. È autore di pubblicazioni e saggi in ambito penalistico, con particolare riferimento al principio di legalità, ai rapporti tra diritto penale e UE, alla responsabilità penale in ambito sanitario, alla responsabilità delle persone giuridiche, alla tutela penale in ambito agroalimentare e ai delitti contro la pubblica amministrazione, la libertà personale e la famiglia.

 

Il Prof. Avv. Cristiano Cupelli

 

 

Come mai il rapporto tra IA e scienza penale è destinato ad una fase di sviluppo sul piano legislativo?

Come dimostra il dibattito degli ultimi giorni sviluppatosi intorno a potenzialità, limiti e rischi di ChatGPT, l’intelligenza artificiale permea ormai settori sempre più estesi della nostra quotidianità, favorendo l’inevitabile insorgere di questioni giuridiche, che finiscono per coinvolgere anche il diritto penale, la branca del diritto storicamente più refrattaria all’apertura ai nuovi saperi e, in particolare, alle innovazioni tecnologiche. Proprio per questo, il rapporto tra IA e scienza penale mi sembra destinato a una vorticosa fase di sviluppo, non foss’altro che per colmare il ritardo accumulato, tanto sul piano della riflessione teorica, quanto su quello legislativo. Una conferma di questo fermento anche normativo la si può trarre, d’altra parte, da due recenti provvedimenti di matrice sovranazionale: la risoluzione del Parlamento europeo dello scorso ottobre sull’utilizzo della IA da parte delle autorità di polizia e giudiziarie in ambito penale, e il c.d. AI Act, una proposta di regolamento europeo che stabilisce regole armonizzate sull’intelligenza artificiale.

 

Quali sono gli ambiti all’interno dei quali le IA possono impattare in maniera significativa sulla tutela dei beni giuridici affidati al diritto penale?

Moltissimi. Provando a schematizzare al massimo, possiamo individuare quattro macroaree: a) le attività di law enforcement (si pensi alle macchine utilizzate dalle forze di polizia, per lo più in via sperimentale, per compiti come pattugliamento, sorveglianza, disinnesco di bombe, riconoscimento facciale, ecc.) e di giustizia predittiva (tecnologie che hanno lo scopo di ‘‘predire’’ chi potrà commettere un reato o dove e quando potrà essere commesso un reato, al fine di prevenire la commissione di illeciti); b) il possibile impiego di algoritmi decisionali, dopo una sperimentazione per la decisione di liti civili o di contenziosi amministrativi, anche in ambito penale; c) l’uso di c.d. algoritmi predittivi (risk assessment tools) per la valutazione, in senso ampio, della pericolosità criminale ai fini dell’applicazione di una misura di sicurezza, di una misura cautelare o di una misura di prevenzione o anche per concedere la sospensione condizionale di una pena o l’affidamento in prova al servizio sociale; d) il coinvolgimento di un sistema di IA come strumento, autore o vittima di un reato.

 

Ricollegandoci a quest’ultimo punto, come può una IA essere coinvolta quale vittima, autore o strumento di un reato? Esiste una casistica?

Sì, come dicevo, è certamente possibile. Gli episodi non sono mancati e sono tutti ben noti. Quanto alla IA autore di reato, mi vengono in mente i droni capaci di uccidere per le strade urbane (come avvenuto nella città di Dallas nel luglio 2016), le auto senza conducente coinvolte nella causazione di incidenti a danno di cose o persone (si pensi a quanto accaduto nel marzo 2018 in Arizona) o ancora i software che eseguono, in collaborazione o addirittura in sostituzione dell’uomo, compiti sempre più sofisticati (pilotare un grosso aereo, ad esempio), ma che talvolta possono interferire negativamente con la condotta umana, come i recenti disastri aerei dei Boeing 737 Max hanno purtroppo dimostrato.

Se pensiamo alla IA vittima di condotte illecite, un’ipotesi potrebbe essere la distruzione o il danneggiamento di robot bambole o animali utilizzati nell’ambito della doll therapy o pet therapy, nei cui confronti il paziente possa avere sviluppato un sentimento di affezione; o il fenomeno del c.d. ‘‘stupro robotico’’ e, in particolare, gli atti sessuali con robot aventi le dimensioni e le fattezze di minori. È chiaro, tuttavia, che queste ipotesi non rientrano agevolmente nei canoni dell’odierno diritto penale e spesso non risultano punibili secondo gli odierni principi penalistici. Diversa è la questione per l’IA utilizzata come mero strumento di un delitto: e infatti moltissime sono le fattispecie che attualmente prevedono l’uso di strumenti informatici come elemento della tipicità oppure come circostanza aggravante.

 

Il fondamentale requisito della colpevolezza nel diritto penale delinea il coinvolgimento di un autore; ebbene, come può questo elemento essere declinato al di fuori dell’uomo verso una macchina quale l’IA? Quali sono i margini di una possibile responsabilizzazione della macchina?

Questa è la problematica a cui accennavo: non sempre elementi, originariamente concepiti e tradizionalmente ascritti solo all’umano, si possono riferire anche a una macchina; una delle criticità principali, da questo punto di vista, è proprio quella di potere ravvisare, in capo a una macchina, il fondamentale requisito della colpevolezza. Si tratta, come è ormai acquisito, di un requisito che esprime nella maniera più intensa il coinvolgimento soggettivo dell’autore nel fatto commesso e la sua presenza comporta la possibilità di muovere un rimprovero, che è prerogativa tipica ed esclusiva di un essere umano; una rimproverabilità che, peraltro, presuppone la ravvisabilità, in capo al soggetto, di imputabilità, dolo o colpa, conoscenza (o per lo meno conoscibilità) della legge penale violata e assenza di cause di esclusione della colpevolezza.

Ebbene, appare estremamente difficile ipotizzare di potere muovere, in questo senso, un rimprovero nei confronti di una macchina; a tutto voler concedere, resterebbe ferma, poi, l’impossibilità di rapportare il nostro sistema sanzionatorio e le funzioni sottese alla pena al mondo delle macchine. Altrettanto arduo è immaginare una rieducazione della singola IA, come pure una capacità orientativa più generale di tutti i sistemi di IA attraverso l’irrogazione di una pena nei confronti del dispositivo colpevole.

 

Toccando l’ambito della responsabilità medica, a Suo avviso quale sarà e qual è tutt’oggi l’impatto dell’IA nel settore sanitario?

Come dicevo in apertura, l’IA viene ormai impiegata nei più svariati settori del vivere sociale e quello sanitario certamente non fa eccezione. Sono già state sviluppate, anche nel nostro Paese, soluzioni di IA finalizzate a supportare i medici nella diagnosi delle malattie, migliorare la capacità di predizione prognostica e classificare i pazienti per guidare il personale sanitario nelle scelte terapeutiche personalizzate; si profila, per il futuro, un ricorso massivo a sistemi tecnologici in grado di influire in termini decisivi sui percorsi diagnostici e terapeutici, sulle modalità decisionali del medico e sul rapporto medico-paziente.

 

Approfondendo un Suo recente contributo pubblicato sulla rivista it, perché ritiene indispensabile una ulteriore riforma della responsabilità penale degli operatori sanitari? Quali sono i limiti dell’odierno contesto normativo e giurisprudenziale di riferimento?

Cessata la fase più acuta dell’emergenza pandemica, non si può fare a meno di osservare come, in fondo, molte delle difficoltà riscontrate allora e delle situazioni di disagio legate ai limiti strutturali, organizzativi e soggettivi denunciati nella prima fase del contrasto al virus, accompagnano lo svolgimento pure dell’ordinaria attività medica, al di là della specifica esigenza legata al diffondersi del Covid; così come va ricordato che i rischi penali correlati alla complessità della professione sanitaria sono da tempo all’attenzione dell’opinione pubblica e dell’agenda politica, nel costante obiettivo di contrastare il fenomeno della medicina difensiva. Si tratta di questioni di assoluta rilevanza che meritano in tempi rapidi una soluzione legislativa adeguata, soprattutto considerando come, con l’ultima riforma del 2017, nonostante gli sforzi compiuti, il legislatore abbia sostanzialmente mancato l’obiettivo di offrire alla classe medica rassicurazioni sul piano penalistico. Basti pensare che il margine di esonero da responsabilità per colpa dell’operatore sanitario che emerge dall’art. 590-sexies c.p. (“Responsabilità colposa per morte o lesioni personali in ambito sanitario“), come rivisto in senso “restrittivo” dalle Sezioni unite della Cassazione nel 2018, è oggi non solo circoscritto alle fattispecie di omicidio e lesioni colposi e limitato alle ipotesi di imperizia non grave, per giunta riferibile all’atto medico esecutivo, ma pure ancorato al rispetto di linee guida certificate e in ogni caso subordinato a un preventivo e non agevole vaglio di adeguatezza delle raccomandazioni contenute nelle linee guida alle specificità del caso concreto. Ecco perché ritengo sia il momento di tornare a riflettere sull’opportunità di un nuovo intervento legislativo che, facendo tesoro dei limiti emersi, ridisegni i confini della non punibilità dei medici oltre gli angusti margini dell’art. 590-sexies c.p., valorizzando soprattutto la prospettiva di una responsabilità per colpa grave, nell’accertamento della quale si tenga conto del contesto, spesso inadeguato, in cui il personale medico è chiamato a intervenire.

 

 

 

 

a cura di

Valeria Montani

Back To Top