skip to Main Content

L’IA nella sanità e il rapporto con il cittadino

di

Paolo Fortuna (AULSS 6 Euganea), Elena Maggio (IAIC) e Maddalena Valli (IAIC)

 

 

Oggi, sempre più, si sta assistendo ad un progressivo infragilimento del sistema sanitario inteso come universale: sembra esservi una divaricazione tra il progresso scientifico, il quale avanza ad un ritmo esponenziale e spesso privo di un adeguato controllo e la sua capacità di generare benefici concreti e immediati per soddisfare le esigenze quotidiane del cittadino. Quest’ultimo, nel contesto della sua quotidianità, si trova in uno stato di crescente vulnerabilità e disorientamento. Da un lato è costantemente soggetto a un incessante afflusso di informazioni spesso non verificate provenienti in particolare dal web, dall’altro, manifesta difficoltà nell’identificare e rintracciare interlocutori affidabili, fissi e pronti cui poter delegare in modo concreto la tutela della propria salute. Questa divaricazione potrebbe compromettere l’efficacia delle soluzioni tecnologiche nel rispondere in modo concreto e adeguato alle esigenze reali della popolazione soprattutto nel caso in cui non venga adottato un approccio Human-Centric. Le soluzioni, secondo questa tipologia di approccio, devono essere pensate e progettate a partire dall’uomo non soltanto, al fine di risolvere un problema puntiforme, ma anche per migliorare la qualità di vita complessiva delle persone rispondendo alle loro esigenze in modo mirato e personalizzato secondo una logica multisistemica.

C’è il rischio, in un contesto di evoluzione tecnologica continua come quello a cui stiamo assistendo, che la risposta sanitaria si sviluppi e persista in modo scollegato ed ‘espulsivo’ rispetto alle dimensioni sociosanitarie e sociali, le quali sono attualmente in uno stato di significativa crisi?

Che ruolo avranno i sistemi di AI nella gestione dei bisogni quotidiani?

Proprio da quest’ultimo interrogativo si prende lo spunto per sancire come il settore sanitario sia uno dei campi in cui si rinviene una sempre più elevata esigenza di applicazione dell’intelligenza artificiale (di seguito “AI”). Se però, da un lato, un atteggiamento tecnofobico o, peggio ancora, sprovveduto non potrà rallentare il progressivo processo di penetrazione dei sistemi di AI in ambito sanitario, dall’altro è indubbia la necessità di una governance aziendale preordinata alla valutazione dei rischi, limiti e potenzialità per un suo uso controllato, efficiente, etico ed estetico e sicuro nella manipolazione dei dati. Governance che sempre dovrà basarsi su principi etici quali equità, trasparenza, sostenibilità, sussidiarietà e privacy.

*

La prima difficoltà che ci si trova ad affrontante nella definizione di un framework di Governance volto all’integrazione della AI in azienda sanitaria è proprio l’assenza di una definizione giuridica univoca si intelligenza artificiale. L’espressione AI è infatti più che un concetto giuridico definito, una metafora utilizzata sia nel gergo comune sia in ambito giuridico a partire dagli anni ’50. Si ricorda in proposito come il primo utilizzo di questo termine pare risalire al 31 agosto del 1955 quando John McCarthy, professore americano di matematica, decise di organizzare un seminario intitolato “Intelligenza Artificiale” nel corso del quale vennero per la prima volta approfonditi e dibattuti diversi argomenti che, ancora oggi, costituiscono i tratti distintivi dell’AI.

Possiamo tuttavia affermare che esiste una definizione giuridicamente rilevante di “sistemi di AI”, come indicato dalla Corte di Cassazione con ordinanza n. 6177/2023 che ha annullato l’ingiunzione dell’Autorità Garante per la Protezione dei Dati Personali n. 492/2018 emanata con l’INPS. Tale definizione di “sistemi di AI” è stata successivamente impiegata nel regolamento europeo sull’intelligenza artificiale (Reg. (UE) 1689/2024) che allo stato costituisce l’unica fonte normativa in materia.

E’ proprio dalla parola “sistema” in questione che si deve trarre spunto per affermare che un “sistema di AI” deve far parte di una logica di processo che come tale deve essere “governata” in modo centralizzato.

In ambito sanitario, inoltre, ai fini di definire delle regole di governance per l’integrazione di sistemi di AI è necessario confrontarsi con ulteriori linee guida e principi come, ad esempio, quelle che ritroviamo all’interno del documento pubblicato nel 2023 dall’OMS ed, in Italia, quanto indicato nel Decalogo dell’Autorità Garante per la Protezione dei Dati Personali dell’ottobre 2023. Il documento dell’OMS, in merito all’elaborazione di dati sulla salute attraverso tecniche di AI, fornisce una più ampia definizione di tali sistemi, equiparando il loro meccanismo di funzionamento alla profilazione e a meccanismi che implicano decisioni sulla base di processi automatizzati. Il Decalogo pone invece l’accento su alcuni fondamentali aspetti privacy che dovranno essere rispettati nell’ambito dell’integrazione di sistemi AI in sanità, tra cui:

  • la corretta individuazione delle basi giuridiche del trattamento;
  • il rispetto dei principi di accountability, privacy by design e by default;
  • l’esatta individuazione dei ruoli soggettivi privacy;
  • la necessaria effettuazione di valutazione di impatto;
  • il rispetto di principi di conoscibilità, non esclusività della decisione algoritmica e di non discriminazione;
  • la correttezza e trasparenza nei confronti dei pazienti circa l’utilizzo di tali sistemi;
  • il necessario rispetto dell’integrità e riservatezza dei dati dei pazienti.

Non vi è dubbio che l’integrazione di un sistema di AI nel settore sanitario possa migliorare aspetti come gli studi clinici, la diagnosi medica, il trattamento e l’assistenza al paziente.  Si deve peraltro sottolineare come, per assicurare il corretto funzionamento di tali sistemi nello sviluppo di modelli organizzativi sanitari, sia necessario che l’AI stessa si basi su sistemi di profilazione accurata delle informazioni partendo il più possibile dalle “unità informative” (oggettive e riproducibili) e non da concetti già intrinsecamente elaborati. Questo processo comporta il passaggio dai “big data” a una sintesi strutturata e utilizzabile degli stessi consentendo così, a tali modelli, di estrarre conoscenze rilevanti e di facilitare la presa di decisioni basate su dati aggregati e analizzati in maniera efficiente. Questo concetto assume un valore progressivamente sempre più crescente man mano che dall’AI (organizzazione sanitaria a strati di offerta), si passa a modelli di learning machine (organizzazione sanitaria con approccio multidimensionale e multiprofessionale) o e al deep learning (organizzazione sanitaria a rete neurale adattativa).

In aggiunta alle considerazioni che precedono, si evidenza come l’analisi di un sistema di AI integrato nel settore sanitario non possa prescindere da una attenta valutazione inerente la responsabilità medica e di rischio clinico connesse all’impiego di AI, tanto nella clinica-medica quanto nella ricerca scientifica. Tale valutazione dovrà essere volta ad individuare e neutralizzare altresì i rischi di responsabilità penale in capo alla struttura sanitaria e al professionista sanitario in caso di utilizzo di tecniche di AI.

Quale che sia il modello seguito e quale che sia, conseguentemente, l’impiego dei sistemi di IA assume, pertanto, un ruolo essenziale la capacità dei singoli sanitari di far percepire ai pazienti finali i benefici concreti in termini di prevenzione del rischio clinico. Dovrà, in altri termini, illustrare come i sistemi di IA aiutino e accompagnino il medico nella definizione di diagnosi più tempestive e accurate, senza per questo sostituirsi all’intervento valutativo dei sanitari.

Per fare questo, evidentemente, i sanitari dovranno formarsi e aprirsi all’acquisizione di nuove competenze che dovranno necessariamente padroneggiare per poterle avvicinare al cittadino, in regime ordinario, e al paziente, che, come noto, si caratterizza per avere uno stato d’animo più fragile.

 

 

 

 

Back To Top