skip to Main Content

Intervista all’Avv. Fortunato Costantino. Pervasività delle nuove tecnologie e diritti fondamentali dell’uomo

Fortunato Costantino è Avvocato specializzato in Diritto del lavoro e delle relazioni industriali, diritto di impresa e societario con un focus sulla compliance legale GDPR, ESG e CSR.

Ha collaborato in ambito universitario in qualità di assistente alla cattedra o come relatore in Masters e corsi di alta specializzazione. Più recentemente per la European School of Economics nell’ambito di un corso di alta formazione dedicato al Metaverso ha curato in qualità di docente il modulo relativo al rapporto tra tecnologie intelligenti e diritto del lavoro.

E’ stato relatore in tavole rotonde e convegni sui temi della sostenibilità sociale delle organizzazioni del lavoro e della emersione di nuovi diritti soggettivi (digitali) del lavoratore. Numerose le pubblicazioni sui medesimi temi, tra cui da ultimo per Metaverso, Cassano-Scorza (a cura di) il capitolo dedicato agli impatti del Metaverso e più in generale delle nuove tecnologie sulla tassonomia del diritto del lavoro.

Dopo una lunga e consolidata esperienza come Giurista di Impresa e dirigente in ambito risorse umane, riveste oggi il ruolo di Direttore Risorse Umane, Affari Legali & Corporate presso la Kuwait Petroleum Italia S.p.a.

E’ membro dell’Industry Committee presso l’Istituto per le Politiche dell’Innovazione.

 

L’Avv. Fortunato Costantino

 

Avv. Costantino, quali sono le Sue prospettive di riflessione in merito al rapporto tra nuove tecnologie e i diritti fondamentali dell’uomo?

Pochi giorni fa Elon Musk ha reso noto sul suo profilo Twitter che una sua società attiva nel campo delle neurotecnologie, la NEURALINK CORPORATION,  è stata autorizzata dalla FDA americana a testare su cervelli umani i cd. Neuralink ovvero veri e propri chip impiantabili denominati N1, della dimensione di una moneta e ricaricabili in modalità wireless, sviluppati su un sistema BCI (brain-computer interface) e cioè una interfaccia cervello-computer in grado di elaborare in tempo reale i segnali neurali, decodificandoli e trasmettendoli ad un dispositivo esterno che poi li traduce in azioni o intenzioni della volontà. Per essere precisi la notizia lanciata da Elon Musk non è una novità assoluta. Sempre negli Stati Uniti, altre aziende come Blackrock Neurotech e Synchron hanno già sperimentato su circa 40 persone affette da disabilità fisiche o sensoriali impianti cerebrali basati sulla interfaccia cervello-macchina consentendo ad esempio a un uomo con una paralisi degli arti superiori di utilizzare una mano robotica, a un paziente con SLA di scrivere attivando una tastiera semplicemente pensando ai tasti premuti e ancora a un uomo tetraplegico di poter tornare a camminare. Si tratta della ulteriore dimostrazione che il progresso della scienza nel suo rapporto circolare con lo sviluppo della tecnologia intelligente è inarrestabile e tale condizione è una caratteristica inequivocabile della cd. Quarta Rivoluzione, termine che compare per la prima volta nel saggio la Quarta Rivoluzione industriale di Schwab teso a descrivere una rivoluzione industriale caratterizzata da una fusione di tecnologie in grado di annullare i confini tra il fisico, il digitale e il biologico. Mi pare che Schwab abbia colto nel segno, ed oggi possiamo senz’altro riconoscere che nella millenaria storia della relazione condizionante e condizionata tra Uomo e Tecnologia, stiamo assistendo all’ulteriore passaggio evolutivo della specie umana, da Homo Sapiens ad Homo Technologicus in cui l’Uomo diventa un simbionte tecnologico, una sorta di ibrido di biologia e tecnologia in via di continua trasformazione.  Insomma, per intenderci senza equivoci, la Tecnologia da mera applicazione servente l’Uomo con l’obiettivo di ridurne gli sforzi fisici e/o ottimizzandone le attività produttive, come è stata nelle precedenti 3 rivoluzioni industriali, è passata ad essere anche e soprattutto un fattore concorrente nella formazione della essenza dell’Uomo oltre ad avere determinato il passaggio da una economia centrata sulla produzione e scambio di prodotti e servizi ad una economia incentrata sullo scambio dei dati afferenti alla vita sociale ed alla sfera biologica ed esistenziale dell’individuo, raccolti, rielaborati ed utilizzati grazie all’utilizzo delle tecnologie intelligenti per ricavarne e massimizzarne il valore.

Questo è il punto sensibile e critico della riflessione sul rapporto simbiotico tra Tecnologia intelligente e l’Uomo, perché appare evidente che da tale simbiosi si genera un radicale ripensamento dei tradizionali modelli sociali, politici, economici e produttivi che di fatto sta riscrivendo il modo in cui viviamo, lavoriamo e comunichiamo, ridefinendo persino la portata empirica ed epistemica di concetti associativi e partecipativi come Libertà, Società, Politica, Economia, Democrazia ma che soprattutto sta incidendo significativamente  e con intensità non comune sulla tradizionale tassonomia dei diritti fondamentali dell’Uomo. Oggi più che mai, quindi, bisogna intervenire con urgenza in ottica di rafforzamento dell’architrave delle tutele ordinarie e costituzionali a presidio dei diritti fondamentali ed inalienabili della persona, ovvero della libertà, della dignità umana, della integrità psico-fisica e della libera realizzazione della personalità dell’individuo,  ad argine di potenziali derive tecnocratiche del sistemi sociali ed economici nei quali possano trovare spazio eccessi di “discrezionalità” della tecnologia e/o fenomeni di controllo sociale e sopraffazione di un mercato del lavoro che appare sempre più tentato ad orientate le proprie prospettive di sviluppo sul cd. management algoritmico delegando interi processi decisionali o di gestione delle risorse umane a sistemi algoritmici e/o basati su applicazioni di intelligenza artificiale.

 

In merito agli effetti di connection always on strettamente connessi alla pervasività delle tecnologie intelligenti digitali quali possono essere gli strumenti di tutela dei diritti fondamentali nella prospettiva che poc’anzi ha delineato, soprattutto con riferimento al mondo del lavoro? Possono essere delineati dei diritti soggettivi digitali dei lavoratori?

 La diffusione degli strumenti tecnologici avanzati propri della Industria 4.0, consentendo esperienze di interconnessione a distanza e favorendo il processo di cd. destrutturazione o rarefazione delle barriere fisiche spazio temporali, per cui le imprese sono sempre meno vincolate ad una sede di lavoro fisicamente confinata all’interno di un dato spazio, hanno agevolato indistinti ed incrementali fenomeni di connessione permanente e di overworking digitale. In altro senso in ragione della sempre maggiore intersecazione tra vita lavorativa e vita personale possiamo parlare di work-life blending, contrapposto al work-life balance (quello per intenderci preso in considerazione dalla Legge n. 181 del 22 maggio 2017 che disciplina il lavoro agile). Per rendere più immediato il senso della sovrapposizione del tempo di lavoro con il tempo personale e viceversa, è stato coniato in letteratura il termine di time porosity, con una evidente allusione alla porosità quale proprietà generale che nella Fisica è attribuita in grado diverso a tutti i corpi e che definisce il rapporto tra il volume dei vuoti esistenti in una determinata porzione di un materiale e il suo volume complessivo. Tanto il tempo di lavoro quanto il tempo personale hanno dunque dei vuoti, sono cioè anch’essi porosi, e in tali vuoti possono refluire il lavoro o le attività personali in una specie di osmosi che, quasi per una sorta di determinismo tecnologico, diventa meccanicistica e involontaria rendendo impossibile una loro definitiva distinzione .Tali fenomeni di sconfinamento del tempo di lavoro nel tempo personale e viceversa sono idonei, soprattutto nel lungo periodo, a causare alterazioni consistenti del vincolo sinallagmatico sotteso al rapporto di lavoro dal momento che l’obbligo retributivo a carico del datore di lavoro non è più saldamente ancorato ad una durata certa dell’orario di lavoro, parametro oggettivo di valorizzazione della obbligazione del prestatore di lavoro, con un consequenziale sbilanciamento di onerosità non ricompensata a carico di quest’ultimo che di fatto rimane esposto a uno stato permanente di allerta reattiva rispetto al soddisfacimento delle richieste datoriali, anche oltre i limiti di durata massima dell’orario di lavoro giornaliero e settimanale. Si comprende bene, peraltro, come al di là della distorsione appena menzionata, ad essa si connettano, specifici profili di rischio in termini di sicurezza e integrità psico-fisica del prestatore di lavoro, e della conseguente responsabilità del datore di lavoro ex art. 2087 del codice civile, come per altro evidenziato dalla letteratura medico scientifica che ha sottolineato la correlazione eziologica tra la connection always on ed alcune manifestazioni patologiche quali insonnia, irritabilità, esaurimento nervoso, stress da lavoro correlato, digital burnout .

In questo contesto, non è seriamente dubitabile la necessità di dare voce alle implicazioni etiche e sociali, oltre che giuridiche, afferenti alla tutela dei diritti fondamentali del lavoratore nel rapporto con la Intelligenza Artificiale e soprattutto con il cd. Algorithmic Management ovvero il complesso dei modelli di gestione e coordinamento della forza lavoro incentrati sulla delega di interi processi ed attività aziendali e/o prerogative del datore di lavoro a decisioni algoritmiche , dando atto della emersione di una serie di nuovi diritti soggettivi digitali che per la loro connaturata attinenza alla salvaguardia della dignità, libertà e sicurezza della persona non possono in principio non rientrare nel novero dei diritti fondamentali ed inviolabili dell’individuo. Tra questi considero in particolare i) il diritto alla disconnessione dalle strumentazioni tecnologiche strettamente correlato a sua volta a profili di responsabilità datoriale diretta in termini di prevenzione precauzionale delle tecno-patologie ai sensi dell’art. 2087 del codice civile, e 2) il diritto alla sorveglianza umana sull’algoritmo.

Quanto al diritto alla disconnessione, attualmente la Legge sul lavoro agile del 2017 prevedendo che l’accordo tra le parti sul lavoro agile debba individuare i tempi  di riposo del lavoratore nonchè le misure tecniche e organizzative necessarie per assicurare la disconnessione del lavoratore dalle strumentazioni tecnologiche di lavoro, ha introdotto materialmente l’istituto della disconnessione ma ha omesso di qualificarlo come diritto soggettivo a differenza di quanto è avvenuto in altri paesi europei. La disconnessione rimane dunque relegata al rango di interesse qualificato meritevole di tutela, riconducibile peraltro ai soli lavoratori agili  e non a tutti i lavoratori, con evidenti profili discriminatori. Ma v’è di più non sono nemmeno indicate o suggerite le modalità applicative con cui effettuare la disconnessione, salvo precisare che esse possono essere organizzative o tecniche, e come se non bastasse non sono nemmeno indicate le eventuali conseguenze qualora non vi si ottemperi. Dal mio personale e convinto punto di vista, non v’è dubbio che la disconnessione dagli strumenti tecnologici debba costituire una situazione giuridica soggettiva di vantaggio immediatamente precettiva, e quindi essere propriamente costruita come diritto soggettivo perché essa presiede alla tutela di una dimensione fondamentale della persona umana rilevante ai sensi dell’art. 2 della Costituzione che è quella della vita privata in cui si svolge la cura degli interessi personali, sociali, culturali, relazionali dell’individuo; interessi il cui turbamento per effetto di una estensione indebita del tempo di lavoro, anche semplicemente nella forma della tensione del lavoratore rispetto a possibili richieste datoriali durante lo stato di connessione degli strumenti tecnologici, può generare gravi forme di (techno)stress psicofisico o di sovraccarico cognitivo ed emotivo.

Chiara al riguardo è la posizione del Parlamento Europeo che con una propria Risoluzione del 21 gennaio 2021 ha invitato la Commissione Europea ad adottare una direttiva sulla disconnessione per disciplinare organicamente le condizioni minime di esercizio della disconnessione dalle strumentazioni tecnologiche, espressamente qualificata come un diritto fondamentale che costituisce una parte inseparabile dei nuovi modelli di lavoro della nuova era digitale e un importante strumento della politica sociale a livello dell’Unione al fine di garantire la tutela dei diritti di tutti i lavoratori.

Quanto al diritto di human oversight ovvero al controllo umano sull’algoritmo, quest’ultimo è diretta espressione del canone giuridico generale della ragionevolezza e congruità dei mezzi adottati rispetto agli interessi perseguiti e preordinato a correggere lo svantaggio a carico dell’utente determinato dalle asimmetrie informative proprie del processo algoritmico che è caratterizzato da una connaturata opacità rispetto alla totale trasparenza dei dati elaborabili provenienti dall’individuo. In attesa che il Regolamento sulla intelligenza artificiale veda la luce, uno sguardo al diritto positivo nazionale consente comunque di individuare strumenti di tutela dei diritti fondamentali del lavoratore e della persona da possibili compromissioni indotte dall’utilizzo di intelligenze artificiali o modelli algoritmici. Mi riferisco nello specifico al Regolamento GDPR e al più recente Decreto Trasparenza dello scorso agosto 2022.

Il GDPR in particolare all’art. 22 introduce il diritto dell’interessato di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona, e nel caso di decisione automatizzata legittima o autorizzata, il diritto dell’interessato di ottenere l’intervento umano da parte del titolare del trattamento, nonché il diritto di esprimere la propria opinione e di contestare la decisione.

L’art. 1 bis del Decreto Trasparenza rubricato “Ulteriori obblighi informativi ai dipendenti nel caso di utilizzo di sistemi decisionali o di monitoraggio automatizzati”, amplia ulteriormente l’ambito di tutela già segnato dall’art. 22 GDPR  rafforzando però nello specifico la posizione soggettiva di vantaggio dei dipendenti che sono destinatari di processi automatizzati di gestione del rapporto di lavoro. In tal caso infatti è previsto per un verso l’obbligo del datore di lavoro di informare il dipendente dell’utilizzo di sistemi decisionali o di monitoraggio automatizzati deputati a fornire indicazioni rilevanti ai fini della assunzione o del conferimento dell’incarico, della gestione o della cessazione del rapporto di lavoro, dell’assegnazione di compiti o mansioni nonché indicazioni incidenti sulla sorveglianza, la valutazione, le prestazioni e l’adempimento delle obbligazioni contrattuali dei lavoratori e per altro verso, in presenza di sistemi di decisionali o di monitoraggio automatizzati, l’obbligo del datore di lavoro di effettuare l’analisi dei rischi e la valutazione di impatto del trattamento eventualmente procedendo alla consultazione preventiva del Garante Privacy qualora la valutazione d’impatto sulla protezione dei dati indichi che il trattamento presenti un rischio elevato in assenza di misure adottate dal titolare del trattamento per attenuare il rischio.

 

A Suo avviso qual è il rapporto d’equilibrio, se di equilibrio possiamo parlare, tra trasparenza dei dati dell’individuo e governance degli algoritmi? E, perché secondo Lei è così necessario porre l’uomo al centro della governance digitale emergente?

Esiste una comprensibile preoccupazione sollecitata dalla tendenziale pervasività delle tecnologie intelligenti che applicate trasversalmente alla dimensione sociale dell’individuo rischiano di trasformare quest’ultimo in una fonte inesauribile di dati e input operazionali sottratti alla sua possibilità di controllo dal momento che l’intelligenza artificiale partendo da un semplice dato personale può inferire ed elaborare ulteriori dati, detti big data analytics o algo created analytics, in grado di indagare capillarmente l’identità e la personalità di un individuo tracciandone le caratteristiche più intime e stimandone o declinando i comportamenti attesi.

E a fronte di una così vasta mole di informazioni, l’individuo potrà tutt’al più osservare e avere contezza degli input e degli output del processo ma non potrà in alcun modo sapere come gli uni diventano gli altri e viceversa, perché gli algoritmi svolgono un processo logico matematico di decodificazione, rielaborazione e manipolazione di dati con una velocità che la mente umana non riesce a concepire.

Senza contare che i modelli algoritmici e le decisioni su di esse fondate ereditano i bias dei loro programmatori, pregiudizi del pensiero del data scientist che originariamente nascosti nei cd. dati di allenamento, sono poi trasferiti negli algoritmi di decisione che dunque potrebbero condizionare scelte ingiuste, discriminatorie o semplicemente sbagliate, all’insaputa del decisore e del soggetto della decisione.

Non a caso si parla, tra gli addetti ai lavori, di opacità della decisione algoritmica che ha portato ad elaborare la teoria della black box-society chiaramente allusiva ad una società dell’informazione fondata su “scatole nere” dove la socialità è governata da serie infinite di algoritmi  il cui contenuto e funzionamento non sempre è dato conoscere.

La condizione appena evidenziata rende ancora più pressante l’urgenza di costruire un modello appropriato di governance che potremmo definire una governance della sostenibilità tecnologica, finalizzata a  presidiare obiettivi imprescindibili di trasparenza, attendibilità, conoscibilità e controllo  dei sistemi di IA, attraverso la predisposizione di meccanismi in grado di assicurare un vaglio di meritevolezza del processo e della decisione algoritmica attribuito alla sorveglianza umana, specie nell’ambito del deep learning  e brain learning cioè di quelle applicazioni di IA che più di altre sono in grado, attraverso la riproduzione di vere e proprie reti neurali artificiali (cd. simulazione neurale) di generare rapidamente apprendimenti profondi e sofisticati come se la macchina ponesse in atto una vera e propria emulazione celebrale e non semplicemente una simulazione dell’umano.

La crucialità di una siffatta governance, quale baluardo a garanzia dei diritti degli utenti nel rapporto con l’IA, specie per il caso di cd. distorsione dell’automazione, non è discutibile come dimostra la circostanza che nella Proposta di Regolamento europeo sulla Intelligenza Artificiale vengono introdotti l’obbligo di cd. human oversight e cioè di assicurarsi che i sistemi di Intelligenza Artificiale possano essere sottoposti a supervisione da parte di persone fisiche durante il periodo in cui il sistema di IA è in uso e l’obbligo di garantire l’attendibilità, accuratezza e sicurezza di tali sistemi. La Proposta di Regolamento definisce addirittura il fine della sorveglianza umana che deve mirare a prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali dell’individuo. Più nel dettaglio, la proposta di Regolamento non nega, anzi riconosce, che l’uso dell’intelligenza artificiale può contribuire al conseguimento di risultati vantaggiosi dal punto di vista sociale e ambientale nonché fornire vantaggi competitivi fondamentali alle imprese e all’economia europea. Ma ancor di più, da una lettura dei considerando della Proposta di Regolamento emerge chiaramente che la crescita economica sostenibile attuale e futura e il benessere sociale dell’Europa si baseranno sempre di più sul valore creato dai dati e in questo senso l’Intelligenza Artificiale è una delle più importanti applicazioni dell’economia dei dati. Anche io sono convinto che l’Intelligenza artificiale possa essere, anzi sarà, un volano per il pieno sviluppo in ottica ESG dei modelli sociali ed economici, avuto riguardo in particolare a quegli obiettivi di sviluppo sostenibile, tra i 17 ESG, più spiccatamente orientati nel senso della creazione di condizioni effettive di equità e crescita sociale. A condizioni però che vi sia anche un presidio certo del governo delle applicazioni possibili della intelligenza artificiale. Non a caso sempre nella Proposta di Regolamento sono ritenute ammissibili penetranti limitazioni sino a veri e propri divieti all’utilizzo di particolari sistemi o modelli di IA in base ad una valutazione di rischio di impatto negativo su diritti fondamentali quali la dignità umana, la libertà, l’uguaglianza, la democrazia, il diritto alla non discriminazione, la protezione dei dati e, in particolare, la salute e la sicurezza, differenziando tra gli usi dell’Intelligenza Artificiale che creano  un rischio da basso o minimo ad un rischio inaccettabile passando per un rischio alto. Più l’uso della Intelligenza artificiale è idoneo a mettere in pericolo i diritti e valori fondamentali dell’individuo e dell’Unione Europea, più severe sono le misure adottate per eliminare o mitigare l’impatto negativo sui diritti fondamentali, fino a vietare quei prodotti che sono completamente incompatibili con questi diritti. E severe saranno anche le sanzioni in caso di violazione, tarate sul modello tipico sanzionatorio delle violazioni Antitrust e GDPR.

 

Perché è importante, a Suo avviso, distribuire informazione e formazione diffusa sulle dinamiche di interazione macchina-uomo e creare cultura digitale?

Sono fermamente convinto che un profilo imprescindibile nell’ambito di una governance della sostenibilità tecnologica e quindi della relazione Uomo-Tecnologia intelligente, sia rappresentato dalla offerta e distribuzione di conoscenza delle dinamiche di interferenza tra macchina intelligente e dimensione umana. Una conoscenza che passa in prima battuta dalla creazione e acquisizione di competenza digitale negli utenti  ma che deve mirare ad un obiettivo finale più rilevante che è quello della cd. destrezza digitale soprattutto in tema di digital literacy o di cybersecurity ovvero la diffusione di un mindset consapevole nell’accedere, gestire, integrare, valutare e creare le informazioni digitali.  Si tratta di una prospettiva strategica che può generare una vera e propria cultura della sicurezza digitale e che pretende la messa a terra di precise politiche formative tanto a livello nazionale e comunitario quanto nell’ambito più ristretto e autarchico delle politiche di training aziendale delle imprese pubbliche e private. Il possesso di un livello adeguato di competenza digitale, per altro, è funzionale e strumentale alla tutela effettiva dell’utente di fronte ad eventuali violazioni dei diritti soggettivi per mano della tecnologia in quanto l’attribuzione di un diritto rischia di restare una mera enunciazione di principio se il suo titolare non possiede la comprensione dei mezzi per l’esercizio del diritto riconosciutogli dall’ordinamento.

 

 

 

a cura di

Valeria Montani

Back To Top