skip to Main Content

Valore e Norma nell’epoca dell’Intelligenza Artificiale. Intervista al Prof. Gianluca Giannini

 

Prof. Gianluca Giannini è Professore Ordinario presso l’Università degli Studi di Napoli Federico II, dove ricopre anche il ruolo di Coordinatore Scientifico della Task Force di Ateneo Human&Future. È membro del Collegio dei Docenti del Dottorato in Scienze Filosofiche e del Consiglio della Scuola di Scienze Umane e Sociali. Il suo impegno accademico si concentra sull’innovazione nei saperi umanistici e sul dialogo tra scienze umane e trasformazioni sociali e tecnologiche contemporanee.

 

Il Prof Gianluca Giannini 

 

Professor Giannini, il Suo intervento alla Tavola Rotonda del 26 “L’Intelligenza Artificiale tra umanesimo processuale e efficienza giudiziaria” marzo verte sul rapporto tra ‘Valore e Norma nell’epoca dell’Intelligenza Artificiale’. Quali sono i termini con cui la Filosofia Morale e la Filosofia del Diritto prospettano questa relazione?

Mi consenta di fare un piccolo inciso, che rende in qualche modo anche conto del titolo che ho proposto per la Tavola Rotonda del 26 marzo. La Scuola di Filosofia Morale e Filosofia del Diritto dalla quale provengo, all’altezza della metà del XX secolo, ha rinvenuto nella figura di Docente e d’intellettuale ‘ibrida’ di Pietro Piovani (allievo di Giuseppe Capograssi) il suo iniziale punto di riferimento a partire, molto schematicamente, dalla proposta in chiave antidealistica, non solo della stretta continuità e co-appartenenza tra Morale e Diritto ma, anche e soprattutto, della assoluta storicità e situazionalità di questo insolvibile nesso. In quest’ottica, oggi questo indirizzo offre strumenti profondi e ancora validi per affrontare il nodo del rapporto tra valore e norma, soprattutto nell’epoca delle scienze contemporanee e, perciò, anche nell’era dell’Intelligenza Artificiale. Lungo questa prospettiva, la norma non è mai un dato formale o autoritario, ma l’espressione dinamica di un valore vissuto, storicamente situato e radicato nell’esperienza concreta dell’uomo. Provo in poche battute a spiegarmi. La norma non precede il valore, bensì lo segue, lo articola e lo istituzionalizza. In altre parole, non si dà norma senza un valore che la sottenda. Questo ‘semplice’ principio rappresenta un antidoto potente contro ogni positivismo normativo cieco o contro ogni automatismo normativo di sorta, anche algoritmico.

Nell’era dell’IA – facendo finta che ci si sia detti cosa s’intenda con l’etichetta ‘ombrello’ Intelligenza Artificiale –, dove si profilano norme prodotte o applicate da sistemi automatici, finanche algoritmi predittivi con finalità applicative, questo dispositivo, questo inestricabile trofismo tra valore e norma, ci invita a ricordare che la validità di una norma non sta nella sua efficacia, ma nella sua giustificazione valoriale che, a sua volta, affonda nella vita concreta, spazio-temporalmente definita, dell’esistente all’interno di un perimetro condiviso con altri esistenti. Il valore non è un’entità assoluta e astratta, bensì è qualcosa che emerge dalla storia concreta dell’uomo. In questo senso, il valore è ciò che orienta l’azione in modo responsabile all’interno di un contesto storico e culturale determinato e situazionato.

Da ciò discende una conseguenza importante per il nostro tempo: l’IA, pur potendo replicare comportamenti normativi, non dovrebbe vivere l’esperienza del valore. L’IA dovrebbe poter generare norme operative (ad esempio protocolli, raccomandazioni) ma non garantire norme etiche. L’IA dovrebbe poter assistere, non sostituire. Ma questo è un auspicio che, a mio modo di vedere, in considerazione degli sviluppi attuali, tende ad assumere sempre più tratti sfumati.

 

Perché il binomio valore e norma? È possibile pensare la strutturazione di una norma senza un complesso di valori a monte? 

Come dicevo poc’anzi, il binomio valore-norma è inscindibile perché la norma (giuridica o etica che la si voglia intendere) non è mai un qualcosa di puramente formale o procedurale: essa nasce dall’orientamento assiologico di una comunità storica e, al pari degli individui che compongono quella collettività, è vivente. Di fatto, ogni norma presuppone un orizzonte di senso: non comanda qualcosa solo perché può, ma perché ritiene sia giusto farlo. I valori sono i criteri primi e ultimi di legittimazione delle norme. Ad esempio, rendere reato (e dunque lesione di una norma) il “non uccidere” ha senso solo se si assume come valore l’intangibilità della vita umana. Così come una norma contro la discriminazione presuppone il valore dell’uguaglianza.

Senza valori a monte, le norme sono solo otri vuoti, meri strumenti tecnici di gestione del comportamento, sia esso individuale che collettivo.

Dirò di più: a partire da questa opzione di fondo, come suggerivo in precedenza, si crea un circuito che non conosce, non può conoscere, soluzione di continuità. In seno alla nostra Tradizione, quella Occidentale, in linea di principio, i valori fungono persino da criteri di selezione e gerarchizzazione: non tutto ciò che è possibile vietare o imporre viene normato. Solo ciò che appare rilevante rispetto a un certo ideale di convivenza entra nel dominio della norma.

In questo senso, allora, la norma assurge persino a veicolo di valori: li traduce in prescrizioni operative, li stabilisce e, perciò, in qualche misura li diffonde facendoli valere.

A questo va anche aggiunto che i valori non sono univoci né stabili e non solo perché storici in senso generico: in quanto metafore vitali che transitano per la carne e il sangue degli individui e le collettività spazio-temporalmente definite che li fondano e rifondano senza soluzione di continuità, sono plurali, dinamici, a volte conflittuali. Da qui nasce la necessità di un instancabile ingaggio critico sul valore, quale vera e propria attività della Valor-Azione con cui s’intreccia una continua riflessione critica sulle norme che li incarnano, attività che a pieno titolo può specularmente ben definirsi della Norm-Azione. Il Diritto, del resto, non è mai solo una logica, bensì una pratica interpretativa e dialogica intorno ai valori.

 

L’IA Generativa e Relazionale solleva una questione epocale: siamo certi che l’unico soggetto agente sia ancora l’uomo?

La domanda se l’uomo sia ancora l’unico soggetto agente, posta nel contesto dell’Intelligenza Artificiale Generativa e Relazionale, tocca un nodo antropologicamente dirimente, direi un autentico punto di non ritorno in seno all’avventura della specie Sapiens, che è quello dell’attribuzione e riconoscimento del primato dell’agentività, ovvero della capacità di muoversi, comportarsi e complessivamente agire intenzionalmente nel mondo. Per circa duemilacinquecento anni, la Tradizione Occidentale ha identificato l’agente morale e operativo esclusivamente con l’essere umano, in virtù della sua razionalità, libertà e intenzionalità. Ma l’emergere di IA capaci di apprendere in modo autonomo, generare contenuti nuovi, interagire in modo proattivo e contestuale con esseri umani addirittura ridefinendo spazi antropici, mette in discussione questa esclusività ontologica. L’IA Generativa e Relazionale non possiede né coscienza, né intenzionalità morale, ma a tutti gli effetti può essere assunta come inedita forma di agente, di soggetto agente. Ad esempio, esercita influenza causale sugli eventi e sulle scelte umane; opera in ambienti complessi con un margine di autonomia operativa; genera contenuti che possono avere effetti giuridici, economici, sociali, etc.

La verità è che la nostra epoca sembra avviarsi verso una pluralizzazione dei soggetti agenti, non solo umani. Agenti artificiali, collettivi algoritmici, sistemi ibridi uomo-macchina. Questo scenario impone una riformulazione delle categorie tradizionali della Filosofia Morale, del Diritto e della Politica: cosa significano “responsabilità”, “decisione”, “libertà” in un mondo in cui l’agire è consegnato a umano e non umano?

Su questo aspetto, che può suonare allarmistico, suggerirei d’altro canto di fare estrema attenzione a non cadere in una falsa simmetria: l’IA non è (ancora) un soggetto dotato di esperienza fenomenica piena, autocoscienza o intenzionalità morale così come li abbiamo intesi sino ad ora nel solco della nostra Tradizione. L’attribuzione di agentività non deve cancellare la responsabilità dell’uomo.

Qua la posta gioco è altissima: non è solo il concetto di soggetto agente, ma la configurazione, a trecentosessanta gradi, dell’umano stesso nell’era dell’Intelligenza Artificiale. Azzarderei a dire che siamo all’altezza di un crocevia epocale per la nostra specie, assimilabile a quelli di una qualche ‘pressione selettiva’ di matrice evoluzionistica. Marcatamente co-evoluzionistica nella fattispecie. Con la differenza, decisiva, di avere ancora spazio e modo per decidere in che direzioni andare.

 

Se l’Uomo non fosse più l’unico fabbricante dei valori e delle piattaforme su cui si costruiscono le norme, quali conseguenze potremmo aspettarci per il Diritto e l’Etica?

Se l’uomo non fosse più l’unico fabbricante di valori e delle relative piattaforme normative, ma condividesse questo ruolo con sistemi di Intelligenza Artificiale, le conseguenze per il Diritto e per l’Etica sarebbero ovviamente profonde oltre che ambivalenti, toccando le fondamenta stesse della nostra convivenza sociale oltre che dei criteri di legittimazione normativa. Come ci siamo detti, il Diritto e l’Etica si fondano su una concezione antropocentrica della normatività: l’uomo, come essere razionale e responsabile, è il creatore e interprete primo e ultimo dei valori e dunque delle norme. L’introduzione dell’IA come co-fabbricante di norme e valori segnerebbe un decentramento epistemologico e morale. Solo a titolo d’esempio: se sistemi non umani iniziassero a partecipare alla costruzione dei valori, la distinzione tra ciò che è “giusto” e ciò che è “efficiente” potrebbe sfumare, con il rischio di un’etica funzionalista priva di empatia o deliberazione morale profonda. Se, altresì, le piattaforme su cui costruiamo le norme (linguaggi giuridici, principi costituzionali, strutture logiche della deliberazione) venissero integrate o sostituite da sistemi IA, si profilerebbe un’eteronomia normativa: l’uomo non sarebbe più l’origine del senso, ma si riposizionerebbe nel ruolo di esecutore di regole costruite da sistemi opachi, trasfigurandosi, per certi versi, da soggetto a oggetto. Il Diritto potrebbe diventare una “tecnonormatività”, ossia un insieme di regole imposte da sistemi intelligenti, efficienti ma non necessariamente giusti. E un sistema in cui l’IA partecipasse alla produzione normativa metterebbe radicalmente in crisi la categoria giuridica della responsabilità personale.

Potrebbe emergere un Diritto post-antropocentrico, in cui le soggettività giuridiche dovrebbero includere anche agenti non umani. Si renderebbe necessaria, dunque, una radicale riformulazione delle categorie classiche del Diritto: volontà, imputabilità, colpa, intenzionalità.

Se l’Intelligenza Artificiale affiancasse davvero l’essere umano come co-fabbricante di valori e norme – eventualità che allo stato sembra essere meno fantascientifica di qualche anno fa –, saremmo di fronte a una trasformazione antropologica, giuridica ed etica senza precedenti. Questo scenario, dismettendo qualsiasi pregiudizio tecnofobico e/o tecnoentusistico, già da ora impone una riflessione critica inaggirabile: non solo su cosa l’IA è e sarà in grado di fare, ma su chi vogliamo essere in un mondo comunque condiviso con entità agentive non umane. Su questo aspetto, quello di una profonda, meta-settoriale, consapevole, laica e, soprattutto, informata riflessione critica, mi sembra si consumi un ritardo gravissimo. Certo, si discute di IA e dintorni. Ma spesso (spessissimo) e volentieri, su di un piano di superficialità, banalità e semplificazione tremende, che risultano davvero disarmanti.

 

L’Intelligenza Artificiale è già impiegata nei Tribunali. Quali opportunità e rischi intravede in questa applicazione?

Non ho difficoltà a riscontrare che già ad oggi l’impiego dell’Intelligenza Artificiale nei Tribunali rappresenti una trasformazione profonda del sistema giudiziario. Le sue applicazioni spaziano dalla gestione automatizzata dei fascicoli alla previsione delle decisioni giudiziarie, fino al supporto nella redazione di sentenze o pareri. Tuttavia, anche sulla scorta di quanto ci siamo detti prima, tutto ciò porta con sé sia palpabili e significative opportunità, che rischi non trascurabili.

Le opportunità, in termini anche di efficienza e velocità, sono anche presto individuate: l’IA può ridurre drasticamente i tempi della giustizia, automatizzando attività ripetitive e consentendo ai giudici di concentrarsi su compiti più complessi. Può contribuire a smaltire l’arretrato, migliorando l’accesso alla giustizia. Sistemi di IA possono analizzare grandi volumi di dati giurisprudenziali per individuare precedenti rilevanti, tendenze decisionali o rischi giuridici, offrendo uno strumento utile sia ai giudici che agli avvocati. Addirittura, strumenti e applicazioni basati su IA, come chatbot legali o sistemi di assistenza automatica, potrebbero offrire un primo orientamento giuridico davvero serio e gestito dunque dagli stessi ‘addetti ai lavori’ e non dal Giudice/Avvocato-Google, rendendo il sistema più accessibile a chi ha strumenti o risorse ridotte, anche solo per consultare un avvocato. Relativamente ai rischi preferirei mettere al momento tra parentesi il macrotema toccato e sviluppato in precedenza relativamente alla nuova soggettività agente. Mi limito a questioni più ‘ristrette’ e, allo stato, già concrete e presenti. Anzitutto in fatto di trasparenza e comprensibilità: gli algoritmi, soprattutto quelli riconducibili a modelli “black box”, spesso non sono comprensibili neanche dai programmatori stessi. In ambito giuridico, ciò potrebbe compromettere la motivazione delle decisioni, principio cardine dello Stato di Diritto. Ma poi anche bias e discriminazioni. I dati usati per “allenare” i sistemi di IA indefettibilmente riflettono pregiudizi sociali o discriminazioni sistemiche (di genere, razza, classe sociale): l’IA non fa altro che riprodurli e amplificarli, compromettendo, con effetto di scala crescente, l’imparzialità della Giustizia. A tutto questo aggiungerei solo che l’eccessiva delega a sistemi automatizzati da un lato potrebbe minare l’autonomia e il ruolo del giudice, riducendo la decisione giuridica a una questione di statistica piuttosto che d’interpretazione e valutazione umana; e dall’altro che la digitalizzazione dei processi e l’uso di IA, nel facilitare la raccolta e l’elaborazione di grandi quantità di dati personali, prestano vistosamente il fianco a pericoli quali la violazione della privacy e uso indebito, soprattutto in contesti non pienamente trasparenti. Ricordo a me stesso che i realizzatori, produttori e, per certi versi, ‘esecutori’ di Tecnologie ICT e delle relative infrastrutture digitali, nel loro complesso, sono aziende private.

Da una cosa, tuttavia, è necessario ripartire ogni volta, qualsiasi sia l’ambito applicativo al quale ci si riferisce, quando si discute di IA: non è mai neutra. E nella fattispecie, l’Intelligenza Artificiale nei Tribunali è e sarà uno strumento potente, ma non neutrale. Può accrescere l’efficienza e l’accessibilità della giustizia, ma deve essere impiegata con grande cautela, sotto il controllo di attori umani e nel rispetto dei principi fondamentali dello Stato di Diritto: trasparenza

Back To Top