Con un nuovo Avviso pubblico da 70 milioni di euro, Province, Città metropolitane e Liberi…
Ripensare la privacy per il mondo digitale. Intervista a Giorgio Resta

Giorgio Resta è direttore vicario del dipartimento di Giurisprudenza dell’Università degli Studi Roma Tre e professore di Digital Technologies and the Law.
“Rinunciare” parzialmente alla privacy può apportare dei benefici ai consumatori, permettendogli ad esempio di accedere a servizi più efficienti (penso alla geolocalizzazione oppure alla pubblicità comportamentale). Crede che questi vantaggi stiano portando ad una sottovalutazione generale dell’importanza della privacy? Il Financial Times si chiedeva proprio se la privacy non fosse morta.
Inizierei con una chiarificazione di ordine terminologico ed anche concettuale. Lei ha parlato di “privacy”, ma sarebbe forse più opportuno in questo contesto parlare di controllo circa il flusso dei propri dati personali. La “privacy” di cui discorre il Financial Times, quella a cui pensavano Warren e Brandeis nel famoso articolo dell’Harvard Law Review della fine dell’Ottocento, è, almeno negli USA, morta da molto tempo, almeno da quando le corti statunitensi, dopo aver svolto un’opera meritoria con il riconoscimento giudiziale di tale interesse, ne hanno decretato – siamo nel secondo dopoguerra – il carattere recessivo rispetto alla libertà di stampa.
Il Primo Emendamento della Costituzione USA è stato, in un certo senso, il carnefice della privacy vittoriana (come pure dell’interesse alla reputazione, ricevuto in dote dalla common law inglese, o del rispetto della presunzione di innocenza protetto dal contempt of court). Per tutta una categoria di persone, si ricorderà ad es. il famoso caso Sidis nel campo del diritto all’oblio, la newsworthiness ha operato come acido destinato a corrodere qualsiasi pretesa riconducibile al nobile “right to be let alone” (lascito di una società – e qui penso alle analisi di Thorstein Veblen – fatta di stratificazioni sociali e governata da élites in senso proprio, desiderose di mantenere un velo di separazione dai rapporti di “massa”). Morta sul piano dell’esposizione mediatica, la privacy nel diritto nordamericano è risorta – lo aveva spiegato molto bene Antonio Baldassarre alcuni anni fa – soltanto sul piano dei rapporti tra individuo e autorità pubbliche e segnatamente sul terreno delle scelte di autonomia concernenti la gestione del corpo (procreazione, aborto, identità sessuale, fine vita), ricondotte al due process sostanziale di cui al XIV Emendamento.
La situazione è almeno in parte diversa per l’esperienza europea, poiché l’equilibrio tra diritti individuali e libertà di stampa ha sempre assunto diverse caratteristiche e maggiore equilibrio, come dimostra la copiosa giurisprudenza della Corte di Strasburgo in tema di art. 8 CEDU. Da questo lato dell’Atlantico la privacy gode relativamente di miglior salute, anche perché, come ci ha spiegato Jim Whitman, è stata fecondata dal seme della dignità, che è la vera stella polare della tradizione giuridica europea e impone obblighi positivi di protezione non soltanto nelle relazioni pubblico/privato ma anche nel quadro dei rapporti interprivati (di qui la Drittwirkung).
Proprio il riferimento alla dignità permette di affrontare con maggior consapevolezza il tema su cui lei, così cortesemente, ha sollecitato una mia riflessione. Qui non parliamo affatto di privacy, ma – richiamando una formula di Stefano Rodotà – di controllo sul flusso delle informazioni in entrata e in uscita. È difficile parlare ancora di privacy, cioè tecnicamente di una sfera di riservatezza giuridicamente protetta dalle ingerenze esterne, quando la stessa identità della persona è ormai costitutivamente definita da tecnologie che, oltre a dettare i ritmi della vita quotidiana, rendono l’individuo costantemente connesso e ‘visibile’. Non penso soltanto alle tecnologie che incidono sulla stessa sfera della corporeità, come gli impianti sub-cutanei o i dispositivi medici utilizzati per finalità diagnostiche o terapeutiche, ma più semplicemente agli smart devices, come gli orologi o gli occhiali intelligenti, o al prodotto che maggiormente ha cambiato gli usi di vita e le modalità di relazioni individuali (oltre che le performances economiche) e cioè il telefono portatile.
Tutti questi oggetti sono ormai divenuti parte integrante della nostra soggettività – come ben sanno gli psicanalisti chiamati a confrontarsi quotidianamente con patologie collegate all’abuso di tali strumenti – e producono, tra i molti effetti, la moltiplicazione delle tracce che, il più delle volte inconsapevolmente, ciascuno di noi lascia durante la propria vita quotidiana. Tracce che non sono più soltanto registrate da apparecchi elettronici isolati, ma sempre più condivise e messe in rete per gli usi più diversi – come ci ha ben spiegato Shoshana Zuboff – dell’economia capitalistica. Talora poi tali tracce non vengono lasciate inconsapevolmente, ma con piena intenzionalità (quanto meno dell’atto, non sempre delle sue conseguenze): è il caso dei “social network” che sono il più delle volte il veicolo di una massiva “socializzazione” dei dati personali. Trovo che non vi sia migliore caratterizzazione dei problemi del tempo presente di quella proposta da Umberto Galimberti in una recente conversazione radiofonica nell’ambito del programma “Uomini e profeti” di Radio Tre: se la riflessione di Heidegger muoveva dal concetto di in-der-Welt-sein (esserci, essere nel mondo), la condizione umana è oggi costituita dall’im-Web-sein (essere nel Web). Ciò impone una riflessione profonda sui diritti della persona nell’era tecnologica, che non può essere disgiunta da una riflessione altrettanto attenta sul destino della democrazia. Il controllo sui dati non significa soltanto controllo sui comportamenti individuali, ma significa anche concentrazione enorme di potere, capace di incidere sulla formazione del consenso e sulle dinamiche di governo della società (si pensi soltanto alla vicenda Cambridge Analytica).
La “microfisica” del potere nel mondo digitale lega inscindibilmente pubblico e privato, ed è proprio per questa ragione che trovo del tutto inadeguato, soprattutto oggi, il riferimento alla privacy. Questo infatti evoca un quadro valoriale, e soprattutto un assetto giuridico, incentrato sulla separazione tra individuo e comunità, tra privato e pubblico. Il diritto della privacy tradizionale muoveva da una siffatta premessa epistemologica e adottava un meccanismo di tutela pressoché esclusivamente rimesso all’iniziativa individuale, nonché a rimedi di stampo privatistico e destinati ad operare a violazione già compiuta. Il diritto dei dati personali di una società tecnologicamente avanzata si basa invece sulla convergenza delle due dimensioni e sull’integrazione degli strumenti di tutela, con una forte postura preventiva. I modelli rimediali di stampo privatistico (i “diritti dell’interessato” del GDPR e la responsabilità civile) si legano inscindibilmente a quelli pubblicistici, le tutele possono essere promosse dai singoli individui coinvolti, come pure da soggetti collettivi e autorità amministrative indipendenti; l’obiettivo fondamentale è quello di elevare la qualità e le garanzie dell’ecosistema informativo e non soltanto reagire a violazioni già avvenute.
Tutto ciò premesso, torniamo alla domanda che Lei mi poneva in apertura: i vantaggi connessi all’uso delle tecnologie stanno portando ad una sottovalutazione generale dell’importanza della privacy? Cerchiamo di essere realistici. Quanti di noi rinunzierebbero all’uso del motore di ricerca Google per evitare di essere tracciati? Quanti di noi farebbero a meno di un telefono portatile per comunicare e ricevere messaggi di posta elettronica? Quanti noi abdicherebbero all’uso delle carte di credito per gli acquisti? Tutte le tecnologie impongono costi e benefici sociali e l’intero progresso umano è stato segnato dall’adattamento alle esternalità prodotte dai nuovi strumenti capaci di soddisfare bisogni e risolvere problemi sino a quel momento insoluti. Non vorrei che per effetto di una certa retorica conservatrice – che ha toccato i suoi picchi nel dibattito surreale che ha circondato nelle scorse settimane le proposte volte a modernizzare il sistema dei pagamenti per finalità antielusive – dimenticassimo che, in nome del progresso tecnologico, siamo disposti ogni giorno a sacrificare decine, se non centinaia di vite umane. È quanto accade per effetto dell’uso delle autovetture: è semplicemente ipocrita non vedere tutti i “doni dello spirito maligno” (come li ha chiamati Guido Calabresi), che accettiamo di buon grado in nome delle comodità, del progresso, o del totem dell’efficienza. Non è questo il punto, o quanto meno non dovrebbe esserlo in una società che si definisce liberale.
Il punto è, invece, che ogni tecnologia è di per sé neutra negli scopi e assume un significato sociale strettamente dipendente dalle scelte istituzionali che ne regolano l’utilizzo. Le tecnologie digitali, come spiegavo prima, stanno incidendo profondamente non soltanto sulle condizioni di vita materiale, ma anche sul substrato antropologico; ciononostante esse sono socialmente accettate e godono di sempre maggiore diffusione. Il loro utilizzo comporta costi non materiali che diverranno più evidenti con il corso del tempo, ma è puramente utopico pensare che se ne possa frenare l’utilizzo in nome di valori propri di un mondo ‘analogico’ (come la privacy vittoriana).
Ciò che invece è possibile e si deve fare è approntare una cornice istituzionale che persegua l’obiettivo di coniugare l’innovazione tecnologica con il rispetto dei diritti individuali e dell’interesse collettivo. Allora, la risposta non è quella di limitare il ricorso ai servizi di geolocalizzazione – quanti di noi rinuncerebbero all’uso di Google Maps? – ma di legarne l’utilizzo a un quadro di regole e principi che assicurino il rispetto di dignità e diritti. Il sistema europeo ha fatto questa scommessa e anche se non tutti i problemi possono dirsi risolti, soprattutto perché il GDPR è stato concepito in un mondo che ancora non conosceva i big data nella loro attuale configurazione, certamente le grandi scelte di policy vanno nella giusta direzione (e penso soprattutto al modello dell’autorità amministrativa indipendente e all’enforcement pubblico e collettivo). Non a caso, il tema importante del “pagamento attraverso dati” sollevato dalla Proposta (ora approvata) di Direttiva sulla fornitura di contenuti digitali ha imposto una riflessione volta a coniugare il fenomeno reale (e irreversibile) dei dati usati come controprestazione con l’assetto normativo di protezione che impone un quadro di garanzie rafforzate, come la “libertà” del consenso, la sua revocabilità, la portabilità, nonché il rispetto dei principi di trasparenza, finalità, minimizzazione dei dati (sul punto non ripeto quanto già scritto assieme a Vincenzo Zeno-Zencovich).
Un ultimo punto per concludere. Il modo in cui si regola istituzionalmente l’uso delle tecnologie riflette evidentemente le scelte assiologiche apicali di una determinata società. L’Europa ha scelto la via di una regolazione attenta ed incisiva, perfino sotto alcuni aspetti eccessiva. Dobbiamo essere consapevoli che questa scelta, coerente con la nostra tradizione di rispetto dei diritti, non è l’unica possibile e non è necessariamente la più efficiente.
Probabilmente più efficiente, dal punto di vista dello sviluppo di sistemi di intelligenza artificiale, sarebbe la scelta sino a poco tempo fa compiuta in Cina, dove lo sviluppo dei pagamenti cashless unitamente all’assenza di un incisivo quadro istituzionale di tutela dei dati (che ora invece è in via avanzata di realizzazione), ha permesso l’acquisizione di un parco informativo relativo alle microtransazioni dei consumatori di enorme ampiezza e cruciale per lo sviluppo dell’industria dell’intelligenza artificiale, che non a caso contende ormai il primato a quella statunitense. Tuttavia, un sistema equilibrato – e nel lungo periodo più sostenibile – è quello che tiene insieme i due poli dell’innovazione e del rispetto di diritti e libertà e, da questo punto di vista, mi terrei ben stretto l’assetto regolatorio europeo.