La Commissione europea ha pubblicato la relazione 2024 sul Safety Gate, il sistema di allerta…
Gaza e l’Ucraina impongono un “momento Oppenheimer” dell’Ai in guerra

L’intelligenza artificiale ha un ruolo di primo piano sia nel conflitto russo-ucraino che nella guerra tra Hamas e Israele. Ma mancano regole internazionali per limitare l’uso della tecnologia in guerra. L’analisi di Giusella Finocchiaro, professoressa ordinaria di Diritto Privato e Diritto di Internet presso l’Università di Bologna e socia fondatrice di IAIC.
È arrivato il “momento Oppenheimer” dell’intelligenza artificiale? Prendendo spunto dal recente dibattito sul film di Christopher Nolan sugli uomini che fecero la bomba atomica, gli esperti hanno cominciato a fare confronti tra i potenziali impatti di un’IA sfuggita al controllo con gli effetti distruttivi delle armi nucleari. Per ora l’analogia – illustrata bene da Alex Karp, amministratore delegato di Palantir Technologies (società di software americana specializzata in analisi di Big data per le agenzie federali e la comunità di intelligence degli Stati Uniti) in un editoriale sul New York Times – resta meramente teorica, ma i dilemmi etici di chi sviluppa le AI sono già molto simili a quelli che affrontarono, a metà degli anni Quaranta, i fisici e gli scienziati che parteciparono al Progetto Manahattan insieme a J. Robert Oppenheimer.