Foto Ansa

l'analisi

La relazione sulla sicurezza dell'intelligence italiana fa enormi passi in avanti sull'AI

Oscar Giannino

Lo stato e il diritto positivo si sono evoluti in parallelo alle rivoluzioni tecnologiche. I diritti e i doveri cambiano radicalmente, di fronte all’AI. Prima lo capiamo, più rapidamente saremo in grado di affrontare le sfide cyber della guerra asimmetrica alle democrazie liberali

Una vera rivoluzione. Non bisogna temere di usare una definizione così dirompente. Se si leggono le 157 pagine e le 18 di addendum della Relazione Annuale sulla Sicurezza Nazionale elaborata dai servizi d’intelligence italiani e depositata dal governo al parlamento lo scorso 4 marzo, il termine “rivoluzione” non è improprio. Per tanti anni, la relazione era una sintesi ragionata delle attività svolte contro le minacce tradizionali: criminalità organizzata italiana ed estera operante in Italia, riciclaggio, rischi da immigrazione incontrollata, gruppi di antagonismo di estrema destra e sinistra, terrorismo internazionale, spionaggio militare e industriale. La relazione 2026 fa un vero e proprio salto quantico. Sceglie finalmente di offrire al decisore politico e a tutti gli italiani un’analisi dei rischi totalmente nuovi del mondo odierno: quelli collegati allo sviluppo dell’IT e soprattutto al balzo poderoso dell’Intelligenza artificiale. Cui sono collegati alcuni dei capitoli più importanti della Relazione, e da cui dipendono altri capitoli essenziali come quello dell’ economics war, delle tecnologie quantiche e degli attacchi contro le liberaldemocrazie occidentali.

 

Non c’è spazio qui per ripercorrere tutti gli approfondimenti e le infografiche. Basta richiamare alcune premesse fondamentali. Non è solo la nostra drammatica dipendenza dalle terre rare cinesi, e quella enorme sulle risorse energetiche, o la permeabilità dei nostri server e device agli hackeraggi cinesi e russi, a descrivere il nostro rischio globale. L’AI si applicherà rapidamente a ogni segmento dell’attività umana, a ogni settore della produzione di beni e offerta di servizi, pubblici e privati, e ciò comporta un’enorme estensione del perimetro delle attività e della sicurezza esposte a rischi. Non è il numero di mezzi cinetici a disposizione delle forze armate a poter assicurare la sicurezza multidominio del mondo cyber, dalle profondità marine allo spazio esoatmosferico. Sono le leggi e lo stato, che devono adeguarsi. Per quanto sia difficile comprenderlo per giuristi e politici, lo stato e il diritto positivo si sono evoluti in parallelo alle rivoluzioni tecnologiche. I diritti e i doveri cambiano radicalmente, di fronte all’AI. Prima lo capiamo, più rapidamente saremo in grado di affrontare le sfide cyber della guerra asimmetrica alle democrazie liberali.

   

L’esempio viene dalla vicenda che vede contrapporsi Pentagono e Anthropic dei fratelli Amodei. Anthropic firma nel 2024, sotto Biden, un protocollo che consente al Pentagono l’utilizzo di Claude: a due condizioni, no all’utilizzo per controlli di massa sugli americani, no all’utilizzo per armi letali a funzionamento autonomo, senza operatore umano in the loop. Quando il Pentagono utilizza Claude per il blitz con cui si esfiltra Maduro, Anthropic rompe il contratto e accusa il Pentagono di aver violato le due clausole. Il ministro della Guerra Hegseth reagisce brutalmente. Gli Stati Uniti non possono consentire che sia un privato a tenere il grilletto nelle sue mani, e perciò dichiara Anthropic una minaccia nazionale per tutta la supply chain di AI negli Stati Uniti. Voi direte: Anthropic ha ragione. Invece il New York Times si pone il problema: in base a quale norma un privato rivendica il diritto al grilletto se gli Stati Uniti devono affrontare minacce alla propria sicurezza? Se unità navali o basi americane fossero attaccate con missili ipersonici, lanciati nell’endosfera con velocità tale da colpire in tempi brevissimi, come può un’impresa di AI dire che non bisogna usare l’AI per abbattere il missile con sistemi autonomi nello strettissimo lasso di tempo utile prima che colpisca? Conclusione dell New York Times: per la sicurezza cyber fatta di mezzi unmanned in ogni dominio, serve una ridefinizione dei diritti e dei doveri sia dello stato che dei privati. Servono giuristi che sappiano di tecnologie avanzate, forze armate e di intelligence che sappiano interoperare con l’AI agentica. A militari e intelligence servono migliaia di tecnici di IT e AI dalle aziende, dalle università e dai centri di ricerca. Come afferma la Relazione Sicurezza 2026. Qui non si tratta di militarizzare, ma di capire che la rivoluzione AI è tanto estesa e profonda da cambiare le coordinate della vita e i rischi di tutti noi. Non è un caso che i cinque scenari finali della Relazione prevedano risposte diverse, ma tutte elaborate dall’Intelligenza Artificiale.    

Di più su questi argomenti: