Foto di Google DeepMind su Unsplash
un provvedimento simbolico
L'Italia avanza sull'AI Act, proprio mentre l'Ue temporeggia
Il disegno di legge si presenta come il primo tentativo organico di disciplinare l’uso dell’intelligenza artificiale a livello nazionale, ma in realtà anticipa obblighi e principi che rischiano di produrre incertezza e un carico regolatorio senza vantaggi
Comprensibilmente, visto tutti i rischi che sta correndo l’Europa, è passata in silenzio una notizia importante per il futuro industriale e tecnologico dell’Ue. Mario Draghi aveva chiesto un rinvio dell’AI Act europeo, limitatamente alla parte sui sistemi ad alto rischio, per evitare che regole troppo premature finissero per ostacolare proprio quelle applicazioni industriali che potrebbero rappresentare l’unica leva competitiva dell’Europa nei prossimi anni. Settimana scorsa Bruxelles ha accolto la richiesta, spostando l’entrata in vigore sostanziale alla fine del 2027.
In questo nuovo scenario, può generare confusione il disegno di legge italiano sull’intelligenza artificiale: non solo arriva prima dell’AI Act europeo, ma anticipa obblighi e principi che rischiano di produrre incertezza, frammentazione e un carico regolatorio senza alcun vantaggio competitivo. Soprattutto perché non richiesti dalla Ue e non condivisi da altri paesi europei. Si chiama tecnicamente “gold plating”, lo abbiamo già fatto molte volte noi italiani (la direttiva sui mercati finanziari, quella su appalti etc.) e ce ne siamo sempre pentiti. Nelle intenzioni del legislatore, la legge italiana si presenta come il primo tentativo organico di disciplinare l’uso dell’IA a livello nazionale. In realtà, più che una svolta sostanziale, sembra un provvedimento simbolico, che afferma valori condivisibili – centralità dell’uomo, trasparenza, tutela della persona – rimandando ai futuri decreti previsti dall’art. 16 la definizione degli strumenti operativi, degli standard tecnici e delle indicazioni applicative.
Il testo nasce in un momento sbagliato: la prima bozza era stata approvata quando l’AI Act europeo non era ancora definitivo, producendo disallineamenti solo parzialmente corretti durante l’iter parlamentare. Il rischio è quello di creare un doppio livello normativo proprio nel periodo più delicato della transizione, con sovrapposizioni e incertezze per imprese, pubbliche amministrazioni e autorità di controllo. Il punto più evidente riguarda la governance: la legge attribuisce i poteri ad AgID e ACN, che però non sono autorità indipendenti come richiesto dalla riforma europea. Ne derivano ambiguità di ruolo e possibili conflitti di competenza, in particolare con il Garante per la Privacy, proprio mentre l’Europa chiede un sistema di vigilanza omogeneo e indipendente.
Molte norme restano dichiarazioni di principio. Si afferma che l’IA non potrà sostituire le decisioni umane in sanità e giustizia, ma senza definire come ciò debba essere garantito. Si riconosce il diritto alla trasparenza, senza stabilire soglie minime o modalità di notifica. Le imprese dovranno dichiarare quando e come l’automazione interviene nei processi decisionali, ma non è chiaro quale sia il confine tra supporto e sostituzione, né quali siano gli obblighi documentali.
Anche il rapporto con i fornitori è lasciato in sospeso: le organizzazioni dovranno verificare la conformità di software e servizi a requisiti di sicurezza, accuratezza, non discriminazione e tracciabilità, ma senza standard definiti né clausole operative. In sanità, la possibilità di utilizzare dati per ricerca IA senza consenso esplicito apre benefici potenziali, ma anche dubbi sulla compatibilità con i futuri assetti europei e sull’assenza di un opt-out chiaro. Nel diritto d’autore, il provvedimento ribadisce che un’opera generata con IA è tutelabile solo se esiste un contributo umano “creativo, rilevante e dimostrabile”, senza però chiarire come misurarlo né chi abbia l’onere della prova. Tutto rimane sospeso in attesa dei decreti attuativi, che dovranno indicare requisiti tecnici, responsabilità e sanzioni nei prossimi dodici mesi.
Il risultato è una legge che “occupa il campo” ma rischia di aggiungere complessità a un sistema già fragile, mentre Francia e Germania investono risorse molto più consistenti. In un contesto in cui l’Europa ha scelto di fermare il conto alla rovescia imposto dall’AI Act per favorire l’adozione industriale e, a detta di alcuni, fare un passo indietro sulla sua attenzione a regolamentare l’intelligenza artificiale, l’Italia rischia di rimanere con il cerino in mano.
L’unico elemento potenzialmente utile riguarda il contrasto alle fake news generate dall’IA, tema su cui servono strumenti rapidi e coordinati. Ma per il resto, senza una strategia industriale, investimenti e coerenza con la cornice europea, una legge nazionale rischia di non proteggere nessuno e frenare tutti.