
Foto di Ivan N su Unsplash
Rischi e frammentazione
Tutti i limiti del ddl AI
Pochi soldi e tanta burocrazia. Nonostante l’allineamento formale al regolamento europeo AI Act, l’Italia fa peggio dell’Ue, alimentando l’incertezza per imprese che necessitano di regole stabili e prevedibili, con il rischio di restare indietro
Nella guerra dei dazi scatenata da Trump, una delle poche armi, o merci di scambio, in mano all’Europa sono le regole del suo ricco mercato digitale. In questa chiave possono essere interpretate anche le recenti sanzioni comminate dalla Commissione europea ad Apple (500 milioni di euro) e a Meta (200) in ragione del Digital Markets Act. In questo nuovo scenario di confronto con l’Amministrazione Usa può essere commentato il disegno di legge italiano sull’Intelligenza artificiale, approvato dal Senato il 20 marzo 2025 e al momento in discussione alla Camera. Nonostante l’allineamento formale al regolamento europeo AI Act, il provvedimento presenta diverse contraddizioni.
Mentre l’Italia ha scelto una via normativa autonoma, Francia e Germania hanno preferito un percorso basato sul recepimento e rafforzamento dell’AI Act, senza introdurre leggi parallele potenzialmente disallineate. Questo approccio ha permesso loro di concentrarsi sugli incentivi all’innovazione, sulla formazione e sulla cooperazione industriale, evitando il rischio di frammentazione normativa.
A livello di governance, la frammentazione istituzionale è evidente senza indicare meccanismi di coordinamento. Il ddl prevede infatti la creazione o l’attribuzione di competenze a numerosi enti: Agenzia per l’Italia digitale (AgID), Agenzia per la Cybersicurezza Nazionale (Acn), Osservatori presso vari ministeri, fra i quali uno da istituirsi presso il ministero del Lavoro. Il ddl demanda al governo ampi margini di delega legislativa (art. 24), anche su temi sensibili come le responsabilità civili e penali legate all’uso illecito di sistemi di IA. Così si alimenta l’incertezza per imprese che necessitano di regole stabili e prevedibili.
Uno degli aspetti più controversi riguarda l’obbligo, all’art. 6, di conservare i dati utilizzati dai sistemi di IA pubblici su server localizzati esclusivamente nel territorio italiano. Questa misura è giustificata dalla necessità di garantire la “sovranità digitale” ma rischia di porsi in contrasto con il principio di libera circolazione dei dati sancito dal diritto Ue. Inoltre, potrebbe impedire alle amministrazioni pubbliche di adottare soluzioni tecnologiche già disponibili, rallentando l’adozione di infrastrutture interoperabili e competitive.
Anche il tema del diritto d’autore, affrontato all’art. 25, presenta ambiguità. L’introduzione del criterio del “risultato dell’ingegno umano” per riconoscere la protezione legale delle opere realizzate con l’ausilio dell’IA si presta nella pratica a interpretazioni contrastanti, che costituiscono le materie del contendere delle molte cause in corso a livello internazionale. Sarebbe opportuno prevedere indicazioni più concrete, ad esempio il divieto di usare l’apporto di lavoratori per addestrare soluzioni di IA senza riconoscerne adeguato compenso.
Altro nodo cruciale è rappresentato dalle risorse pianificate. Il fondo da un miliardo di euro gestito da Cdp Venture Capital, seppur significativo sulla carta, appare modesto se confrontato con gli investimenti previsti da altri paesi Ue. La Francia ha annunciato oltre 100 miliardi di euro in investimenti in IA per il prossimo decennio, con una strategia d’attrazione dei talenti e creazione di ecosistemi industriali avanzati. La Germania ha puntato su poli d’eccellenza e collaborazioni pubblico-private con budget molto superiori. L’Italia rischia così di restare indietro non per mancanza di visione, ma per l’insufficienza di risorse dedicate e per la dispersione degli sforzi.
Molti articoli dicono cose assolutamente ragionevoli ma rischiano di essere ridondanti e inutili. Anzi, si possono prestare a strumentalizzazioni. Si pensi all’art. 13 che dice che l’utilizzo dell’IA nelle professioni intellettuali è finalizzato al solo esercizio delle attività di supporto e strumentali. Sembra un’ovvietà. Si vede forse la preoccupazione degli ordini professionali che l’IA abbassi i costi di entrata per i giovani che la sanno usare? Era proprio il caso di scrivere un ddl italiano quando c’è già un regolamento europeo? Il rapporto Draghi critica l’eccesso di regolamentazione dell’Ue che rallenta l’innovazione. Ma almeno l’Europa ha la giustificazione di cercare garanzie per i cittadini in un mondo in cui, per la Cina, tutti i dati sono dello stato (che ci fa ciò che vuole) e, per gli Usa, tutti i dati sono del mercato (che ci fa ciò che vuole). Ogni regola, almeno per le piccole imprese, costituisce un costo, mentre per le grandi società come Facebook e Google costituisce una minaccia (più di una volta sono state multate in Europa per l’uso scorretto dei dati). Ma in tutto questo cosa può mai aggiungere un ddl italiano?