Costfoto/NurPhoto via Getty Images 

La legge sull'AI che voleva inseguire l'Europa, e forse l'ha superata

Carlo Alberto Carnevale Maffè

L’Italia ha finalmente una normativa (“antropocentrica e responsabile”) sull’intelligenza artificiale. Adesso ci manca solo l’AI

Il Parlamento ha appena dato il via libera a una nuova legge sull’intelligenza artificiale, un testo che, nelle sue intenzioni, vorrebbe bilanciare innovazione e tutela dei diritti, ma che, nei fatti, rischia di aggiungere un bel po’ di rigidità a un settore che, invece, ha bisogno di correre e volare. 


Il disegno di legge, approvato in via definitiva dal Senato il 17 settembre, si presenta con un’ambizione encomiabile: adottare un approccio “antropocentrico e responsabile” all’AI. L’idea è quella di mettere l’uomo al centro, proteggendolo dai rischi economici, sociali e dalla possibile lesione dei diritti fondamentali. Un concetto nobile, certo, che si allinea con l’AI Act europeo, ma che, come ha giustamente notato Mario Draghi in un suo recente intervento, rischia di diventare una “fonte di incertezza”, più che un quadro di riferimento chiaro. Draghi ha chiaramente indicato il rischio che la regolamentazione europea su una tecnologia ancora emergente possa trasformarsi in un freno per l’innovazione. La legge italiana sembra aver fatto di tutto per “adeguarsi” al ribasso, amplificando i vincoli europei su scala nazionale.

 

Il testo si articola in quattro capi, e già qui si capisce quanto siamo bravi a complicarci la vita.

 

Gli articoli da 1 a 6 stabiliscono i princìpi generali. Tra i tanti, l’articolo 3 impone principi vincolanti come la trasparenza, la proporzionalità, la sicurezza, la protezione dei dati (in linea con il Gdpr), la non discriminazione e la supervisione umana. Tutto bellissimo, ma con un tocco di rigidità in più: si impongono obblighi di “cybersicurezza” e accessibilità per i disabili, con il rischio di sanzioni per chi non si adegua. L’articolo 4, poi, vieta usi dell’AI che minino il pluralismo mediatico o la libertà di espressione. Inoltre, richiede il consenso dei genitori per i minori di 14 anni che usano sistemi di IA. Insomma, prima di partire, c’è già un pesante piede normativo sul freno. Non solo: lo stato si riserva il diritto di “favorire mercati equi e innovativi”, privilegiando i data center nazionali ad alta sicurezza negli appalti pubblici. Non esattamente una premessa incoraggiante per chi vuole innovare, considerati i ritardi accumulati dal pur importante Polo strategico nazionale. 
Gli articoli da 7 a 15 si concentrano sulle applicazioni settoriali. Qui, il tono si fa ancora più rigido. Nella sanità, per esempio, l’AI per le diagnosi deve garantire la non discriminazione, la trasparenza e nientepopodimeno che l’inclusione sociale. E nel mondo del lavoro, un nuovo Osservatorio ministeriale avrà il compito di monitorare l’impatto dell’AI su assunzioni, promozioni e il monitoraggio dei lavoratori. Ma il vero capolavoro di burocrazia si trova nell’articolo 13, che regola le professioni intellettuali come avvocati e medici. Qui, l’AI è relegata a un ruolo meramente “strumentale”, a tutela delle rendite professionali. Il “pensiero critico umano” deve obbligatoriamente prevalere, sempre e comunque. Peccato che sia proprio il “pensiero critico” a dimostrare che la vera innovazione nasce dall’automazione audace, non da un criterio imposto per legge.

 
Gli articoli 16-21 si concentrano sulle tutele e le responsabilità. Qui troviamo il divieto di usare l’AI per la manipolazione comportamentale o la sorveglianza occulta. E, in linea con l’AI Act, i fornitori di sistemi ad alto rischio devono condurre valutazioni d’impatto e garantire trasparenza e supervisione umana. Anche qui, tutto giusto, ma a che prezzo? Mario Draghi ha sollevato il problema dell’incertezza legale che queste norme generano, spingendo gli investimenti verso l’America e la Cina, dove la concorrenza è sottoposta a molti meno vincoli ex ante, e  i rischi vengono semmai verificati ex post.

 
Infine, gli articoli 22-24 si occupano di investimenti, deleghe e disposizioni finali. Qui si scopre che lo stato ha intenzione di investire fino a 1 miliardo di euro. Una cifra che impallidisce di fronte agli investimenti privati pianificati dai grandi attori del settore, con pianti di sviluppo di nuovi data center per centinaia di miliardi. A questo si aggiunge la delega al governo di adottare decreti entro 12-18 mesi, con multe fino 35 milioni di euro o il 7 per cento del fatturato per le imprese che non rispettano le prescrizioni. Un sistema di sanzioni che, come ha lamentato Draghi, genera “incertezza legale”, praticamente impossibile da affrontare da parte di startup e Pmi italiane.

 

In sintesi, la legge italiana sull’AI, pur con le sue nobili intenzioni, sembra ricalcare un vecchio modello di regolamentazione ex ante di una tecnologia che deve ancora muovere i suoi primi passi operativi, con l’effetto di ostacolare l’innovazione. L’approccio “antropocentrico” rischia di tradursi in un labirinto burocratico, che impone costi e ritardi e finirà anche stavolta per farci perdere l’opportunità di competere in un settore che va a velocità supersonica.
Draghi ha avvertito che l’Europa rischia di “rimanere indietro”. E con questa legge, l’Italia sembra fare di tutto per aggravare il divario. Invece di una strategia proattiva per un’AI “sovrana”, si preferiscono le tutele reattive. Forse è il caso di ripensarci e di puntare su una semplificazione radicale, invece che su un “gold-plating” normativo. Altrimenti, l’Italia, e con lei l’Europa, rischia di rassegnarsi a guardare gli altri correre, rimanendo ferma al palo. E questo sarebbe un peccato, perché di intelligenza naturale, in Italia, ne abbiamo da vendere. Se solo la lasciassimo libera di correre.

Di più su questi argomenti: