Così Pechino regola la sua AI per farne un modello globale

Etichettatura obbligatoria dei contenuti sintetici, qualifiche per chi parla online di temi sensibili e limiti ai licenziamenti per automazione. La leadership sta costruendo standard per evitare il collasso economico e creare un nuovo sistema tecnologico

di
11 MAY 26
Ultimo aggiornamento: 08:50 AM
Immagine di Così Pechino regola la sua AI per farne un modello globale

DeepSeek, il più diffuso large language model cinese (foto Getty Images)

Shanghai. La narrativa secondo cui la Cina sviluppa intelligenza artificiale senza regole, mentre l’occidente protegge i cittadini attraverso strumenti legislativi sofisticati come l’AI Act europeo, è una postura comoda e rassicurante. Ma che potrebbe non essere più adatta a descrivere la realtà. Negli ultimi dodici mesi, Pechino ha prodotto una serie di misure regolative sull’intelligenza artificiale che, prese nel loro insieme, delineano un sistema di governance più concreto e operativo di quanto ci si aspetterebbe da un paese che secondo gli stereotipi orientalisti non avrebbe interesse a limitare la propria industria tecnologica. Alcune di queste misure meritano attenzione specifica, perché toccano questioni su cui il dibattito occidentale è ancora in una fase prevalentemente deliberativa, distante dalla produzione di norme operative.
La prima riguarda la tracciabilità dei contenuti generati dall’AI. Dal 1° settembre 2025, in Cina è in vigore un regime obbligatorio di etichettatura di tutti i contenuti sintetici prodotti da sistemi di intelligenza artificiale: testi, immagini, audio, video e ambienti virtuali. Il provvedimento, emanato congiuntamente dalla Cyberspace Administration of China, dal ministero dell’Industria e dell’Informatica, dal ministero della Pubblica sicurezza e dall’Amministrazione statale della radio e della televisione, impone ai fornitori di servizi due livelli di identificazione. Il primo è esplicito, visibile all’utente sotto forma di avvisi testuali o grafici. Il secondo è implicito, incorporato nel file come metadato o watermark digitale, che rimane leggibile anche dopo compressioni, modifiche di formato o editing successivi, con identificativi che risalgono al fornitore di servizi originale. Piattaforme come Douyin (la versione cinese di TikTok) e WeChat hanno adattato i propri sistemi, e chi non dichiara l’origine artificiale del contenuto si vede applicare automaticamente l’etichetta. La rimozione delle marcature è espressamente vietata, con sanzioni che coinvolgono sia i creatori sia le piattaforme distributive.

di
In Europa, l’articolo 50 dell’AI Act prevede che i sistemi generativi marchino i propri output in formato leggibile dalle macchine. Ma la vaghezza tecnica della norma, su cui ancora si discute se watermark invisibili siano sufficienti o se sia necessaria anche una marcatura visibile all’utente, rallenta l’implementazione pratica e lascia dei margini interpretativi che ogni stato membro sembra destinato a colmare in modo difforme. Pechino ha risolto quella vaghezza con uno standard tecnico nazionale obbligatorio, il GB 45438-2025, che prescrive regole precise di codifica, formato e verifica. Un approccio meno elegante filosoficamente, ma considerevolmente più efficace dal punto di vista operativo, nel senso che produce adeguamenti misurabili invece di principi in attesa di recepimento.
La seconda misura, entrata in vigore nell’ottobre 2025, riguarda la qualificazione dei creatori di contenuto. La Cyberspace Administration ha stabilito che gli influencer che pubblicano su argomenti classificati come sensibili per l’interesse pubblico, ovvero medicina, diritto, educazione e finanza, devono disporre di credenziali professionali verificabili: lauree, abilitazioni o licenze di esercizio. Le piattaforme (e bada bene: non gli utenti, come nelle community note di Meta) hanno l’obbligo di verificare le qualifiche e di rimuovere o segnalare i contenuti professionali prodotti da soggetti privi di titolo. Le sanzioni per inadempienza raggiungono centomila yuan per episodio (circa dodicimila euro, praticamente il reddito medio pro capite lordo cinese annuo). L’obiettivo dichiarato è la lotta alla disinformazione amplificata dall’AI, che consente a chiunque di confezionare con credibilità sintetica consigli medici o finanziari privi di qualsiasi competenza verificabile alle spalle.
E’ lecito sollevare obiezioni su questa norma, e alcune sono serie. Il rischio di usare la “qualificazione” come strumento di silenziamento selettivo di voci scomode non è trascurabile in un sistema privo di separazione effettiva tra potere politico e potere regolativo. Ma il problema che la norma affronta esiste indipendentemente dal regime che la adotta, e l’occidente non ha ancora trovato una risposta sistematica al proliferare di contenuti prodotti o migliorati da AI da parte di soggetti senza alcuna competenza verificabile sui temi che trattano. In questo senso il confronto riguarda la capacità di tradurre un problema riconosciuto in un meccanismo normativo funzionante, indipendentemente da chi lo faccia e con quali motivazioni collaterali.
La terza misura è la più recente. Il 28 aprile 2026, la Corte intermedia di Hangzhou ha pubblicato una raccolta di casi tipici in materia di tutela dei lavoratori nell’èra dell’AI, confermando in appello una sentenza che aveva dichiarato illegittimo il licenziamento di un responsabile della qualità di un’azienda tecnologica la cui posizione era stata sostituita da un large language model. Il ragionamento della corte è preciso: l’adozione dell’intelligenza artificiale è una scelta strategica, e come tale non può essere classificata come “cambiamento oggettivo rilevante” ai sensi del diritto del lavoro cinese, categoria riservata a eventi imprevedibili come disastri naturali o mutamenti normativi catastrofici. Trasferire sul lavoratore il costo di una scelta tecnologica intenzionale è illegittimo: è la prima volta che uno stato lo asserisce con tanta forza. L’azienda aveva proposto al dipendente una riassegnazione con taglio salariale del quaranta per cento. La corte ha giudicato anche quella proposta irragionevole, in quanto strumento per indurre le dimissioni invece di adempiere all’obbligo di ricollocazione.
Una pronuncia analoga era arrivata in precedenza da Pechino, dove il municipio aveva stabilito lo stesso principio in una controversia legata all’automazione di una funzione di raccolta dati cartografici: la transizione tecnologica è un rischio d’impresa, e il costo di quella transizione non può essere scaricato sui lavoratori sostituiti senza che l’azienda risponda delle conseguenze. I media cinesi hanno riferito nel frattempo di un’azienda dello Shandong che ha continuato a usare un avatar digitale di un ex dipendente dopo il suo licenziamento, spostando eticamente il confine del senso stesso dell’automazione. Certo, la norma è facile da aggirare: basta giustificare il licenziamento con “riorganizzazioni aziendali” per evitare di incapparci. Ma resta comunque notevole che questa giurisprudenza emerga in un paese in cui l’industria AI ha già superato 1.200 miliardi di yuan di valore e dove si prevede che entro il 2030 il tasso di penetrazione degli agenti intelligenti nei terminali di nuova generazione supererà il novanta per cento. Pechino accelera lo sviluppo dell’AI e costruisce in parallelo un sistema di regole che distribuisce i costi sociali in modo che non ricadano interamente sui soggetti più vulnerabili al cambiamento tecnologico.

di
In Europa e negli Stati Uniti, il dibattito sulla tutela dei lavoratori dall’automazione è ancora largamente al livello delle proposte accademiche e dei documenti di policy. L’AI Act non contiene norme specifiche sulla sostituzione occupazionale. Il dibattito americano sulla questione è praticamente assente a livello federale. Nel frattempo, Hangzhou ha già scritto una pagina importante, e citabile dagli altri tribunali. E’ possibile che queste norme vengano applicate in modo selettivo o distorte per servire interessi politici. Ma esistono e producono effetti concreti su questioni che le democrazie liberali non hanno ancora tradotto in norme operative. Non è detto che il modello occidentale di governance dell’AI stia producendo risultati misurabili: il rischio è che stia tentando di rincorrere la tecnologia a un passo che non può che essere sempre più inattuale rispetto alla velocità esponenziale di questo periodo storico.