L’AI, copertura e capro espiatorio

Licenziamenti, tagli, riduzioni di personale, ristrutturazioni: tutto viene raccontato come conseguenza inevitabile del suo arrivo. Come l’intelligenza artificiale è diventata il nuovo “nemico astratto” e cosa sta accadendo davvero al lavoro

di
20 APR 26
Ultimo aggiornamento: 12:43 PM
Immagine di L’AI, copertura e capro espiatorio

Foto di Immo Wegmann su Unsplash

Una formula che negli ultimi mesi è diventata una spiegazione universale. Licenziamenti, tagli, riduzioni di personale, ristrutturazioni: tutto viene raccontato come conseguenza inevitabile dell’arrivo dell’intelligenza artificiale. Il messaggio è perfetto per i mercati e per fare titoli dei giornali e, al contempo, spiazzante per i lavoratori: non c’è responsabilità manageriale, non c’è errore strategico, non c’è cattiva pianificazione. C’è il progresso tecnologico. E il progresso, si dice, non si discute. Non è la prima volta che succede. In passato il “nemico astratto” è stato “il sistema”, poi “la globalizzazione”, poi “l’Europa”. La logica è sempre la stessa: indicare una forza impersonale che allontani dalle responsabilità reali delle scelte. Oggi quel nemico astratto si chiama AI. Dopo una breve stagione del “ha stato l’algoritmo”, l’intelligenza artificiale è diventata la formula che rimette tutti a posto: aziende, giornali, politici, sindacalisti, persino molti accademici. Tutti sollevati dal dovere di leggere davvero le trasformazioni e di attribuire le responsabilità dove stanno.
La realtà è che più ancora dell’adozione ben fatta e utile dell’AI, avanza il suo utilizzo strumentale nella narrativa di copertura. Negli anni abbiamo imparato a riconoscere diverse forme di “washing”: tutto l’arcobaleno delle “coperture” (rainbow washing), pink washing sulla parità di genere, green washing sull’ambiente, simboli e linguaggi esibiti per coprire l’assenza di cambiamenti reali. Oggi siamo entrati nell’epoca dell’AI washing. L’AI diventa la copertura reputazionale di scelte che hanno altre motivazioni: riduzione dei costi, correzione di errori manageriali, riallocazione del capitale, fine dell’eccesso di assunzioni, cambi di strategia, fusioni, compressione dei margini. Tra l’altro i report più citati negli Us (vedi Challenger), non riguardano i licenziamenti ma gli annunci riferiti a tale intenzione.
La differenza fra trasformazione tecnologica reale e narrazione strategica non è una questione semantica. E’ una questione di responsabilità. Attribuire tutto all’AI è una scorciatoia comoda perché comunica modernità, efficienza, inevitabilità. E’ molto più spendibile dire “ristrutturiamo per investire in AI” che dire “abbiamo sovrastimato la domanda”, “abbiamo sbagliato le previsioni”, oppure “dobbiamo liberare cassa per rimettere in ordine i conti”. Una recente sentenza in Italia lo conferma: quando un giudice riconosce la legittimità di una riorganizzazione guidata dall’AI, resta comunque il quesito decisivo. L’AI è stata la causa del licenziamento, o solo lo strumento attraverso cui è stata gestita una scelta già presa altrove? Più che “licenziare”, l’AI entra come fattore organizzativo dentro una decisione che resta umana, strategica e dunque discutibile.
Il primo rischio è la deresponsabilizzazione manageriale. Se la causa è “la tecnologia”, nessuno è responsabile: non chi ha inseguito strategie di crescita senza fondamentali solidi, non chi ha deciso di spostare investimenti verso infrastrutture e tagliare altrove. Ma l’adozione dell’AI è sempre una scelta strategica e soprattutto organizzativa, una scelta di investimento, una scelta di governance. Il secondo rischio è la rassegnazione sociale. Alla lunga i lavoratori si accorgeranno che coloro che li dovevano proteggere si sono salvati la coscienza buttando la palla in tribuna. Se il lavoratore interiorizza che “è l’algoritmo”, allora non c’è più spazio per la contrattazione, per la transizione, per la riqualificazione, per il ridisegno dei ruoli. Si produce un fatalismo tecnologico che paralizza ogni possibilità di governo democratico del cambiamento e soprattutto di quello che in Italia ad oggi non è mai stato fatto: un piano di riqualificazione professionale (reskilling) vero. Da questo punto di vista il grido unanime “regolamentiamo” rischia di essere un’altra invocazione astratta. Dare norme e profilo etico a una forza così veloce e con enormi capacità trasformative richiede capacità nuove. Ricordando che le regole senza consapevolezza diffusa rimangono gabbie vuote senza custodi. La domanda scomoda è questa: è la nostra ambizione essere pagati per fare un lavoro che una macchina sa fare meglio? Disturba, ma va posta. Non per celebrare la sostituzione, bensì per capire quali attività verranno automatizzate, quali potenziate, quali trasformate, e soprattutto chi rischia di pagare il conto se la transizione viene lasciata al solo mercato o a classi dirigenti incapaci di leggerla. Le istituzioni mostrano ancora un ritardo culturale significativo nella comprensione dei meccanismi reali dell’adozione tecnologica. E’ un problema politico prima che tecnico.
Cambia l’impatto delle tecnologie sul lavoro Per capire davvero che cosa sta accadendo bisogna uscire dalle banalizzazioni. L’impatto delle tecnologie sul lavoro può essere ricondotto a tre dinamiche: creazione di nuove professioni, sostituzione di attività esistenti, integrazione e trasformazione dei lavori attraverso nuove complementarità tra persone e macchine. La qualità dei dati è importantissima per qualsiasi analisi e valutazione.
In Italia l’Istat censisce 804 professioni. E’ da qui che bisogna ripartire: scomponendo i lavori in attività e abilità invece di ragionare per slogan. Negli Stati Uniti il Dipartimento del Lavoro ha costruito O*NET, un database che mappa 1.016 professioni scomponendole in più di 19.000 task specifici, aggiornato ogni trimestre. Non è solo un censimento: è uno strumento analitico e dinamico che misura l’esposizione di ogni attività lavorativa all’automazione, ed è già usato da istituti di ricerca per capire dove l’AI incide davvero. In Italia ci fermiamo a contare le professioni. Prima ancora di regolamentare l’AI, servirebbe dotarsi degli strumenti per leggerla. Prendiamo un esempio concreto: un analista finanziario non svolge un unico compito, ma una catena: raccolta dati, elaborazione, interpretazione, comunicazione, relazione col cliente. L’AI può automatizzare i primi due gradini. Ma il valore del professionista si sposta, non scompare. Anthropic ha pubblicato Job Explorer, un tool che incrocia i dati di utilizzo di Claude con le 19.000 componenti di O*NET. Per ogni professione il tool indica quali componenti vengono automatizzate, quali vengono aumentate (l’AI collabora con l’umano) e quali non registrano traccia di AI.
Finora digitale e robotica hanno soprattutto valorizzato l’ingaggio cognitivo e sostituito le mansioni routinarie e ripetitive: prima in fabbrica, poi sempre più negli uffici. Con l’intelligenza artificiale, però, la situazione si complica: i primi segnali sembrano dare ragione al paradosso di Moravec: le tecnologie tendono a erodere prima una parte delle attività cognitive codificabili, mentre faticano di più su quelle che richiedono capacità senso-motorie, contestuali e relazionali. Ad oggi si tratta di una rivoluzione che colpisce di più il lavoro impiegatizio di quello operaio. Nel frattempo, corre veloce la Physical AI, con la robotica sempre più capace di dare un corpo all’Ai e valorizzare il senso umano più sottovalutato, il tatto. L’AI non cancella il lavoro: cancella il lavoro “così com’è” In campo ci sono due letture. La prima vede l’AI come leva di riallocazione dei compiti e aumento della produttività, più complementare che sostitutiva (associata a Brynjolfsson e altri). La seconda, la vede soprattutto come automazione sostitutiva, con il rischio di spiazzamento occupazionale, riduzione della quota lavoro e benefici macro più modesti del previsto (associata ad Acemoglu e altri). Il dibattito è aperto.
L’idea che l’AI distrugga il lavoro in modo netto e improvviso funziona bene nei titoli, meno nella realtà. L’AI non entra come una ruspa che butta giù il palazzo: entra come una scorciatoia. Ti accorcia una ricerca, ti prepara una prima bozza, ti sintetizza un documento, ti suggerisce risposte, ti automatizza passaggi ripetitivi. Poi però lascia a te, spesso con un carico diverso, il lavoro di verifica, giudizio, responsabilità, relazione, gestione delle eccezioni. E’ per questo che oggi ha più senso parlare di task che di posti di lavoro: si automatizzano pezzi di attività, e i mestieri si ricompongono.
Questo riordino dei compiti ha una conseguenza più profonda: rimette in discussione la nozione stessa di “occupazione”. Per due secoli abbiamo regolato il lavoro come scambio tra prestazione (valutata soprattutto in “tempo”) e denaro, ore, turni, giornate, presenza. Quel paradigma aveva senso in un’economia in cui il valore nasceva dalla ripetizione, dalla standardizzazione, dall’esecuzione controllabile. Oggi misura sempre peggio ciò che conta davvero.
I tre effetti dell’AI sul lavoro L’AI avrà tre livelli di impatto. Primo: genererà nuove professioni. Secondo: cancellerà alcune professioni o parti di esse. Terzo: integrerà, potenzierà e supporterà professioni esistenti. E’ questo terzo effetto il più importante, perché è lì che si giocherà la qualità della trasformazione.
Accanto ai tre effetti diretti vi saranno poi quelli indiretti: l’AI modificherà l’ambiente, l’organizzazione del lavoro, il rapporto tra persona e macchina. Le professioni non cambieranno solo perché alcune attività vengono automatizzate, ma perché cambierà il modo in cui si combinano autonomia, controllo, cooperazione, responsabilità.
Il punto serio, dunque, non è “quanti posti perderemo”, ma con quale metodo leggeremo le tendenze e cercheremo di anticiparle. Parlare genericamente di lavoro distrutto o di lavoro salvato serve poco. Bisogna capire dove nascono nuovi ruoli, dove si riducono alcune attività, dove si formano complementarità nuove e dove, invece, si produce marginalizzazione.

di
Dopo la diffusione delle tecnologie abilitanti dell’industria 4.0, molti studi hanno provato a misurare l’esposizione dei lavori all’automazione; tra tutti, i più catastrofisti Frey e Osborne. Il limite comune di molti approcci è trattare le professioni come equivalenti delle mansioni degli anni Settanta, e soprattutto considerare le mansioni e i singoli compiti come mattoncini separati e indipendenti: se un’occupazione è composta da dieci attività e l’algoritmo ne svolge nove, quel lavoro viene considerato perso al 90 per cento. Ma il lavoro non funziona così. Le professioni vanno scomposte in task e abilità, e ciascuna attività ha una diversa esposizione all’AI e un diverso valore. La complementarità qualitativa e il modello O-Ring
I primi studi sull’esposizione all’AI hanno misurato un punteggio per professione, azienda, territorio, settore (Felten). In alto nella graduatoria di rischio si trovano le professioni che pensavamo più al riparo dalla trasformazione tecnologica, quelle ad alto contenuto cognitivo codificabile, che con l’AI sono diventate invece le più esposte.
Nel dibattito c’è un equivoco ricorrente: pensiamo al lavoro come a un elenco di mansioni e compiti e immaginiamo che, se una macchina ne fa alcune, allora sparisca il posto. Ma il lavoro, quasi sempre, è un processo: una catena di passaggi collegati. E quando il valore dipende dalla tenuta dell’intera catena, non basta automatizzare un pezzo per dire che il ruolo umano non serve più. Anzi: spesso diventa ancora più decisivo proprio dove la macchina non arriva. Qui è utile la nozione di complementarità qualitativa. In molti processi basta che un solo passaggio sia fatto male per compromettere il risultato finale. E’ la logica del modello O-Ring teorizzato da Michael Kremer, che richiama il disastro dello Space Shuttle Challenger: una piccola guarnizione di gomma cedette e compromise l’intera missione. Il valore complessivo non è la semplice somma delle parti: dipende dalla qualità di ciascun anello della catena.
Applicata al lavoro, questa logica cambia la domanda. Non è: “L’AI sostituisce quel mestiere?”. E’: “Quali passaggi e processi del mestiere vengono automatizzati, e quali diventano più critici?”. L’automazione di una parte del processo non elimina automaticamente il ruolo umano: più spesso ne sposta il baricentro verso le fasi che la macchina non gestisce bene: giudizio, responsabilità, eccezioni, relazione, decisione.
Il cuore della trasformazione è dunque una riallocazione (di tempo, energia, impegno). Quando l’AI prende in carico le attività più ripetitive, la persona non smette di lavorare: tende a concentrare attenzione ed energie sul compito che resta umano e che, dentro un processo O-Ring, può diventare il vero collo di bottiglia. E’ il cosiddetto “effetto focus” teorizzato da Gans e Goldfarb: se ti liberano dalla routine, puoi dedicare più tempo e più cura alla parte che richiede esperienza e responsabilità. Ma l’AI non si adotta da sola. Serve un’organiz zazione capace di riprogettare ruoli, flussi e responsabilità. Servono quelli che chiamo gli “architetti del lavoro”: figure con un piede dentro l’organiz zazione aziendale e l’altro negli spazi protetti di sperimentazione dell’innovazione (sandbox), capaci di pensare, accompagnare e sostenere il cambiamento.
La ricomposizione dei lavori Con il digitale e ancora di più con l’AI, una parte crescente del lavoro si sposta dalla mansione al progetto. Il tempo non scompare, ma perde centralità. Il differenziale non è più solo la durata: è la densità. E’ la qualità del giudizio, la capacità di scegliere le priorità, di lavorare con altri, di prevenire errori, di costruire fiducia. Eppure continuiamo a governare questo mondo nuovo con strumenti vecchi: presenzialismo, micro-controllo, valutazioni burocratiche, riunioni ricorrenti e spesso inutili. Il tempo resta il pavimento delle tutele. Ma il valore, sempre più spesso, sta altrove. I ruoli sono sempre più fluidi e le gerarchie si trasformano, si smussano. Il C2, Comando e Controllo, è inutile e sempre più dannoso per produttività e benessere delle persone ( Licenziate i padroni, Rizzoli, 2023) Chiarito che le professioni sono costituite da una costellazione di componenti e che l’AI disfa e mangia alcuni pezzi di lavoro, il lavoro fondamentale degli architetti del lavoro è ripensare le organizzazioni per ricomporre (task che altrimenti l’AI fa da sola) lavori e valore attorno a ciò che resta più pregiato per gli essere umani (solo per elencarne alcuni: pensiero, giudizio, lettura del contesto, coordinamento, relazione, negoziazione e supervisione, etc.) anche per tenerci tra le nostre prerogative la speranza e qualche idea che le dia copro di costruire un lavoro migliore dentro una nuova condizione umana. Ceci n’est pas un employé (pipe) Magritte aveva ragione sulla pipa. Aveva ancora più ragione sul lavoro. Quello che chiamiamo “lavoratore dipendente” è, da decenni, una rappresentazione. Oggi direbbe “questo non è un lavoratore” (Matteo Roversi). Una categoria giuridica che descrive un rapporto formale tra un contratto e una busta paga, non la sostanza di ciò che accade tra una persona e un’organizzazione. Come il dipinto della pipa, l’etichetta non è la cosa. E come nel dipinto, l’inganno è così raffinato che quasi nessuno lo nota. Il problema non è semantico. E’ che abbiamo costruito sistemi di tutela, di governance, di gestione del personale intorno a una finzione. E ora che il lavoro cambia forma, velocità, luogo e contenuto cognitivo, la finzione regge sempre meno. Rimane la cornice. Dentro, c’è altro. Il punto è: cosa si intende oggi per “lavoratore”? Un contratto di subordinazione formale, un fascicolo previdenziale, una mansione codificata nel Ccnl? Un codice ateco assegnato a una partita Iva? Oppure qualcosa che riguarda la capacità di agire, decidere, apprendere dentro un’organizzazione? Il paradosso è che più le aziende hanno investito in titoli e gerarchie, meno hanno investito in autonomia e responsabilità reali. Così si sono riempite di “impiegati” nel senso burocratico, svuotati però del contenuto lavorativo che quella parola dovrebbe evocare. Dall’altra parte, c’è chi lavora in modo intensamente cognitivo, connesso, esposto al rischio e alla variabilità delle commesse, senza che la sua condizione sia riconoscibile nelle categorie contrattuali esistenti e senza nessun diritto sociale. Finché l’AI era uno strumento, l’impatto sul lavoro si misurava in task automatizzati. Sta diventando sempre di più un “mondo”. Con gli agenti dotati di world model, l’AI non esegue: agisce, anticipa, si rappresenta il mondo e decide in contesti che nessun prompt ha previsto. Il floor si sposta: non è più quali mansioni spariscono, ma chi costruisce la rappresentazione della realtà dentro cui i sistemi operano, e chi invece ci vive dentro senza saperlo. Oltre agli agenti dotati di world model, i fronti che ridisegnano il lavoro sono il reasoning, che porta i sistemi a pianificare e verificare non solo a rispondere; la multimodalità e la physical AI, che estendono l’AI dal linguaggio al mondo fisico e al corpo; la capacità di memoria persistente e long context, che danno ai sistemi un’identità operativa nel tempo; e il self-improvement attraverso dati sintetici, che riduce progressivamente la dipendenza dall’input umano anche nell’apprendimento.
I segnali veri: si restringono le porte di ingresso Accanto alla retorica, un segnale concreto già si vede: si stanno restringendo le porte di ingresso al lavoro. I ruoli junior, le posizioni entry level, i primi gradini di accesso per neolaureati e giovani si stanno riducendo. Non perché l’AI stia spazzando via intere professioni, ma perché assorbe proprio quei compiti che storicamente consentivano di entrare nel lavoro e imparare sul campo: bozze, ricerche, ticket, test, supporto standardizzato.
Se si riduce il lavoro di ingresso, si indebolisce anche la palestra in cui si costruivano mestiere, esperienza, autonomia. La domanda diventa: come si formano i professionisti di domani, se salta la parte bassa della scala? L’AI accelera una tendenza già resa più dura dal ciclo economico e dalle ristrutturazioni, ma proprio per questo non può essere lasciata a una dinamica spontanea. Allo stesso tempo, soprattutto nel mondo della consulenza, si era assunto un numero enorme di figure junior con paghe basse e orari infiniti, in cambio della possibilità di arricchire il curriculum. Le stesse società stanno ora valorizzando maggiormente figure senior con competenza, esperienza e capacità di coordinamento. E’ un aggiustamento strutturale che l’AI accelera ma non ha originato.

AI First o People First?

La prima ipotesi significa assumere persone solo se prima si dimostra che quel lavoro non è automatizzabile dall’AI. Può avere senso se diventa una regola di job design, non uno slogan punitivo. Prima si capisce quali task sono ripetitivi, standardizzabili, data-driven; poi si automatizzano o aumentano quelli automatizzabili; infine, si ricostruiscono i ruoli attorno alla componente ad alto valore: decisioni in incertezza, gestione delle eccezioni, responsabilità, relazione, qualità, sicurezza, creatività applicata. In questo senso, più che AI First, servirebbe un People First capace di usare bene l’AI e soprattutto di coinvolgere le persone nella ridefinizione del loro lavoro. Perché una trasformazione che avviene sopra le persone produce resistenze, errori e sfiducia. Una trasformazione che avviene con le persone produce miglioramento continuo. In fabbrica lo sanno tutti: la qualità non nasce dal manuale, nasce dall’intelligenza collettiva che individua le cause e corregge i processi. Per questo la partecipazione non è un tema accessorio, ma il confine vero tra innovazione e declino. Senza condivisione, il progresso si trasforma in risentimento. E il risentimento diventa declino.
La prima evidenza disponibile indica che, senza una progettazione accurata, i processi di adozione producono risultati deludenti sul piano della produttività. La seconda è che l’AI è una tecnologia a portata generale (come l’energia elettrica), pertanto il suo impatto va valutato sempre in relazione alla convergenza con tecnologie più mature, non in isolamento. Non solo, è una forza che ridisegna la mappa del potere nelle organizzazioni. Come abbiamo scritto con Giuliano Noci in “AI-reMade in Italy, manifesto per una nuova manifattura”, l’AI è un’innovazione sistemica, che necessita di una dimensione ontologica (della natura profonda) dei modelli produttivi e di business radicalmente nuova.
In Italia questa ambiguità è ancora più delicata. Siamo un paese con bassa adozione e produttività stagnante. Se iniziamo a raccontare che “l’AI distrugge lavoro” prima ancora di averla davvero integrata nei processi produttivi, rischiamo di costruire una barriera culturale proprio dove l’apertura culturale all’innovazione sarebbe più necessaria.
Il vero tema che alimenta tanto le bolle speculative quanto le narrazioni false è questo: le capacità dell’AI crescono velocemente, mentre il tasso di adozione reale (qualche licenza software, un po’ di literacy, etc.), è molto più basso, specie in Italia. Molti tagli corporate sono avvenuti mentre le stesse aziende annunciavano investimenti enormi in infrastrutture (data center, hpc, etc.). Vedi il caso Oracle. Non è un paradosso: è riallocazione di capitale. Ma chiamarla semplicemente “effetto AI” senza spiegare la logica finanziaria sottostante significa occultare una scelta. Questione politica: chi decide?
Serve una nuova grammatica della trasparenza tecnologica. Ma ancor prima gruppi dirigenti attrezzati. Se l’AI è davvero la causa di una riduzione di personale (e in molti casi in futuro lo sarà), va dimostrato: vanno mostrati i processi sostituiti, le metriche di efficienza, i piani di riconversione. Serve una contrattazione della transizione, non una gestione ex post degli esuberi: formazione preventiva, mobilità interna, ridisegno dei ruoli, coinvolgimento delle persone nei progetti di trasformazione.
L’AI non è un soggetto morale. Non decide. Non licenzia. Non firma comunicati. Le decisioni sono umane, strategiche, finanziarie. Attribuire tutto all’AI significa opacizzare il potere decisionale. In un contesto in cui la responsabilità decisionale è spesso opaca, questa ambiguità può diventare una comoda scappatoia. La vera domanda non è: l’AI ti ha tolto il lavoro? La vera domanda è: chi sta governando questa trasformazione? Con quale visione industriale? Con quale distribuzione dei benefici? Se l’AI diventa un alibi per tagliare senza progettare, avremo meno lavoro e meno innovazione. Se la sua adozione è pensata e progettata, può diventare una leva per aumentare produttività, qualità e qualificazione, e generare crescita. La differenza non è nella tecnologia. E’ nella regia strategica e nella capacità di coinvolgere tutti e soprattutto rendicontare apertamente i costi e l’impatto reale.
Possiamo usare il futuro come scusa. Oppure assumerci la responsabilità di capirne le traiettorie, sapendo che restare fuori dall’innovazione è il rischio più grande. La prossima volta che sentirete dire “ha stato l’AI”, fate la domanda giusta: chi ha deciso, quando, con quali competenze, con quali obiettivi, e chi paga il conto? L’AI non è il soggetto della frase. Lo è sempre un essere umano. Pretendere che torni al suo posto, nella frase e nella realtà, è il primo atto politico di questa trasformazione.