
Unsplash
Cattivi scienziati
Le parole dell'AI e l'evoluzione del linguaggio
Da sempre il progresso tecnologico guida le trasformazioni della lingua e opera come filtro. I modelli generativi lo fanno più in grande, creando direttamente i contenuti linguistici secondo logiche di media statistica. I rischi e le strategie di contrasto
La capacità dei modelli linguistici generativi di produrre testi che imitano lo stile umano si fonda su un principio semplice ma potente: ogni parola viene scelta in base alla distribuzione di probabilità osservata nei dati di addestramento, ottimizzando la sequenza complessiva verso ciò che statisticamente appare più plausibile. Questo meccanismo, applicato a testi su scala industriale, favorisce strutture sintattiche ad alta frequenza, lessici ricorrenti e combinazioni “sicure”, cioè con minima probabilità di deviare dal registro medio. Una volta che questo tipo di output comincia a riempire porzioni consistenti dello spazio comunicativo – email, comunicati, compiti scolastici, testi divulgativi, manuali, post sui social, revisioni editoriali – il suo stile entra nell’ambiente linguistico condiviso, non più come curiosità, ma come standard implicito. Il passo successivo è automatico: chi scrive tende a conformarsi a ciò che legge, e se ciò che legge è stato prodotto o rifinito da una macchina, l’allineamento diventa una forma di adattamento inconscio.
Questo non è un fenomeno del tutto nuovo. La tecnologia ha già guidato l’evoluzione del linguaggio in altre epoche, con effetti tangibili. La radio, con la necessità di raggiungere un pubblico ampio e variegato, impose modelli di dizione e semplificazione lessicale che attenuarono le differenze dialettali. La televisione, attraverso la ripetizione costante di schemi narrativi e registri linguistici uniformi, consolidò formule e cadenze che entrarono nella lingua quotidiana. La messaggistica telefonica abbreviò parole e ridusse la sintassi per adattarsi a limiti di caratteri e velocità di digitazione, creando un codice ibrido tra scritto e parlato. I social forum, infine, con le loro dinamiche di conversazione pubblica e asincrona, hanno accelerato la circolazione e la standardizzazione di modi di dire, meme linguistici e costrutti grammaticali semplificati. Ogni volta, l’adozione massiva di una nuova tecnologia ha operato come filtro selettivo: certe forme sono state amplificate, altre sono scomparse.
La differenza con i modelli generativi è la portata e la natura del filtro. Qui non parliamo solo di un mezzo che trasmette contenuti prodotti da parlanti umani, ma di un sistema che genera direttamente gran parte di quei contenuti, e lo fa secondo logiche di media statistica. La ripetizione di questo schema, in ogni contesto in cui la scrittura o la produzione verbale vengano assistite o sostituite dall’IA, crea una pressione omologante molto più forte di quelle viste in passato: non agisce soltanto sulla diffusione di certe forme, ma sulla generazione primaria del testo.
Le osservazioni quantitative su grandi corpora mostrano già un aumento marcato della frequenza di espressioni tipiche dei modelli e una diminuzione di sintassi complesse o lessici specialistici. Tuttavia, questa evidenza – pur significativa – può riflettere semplicemente un maggiore uso diretto dell’IA nella produzione testuale. Per capire se il linguaggio umano stia davvero cambiando bisogna guardare ai test controllati, in cui si chiede a soggetti di scrivere o parlare a interlocutori umani senza usare alcun ausilio generativo. In questi casi, i partecipanti con lunga esposizione a testi prodotti dall’IA mostrano una maggiore omologazione tra loro rispetto ai gruppi di controllo: stesse strutture ricorrenti, stesse scelte lessicali, stessi schemi argomentativi, anche senza esserne consapevoli. In alcuni di questi studi si misurano anche indicatori cognitivi: attività cerebrale ridotta nelle aree deputate alla pianificazione linguistica e alla memoria di lavoro, minore varietà lessicale, ridotta complessità sintattica. Qui l’omologazione emerge non come conseguenza dell’uso diretto di un assistente artificiale, ma come esito di un adattamento appreso e interiorizzato.
Il rischio è che, come già avvenuto con altre tecnologie ma su scala e velocità molto maggiori, l’idea stessa di “scrittura corretta” e “buon linguaggio” venga ancorata a questi schemi medi, perché risultano familiari, facili da processare e percepiti come professionali. Se i modelli sono addestrati su un corpus che riflette una media culturale globale, questo può tradursi in una compressione della diversità linguistica e culturale, con perdita di inflessioni regionali, registri specialistici e idiosincrasie espressive. E, a differenza dei cambiamenti introdotti da radio o televisione, qui la velocità e la pervasività della trasformazione lasciano meno tempo per un adattamento critico.
Anche chi non utilizza direttamente l’IA finirà per assimilarne tratti e formule, semplicemente perché saranno onnipresenti nei testi letti ogni giorno. Le strategie di contrasto, come usare consapevolmente i sistemi generativi per produrre bozze da destrutturare e riscrivere, o inserire fasi di riflessione critica nei processi di scrittura, possono attenuare l’effetto, ma non lo annullano se l’ambiente complessivo resta dominato da contenuti derivati dall’IA. In assenza di un’attenzione culturale esplicita, la traiettoria resta quella di una regressione verso la media: un linguaggio che rinuncia alla complessità e alla varietà in favore della prevedibilità e dell’uniformità, in cui la distanza fra il parlare degli esseri umani e il parlare delle macchine si riduce fino a diventare impercettibile.