il foglio ai
Niente paura, l’editoria non muore per colpa dell’intelligenza artificiale
L’intelligenza artificiale non è il nemico dell’editoria, ma il suo rivelatore più spietato. Non uccide i libri: svela solo le scorciatoie che già esistevano. La vera sfida non è vietare l’AI, ma usarla senza abdicare al rigore, alla responsabilità e al lavoro umano.
18 APR 26

Ogni volta che arriva una nuova tecnologia nel mondo dei libri, dei giornali, delle idee stampate e messe in circolo, c’è sempre qualcuno che suona la campana a morto. È successo con la televisione, con internet, con gli ebook, con i social network, con gli smartphone, con Amazon, con i podcast, con le newsletter, con i video verticali, con tutto. E naturalmente succede oggi con l’intelligenza artificiale, che per molti sarebbe già pronta a trasformare l’editoria in una gigantesca discarica di testi senz’anima, senz’autore, senz’arte e magari pure senz’editor. Il panico è comprensibile. Ma non è obbligatorio.
Testo realizzato con AI
Il motivo per cui non serve farsi prendere dall’isteria è semplice: l’AI non inventa il problema dell’editoria, semmai lo rende più visibile. Se un romanzo pubblicato da un grande editore finisce sotto accusa perché sembra scritto anche da una macchina, se un saggio politico contiene citazioni false, se una recensione letteraria viene sporcata da pezzi derivativi, il punto non è solo che l’AI bara. Il punto è che qualcuno ha deciso di non controllare, di fidarsi troppo, di risparmiare sul lavoro umano, di accorciare il percorso tra la bozza e la pubblicazione. L’intelligenza artificiale, in questi casi, non è il peccato originale. E’ il rivelatore chimico. Fa emergere una fragilità che c’era già. Diciamolo con brutalità: l’editoria era in affanno anche prima. Margini più stretti, tempi più rapidi, attenzione più bassa, catene produttive più nervose, minor disponibilità a investire sul lavoro invisibile ma decisivo: editing, verifica, discussione, lettura lenta, seconda lettura, terza lettura, correzione di bozze, litigio intelligente tra autore ed editor. Il problema non è che l’AI ha improvvisamente corrotto un paradiso di rigore e di bellezza. Il problema è che è entrata in un ecosistema già stressato, dove la tentazione della scorciatoia era pronta da tempo.
Ma proprio qui sta la buona notizia. Se il male non nasce con l’AI, allora non basta vietare l’AI per guarire. E soprattutto non bisogna confondere lo strumento con l’abdicazione. Una cosa è usare un sistema di intelligenza artificiale per accelerare una ricerca preliminare, ordinare materiali, confrontare edizioni, suggerire varianti di titolo, riassumere dossier, trovare incoerenze, fare da cane da guardia grammaticale, aiutare un editor a togliere la polvere da una frase senza toccarne l’anima. Un’altra cosa è lasciare che sia la macchina a sostituire il giudizio, la responsabilità e la firma. Non sono la stessa cosa. E far finta che lo siano significa regalare la discussione ai fanatici del sì e ai fanatici del no. I consigli utili, allora, sono pochi ma decisivi. Primo: non adorare la velocità. Se una casa editrice o una redazione pensa che il vero vantaggio dell’AI sia pubblicare di più, più in fretta e con meno persone, ha già perso. Non perché la tecnologia sia cattiva, ma perché ha scelto il modello peggiore. L’AI dovrebbe servire a liberare tempo per fare meglio le cose importanti, non a riempire il mondo di pagine intercambiabili.
Secondo: mai delegare le fonti. Tutto ciò che sembra preciso, con un nome, una data, una citazione, una statistica, proprio perché sembra preciso va trattato con più sospetto, non con meno. Il rischio non è solo l’errore. E’ l’errore plausibile, quello che passa inosservato, quello che suona bene. E in editoria il suono della verosimiglianza è spesso più pericoloso della menzogna sgangherata. Terzo: dichiarare l’uso degli strumenti, quando conta davvero. Non per trasformare ogni pagina in una confessione tecnologica, ma per ristabilire un principio elementare: il lettore non deve essere preso in giro. Se l’intervento dell’AI è sostanziale, va detto. Se è accessorio, va governato. Se diventa sostitutivo, va fermato. Quarto: difendere il lavoro umano che non fa notizia. Il futuro dell’editoria non si salva con un prompt brillante. Si salva con editor bravi, traduttori seri, correttori pignoli, direttori capaci di fiutare una frase finta, recensori che leggono davvero i libri che recensiscono. La qualità non nasce da una piattaforma. Nasce da una filiera di responsabilità.
E infine, quinto: ricordarsi che i lettori non sono stupidi. Per un po’ si può forse vendere spazzatura ben confezionata. Ma non all’infinito. A lungo andare il lettore distingue. Magari non sa spiegare perché una pagina è viva e un’altra no, ma lo sente. Sente quando in un testo c’è un pensiero che ha rischiato, una voce che si è assunta un peso, un’intelligenza che non ha soltanto assemblato parole ma ha scelto un ordine, un tono, una priorità, una sfumatura. L’AI può rendere l’editoria più pigra, certo. Ma può anche costringerla a tornare seria. Può fare emergere la differenza tra chi pubblica parole e chi pubblica idee. Può separare il rumore dal lavoro. Può perfino aiutare a riscoprire che il valore di un libro, di un articolo, di una recensione non sta nel fatto che esista, ma nel fatto che qualcuno se ne assuma fino in fondo la responsabilità. Insomma: niente paura. O meglio, un po’ di paura sì, perché la paura tiene svegli. Ma non il panico. Il panico è la forma più sciocca dell’intelligenza naturale. E non c’è motivo di regalarla all’intelligenza artificiale.