foglio ai

Prima della catastrofe: ciò che l'AI vede e noi ancora no

Non è una divinità oscura, ma uno strumento che anticipa ciò che noi continuiamo a vedere troppo tardi

L’AI non è un demone da scacciare, è un anticipo da meritare. È ciò che ci permette di intervenire prima, di pensare prima, di capire prima. E in un mondo che corre verso rischi più grandi, la vera imprudenza non è fidarsi troppo dell’AI. È non fidarsi abbastanza della nostra

Ci sono storie che rispondono meglio di qualsiasi dibattito alla domanda più tossica del nostro tempo: “L’AI è pericolosa?”. Basta guardare cosa è accaduto nella ricerca sismologica europea. Un gruppo di studiosi del British Geological Survey, insieme alle università di Edimburgo e Padova, ha sviluppato modelli capaci di fare in pochi secondi ciò che i sistemi tradizionali impiegano ore, spesso giorni, a ricavare: indicare dove e con quale intensità arriveranno gli aftershock dopo un terremoto. La differenza tra ore e secondi, quando crollano le case, non è un dettaglio accademico: è il confine tra decisioni improvvisate e scelte informate, tra il caos e un piano, tra il rischio e la prevenzione. E’ la dimostrazione che l’AI non predice il futuro: lo accelera, lo porta prima sulla scrivania di chi deve decidere.

In quel lavoro si vede qualcosa che riguarda molto più dei terremoti. E’ il modo in cui l’intelligenza artificiale funziona davvero quando la si toglie dal vocabolario apocalittico e la si mette al lavoro: non sostituisce nessuno, non prende il posto di nessun esperto, non si sostituisce alla politica. Semplicemente riduce l’opacità del mondo. Dove il nostro sguardo è lento, l’AI è veloce. Dove la nostra comprensione è frammentata, l’AI ricompone i pezzi. Dove noi vediamo un evento, lei vede un pattern.

E questo meccanismo, che nasce dai terremoti, si estende quasi automaticamente a tutto ciò che definiamo “catastrofe”. Le alluvioni, per esempio. Non servono ologrammi o previsioni mistiche: bastano dati sulle piogge, sullo stato del suolo, sulle micro-fratture nei versanti. L’AI mette insieme informazioni che già esistono, ma che nessun ufficio tecnico ha il tempo materiale di interpretare in tempo reale. Non evita che piova, ma evita che la pioggia ci colga sempre impreparati.

Lo stesso accade con il caldo estremo. Non esiste un algoritmo che abbassi la temperatura del pianeta, ma esistono sistemi che anticipano gli effetti di un’ondata di calore quartiere per quartiere, ospedale per ospedale, rendendo possibile organizzare reparti, rafforzare i servizi di assistenza, proteggere chi è più fragile. E’ quasi ironico: mentre discutiamo se l’AI sia “demoniaca”, i demoni veri sono i blackout informativi con cui affrontiamo le emergenze climatiche.

E ancora: le infrastrutture. Ponti, dighe, gallerie, linee elettriche parlano una lingua fatta di vibrazioni, oscillazioni, microdeformazioni. E’ una lingua che gli esseri umani non sentono. L’AI sì. Non perché sia intelligente nel senso umano del termine, ma perché può analizzare ventiquattr’ore su ventiquattro una quantità di segnali che il cervello umano non saprebbe nemmeno catalogare. Quando si dice che può “prevedere” un cedimento, non è magia: è ascolto. E non si tratta solo di calamità o infrastrutture. Anche la mobilità urbana, la gestione dei trasporti, la distribuzione dell’energia e l’ottimizzazione dei rifiuti possono beneficiare della stessa logica: dati in tempo reale, pattern riconosciuti prima che diventino problemi, interventi mirati invece che emergenze continue. Ovunque ci sia complessità, l’AI può ridurre l’incertezza. E ridurre l’incertezza significa più sicurezza, più efficienza, più vite salvate. E’ una tecnologia che trasforma quantità massive di informazioni in azioni concrete, invece di lasciare decisioni importanti alla casualità o alla lentezza umana. La differenza non è astratta: è tangibile, misurabile e immediata. Questo rende evidente che l’AI non sostituisce, ma potenzia, il nostro agire. E la sfida reale non è la macchina, ma la capacità di ascoltarla e usarla con giudizio.

La prevenzione sanitaria funziona allo stesso modo. Prima ancora di accorgerci che un’influenza sta diventando un’epidemia, i modelli di AI vedono anomalie nei pronto soccorso, negli acquisti di farmaci, nelle assenze scolastiche. Sono correlazioni che noi vedremmo solo dopo settimane. Anche qui, la differenza tra “sapere” e “sapere troppo tardi” è il punto.

E’ curioso: tutte queste applicazioni hanno un tratto comune. Non sono futuristiche, non sono pericolose, non richiedono fantascienza. Richiedono decisioni. La macchina non scava gli argini, non evacua le città, non mette in sicurezza i ponti, non riorganizza gli ospedali. Quello tocca a noi. Ma la macchina ci dà un vantaggio che nessuna tecnologia del passato aveva dato: il tempo. Che poi è ciò che rende gestibile una crisi e ciò che rende fatale una catastrofe.

E allora forse la domanda da porsi non è più se l’AI possa fare del male, ma quanto male facciamo noi quando non la usiamo. Perché ogni volta che arriva un’alluvione “imprevedibile”, un’ondata di calore “inaspettata”, un’infrastruttura “crollata all’improvviso”, basterebbe guardare la cronaca per capire che l’imprevisto, quasi sempre, era stato previsto da qualche parte. Solo che nessuno aveva ascoltato.

Il sospetto che l’AI sia demoniaca è comprensibile: una tecnologia nuova produce sempre più ansia che gratitudine. Ma la storia comincia a mostrare un’altra verità, meno agitata e più solida: l’AI non è un demone da scacciare, è un anticipo da meritare. E’ ciò che ci permette di intervenire prima, di pensare prima, di capire prima. E in un mondo che corre verso rischi sempre più grandi, la vera imprudenza non è fidarsi troppo dell’intelligenza artificiale. E’ non fidarsi abbastanza della nostra.