
Immagine realizzata con Grok
Foglio Ai
Se al Louvre ci fosse stata un po' più di intelligenza (artificiale)
Nel museo più protetto del mondo, la tecnologia non è mancata: è mancata la capacità di farla pensare. Tra sensori e telecamere, è bastata la finta di un intervento tecnico per svelare quanto la sicurezza più avanzata resti vulnerabile senza un cervello digitale
Sette minuti. Tanto è bastato per mettere in scacco il museo più sorvegliato del mondo. Al Louvre, dove ogni quadro ha un sensore, ogni corridoio una telecamera, ogni porta un codice, un gruppo di ladri con gilet da operai e passo sicuro è entrato, ha finto un intervento di manutenzione, ha disattivato un allarme e si è portato via un gioiello. Nessun hacker, nessuna arma: solo mimetismo, tempismo e conoscenza del sistema meglio di chi lo aveva progettato. E’ il furto dell’anno, ma anche la prova che senza una vera integrazione dell’intelligenza artificiale la sicurezza resta un rituale più che una garanzia. Perché sì, il Louvre è pieno di tecnologia, ma di quella vecchia. Telecamere che registrano, non che capiscono. Allarmi che suonano, non che ragionano. Software che archiviano, non che interpretano. Tutto si basa ancora sull’occhio umano: chi sta davanti ai monitor, chi riconosce i volti, chi valuta se un movimento è sospetto o no. Ma l’occhio umano, anche il più allenato, si annoia, si distrae, non collega in tempo reale centinaia di segnali. L’intelligenza artificiale, invece, serve proprio a questo: a fare ciò che il cervello umano non riesce a fare abbastanza in fretta.
Un sistema di visione basato su AI, allenato su milioni di ore di immagini museali, avrebbe notato subito che qualcosa non tornava. Avrebbe confrontato le tute gialle dei falsi operai con il registro dei lavori programmati, notato che nessuna manutenzione era prevista quel giorno, riconosciuto che i movimenti erano troppo rapidi per un’operazione tecnica e troppo coordinati per essere casuali. In meno di trenta secondi, un modello ben addestrato avrebbe inviato un alert alla centrale, bloccato gli accessi e avviato la registrazione automatica dei volti. Non servono scenari fantascientifici. Già oggi l’aeroporto di Singapore usa l’AI per individuare comportamenti anomali nei terminal. I casinò di Las Vegas la impiegano per riconoscere giocatori che fingono identità diverse. Perfino alcune città italiane hanno sistemi che segnalano automaticamente chi abbandona un’auto o lascia una borsa in luoghi sensibili. Al Louvre, invece, ci si è affidati all’abitudine, all’idea che basti un badge, una divisa, un tono di voce convincente.
Il paradosso è che l’AI avrebbe potuto anche prevedere il furto. Incrociando turni, flussi di personale, accessi digitali e registri logistici, un software predittivo avrebbe potuto segnalare anomalie nei permessi, nei percorsi o nei tempi di presenza. L’intelligenza artificiale non sostituisce la sicurezza: la amplifica, la allena, la rende meno prevedibile per chi vuole aggirarla.
C’è poi un punto culturale. L’AI funziona solo se qualcuno la fa funzionare, se viene addestrata, controllata, corretta. E in molti sistemi di sicurezza, soprattutto pubblici, manca questa cultura: si teme che l’automazione sostituisca il giudizio umano, mentre la vera minaccia è che l’AI resti spenta per paura della sua efficacia. E’ più rassicurante un vigilante che guarda un monitor che un algoritmo che guarda tutto. Ma il primo si stanca, il secondo no. Il furto del Louvre, a suo modo, è anche una rapina di fiducia: ci mostra quanto il nostro concetto di “sorveglianza intelligente” sia ancora analogico. Ci fidiamo più del controllo visivo che della previsione matematica. Eppure la lezione è chiara: il futuro della sicurezza non è nella quantità di telecamere, ma nella loro capacità di capire ciò che vedono. In fondo, la storia si ripete. Nel 1911 sparì la Gioconda: il ladro uscì dal museo con il quadro sotto il cappotto. Oggi, cent’anni dopo, bastano un gilet e un montacarichi. Cambiano i mezzi, resta la cecità di chi non sa usare la tecnologia che ha.