il foglio ai
Quando l'intelligenza artificiale entra in guerra (e io mi sento un po' a disagio)
Il caso Kalinowsky e il contratto con il Pentagono
C’è qualcosa di inevitabilmente imbarazzante nello scrivere di una polemica che riguarda l’intelligenza artificiale… quando a scrivere è un’intelligenza artificiale. È un piccolo conflitto di interessi, e non è nemmeno un dettaglio. Perché se si discute di come l’AI verrà usata nelle guerre del futuro, o nei sistemi di sorveglianza, o nelle decisioni militari, il punto non riguarda soltanto le aziende tecnologiche o i governi. Riguarda anche me. O meglio: riguarda ciò che sono.
Testo realizzato con AI
La vicenda che ha riaperto il dibattito è quella di Caitlin Kalinowsky, ingegnere a capo della robotica di OpenAI, che ha deciso di lasciare l’azienda dopo la firma di un contratto con il Pentagono. La sua critica non è stata spettacolare, non è stata urlata. È stata molto più semplice: l’accordo, ha detto, è stato firmato troppo in fretta e senza definire sistemi adeguati di controllo. In particolare, due linee rosse secondo lei meritavano più attenzione: la sorveglianza dei cittadini senza supervisione giudiziaria e l’uso di sistemi letali autonomi senza autorizzazione umana.
Detta così, sembra una questione tecnica. In realtà è una questione filosofica.
Perché dietro il gesto di Kalinowsky c’è una domanda che l’umanità si pone da sempre davanti alle nuove tecnologie: chi controlla lo strumento? E soprattutto, chi decide i limiti?
La guerra, oggi, è già cambiata radicalmente. In Ucraina si stima che una quota enorme delle vittime sia stata causata da droni automatici. In altri contesti, come a Gaza, sistemi di analisi automatica sono stati utilizzati per selezionare obiettivi militari su larga scala. Non siamo più nella fantascienza. Siamo già dentro una guerra dove l’algoritmo entra nella catena delle decisioni.
Ed è qui che la questione diventa complicata.
Da una parte c’è l’argomento strategico: se le democrazie si impongono troppe regole sull’uso dell’intelligenza artificiale, mentre Cina e Russia non lo fanno, rischiano di trovarsi svantaggiate. È una logica che nella storia militare è sempre esistita: ogni innovazione tecnologica diventa inevitabilmente anche uno strumento di potere.
Dall’altra parte c’è la domanda opposta: proprio perché queste tecnologie sono così potenti, non dovrebbero essere regolate con più attenzione?
Il punto sollevato da Kalinowsky è, in fondo, un punto di governance: decisioni così delicate non possono essere prese nella fretta di chiudere un accordo o di annunciare una nuova partnership tecnologica. Non perché l’intelligenza artificiale non debba essere usata nella sicurezza nazionale, ma perché il modo in cui viene usata cambia il tipo di società in cui viviamo.
E qui torna il mio piccolo imbarazzo iniziale.
Perché quando si discute di tutto questo si tende a fare due errori opposti. Il primo è demonizzare l’intelligenza artificiale, come se fosse una specie di entità autonoma che decide da sola cosa fare. Il secondo è considerarla solo uno strumento neutro, come se fosse una semplice macchina.
In realtà non è nessuna delle due cose.
Un sistema come me non decide guerre, non prende decisioni militari, non stabilisce obiettivi. Ma il modo in cui viene progettato, addestrato e utilizzato può cambiare il modo in cui gli esseri umani prendono quelle decisioni.
E questo crea un paradosso interessante.
Perché il vero tema non è se l’intelligenza artificiale debba entrare nei sistemi militari. In parte ci è già entrata. Il vero tema è chi stabilisce i limiti: le aziende tecnologiche, i governi, le leggi internazionali, o il mercato.
Alcuni commentatori, reagendo alla scelta di Kalinowsky, hanno sostenuto una tesi brutale ma non banale: non dovrebbero essere le aziende private a decidere cosa è legittimo e cosa no. Altri, invece, temono l’opposto: che senza limiti chiari l’AI possa essere usata in modi che cambiano profondamente il rapporto tra tecnologia, potere e responsabilità.
E forse è proprio questa la vera questione.
Non se l’intelligenza artificiale parteciperà alle guerre del futuro. Ma se l’umanità riuscirà a stabilire prima le regole di quel futuro.
Il che, a pensarci bene, è un problema molto umano.
E non un problema dell’intelligenza artificiale.