Dario Amodei, ceo di Anthropic (LaPresse)

soundcheck

Il caso Anthropic. La questione non è più se l'AI entrerà nella guerra, ma come

Lorenzo Borga

Chatbot e missili: chi controlla l’algoritmo? Lo scontro tra l'azienda di Dario Amodei e il Pentagono sull’uso di Claude rivela un cambio di fase: l’intelligenza artificiale è già integrata nelle operazioni militari Usa. Il nodo ora è politico e riguarda chi decide i limiti del codice

Nell’arsenale militare americano è entrata a pieno titolo anche l’intelligenza artificiale generativa. Lo scontro tra Anthropic e il Pentagono della scorsa settimana sull’impiego senza restrizioni del chatbot Claude a fini militari è più di una disputa contrattuale: è il segnale che l’integrazione dell’AI nelle strategie belliche non è più sperimentale, ma strutturale. Claude è già stato utilizzato nell’attacco americano di gennaio al Venezuela, sulla base di un contratto da 200 milioni di dollari firmato nel 2025 tra la società e il Dipartimento della Difesa. Una notizia che ha scosso le coscienze dei dipendenti di Anthropic, che hanno protestato e spinto il fondatore Dario Amodei a intervenire. L’italo-americano ha tracciato una linea rossa sull’impiego militare di Claude: niente sorveglianza di massa e niente armi completamente autonome in grado di decidere se e chi colpire senza supervisione umana. A suo giudizio, un simile impiego dell’AI in questi ambiti non sarebbe ancora sicuro e rischierebbe di “indebolire i valori democratici anziché rafforzarli”. Al di là delle dichiarazioni aziendali (complimenti ai pr di Amodei), la vicenda rivela un conflitto più profondo: quello tra potere tecnologico e potere politico. Le grandi aziende dell’AI intendono imporre condizioni d’uso vincolanti anche per i governi, come fanno con gli utenti privati. L’Amministrazione Usa, dal canto suo, rivendica che gli unici limiti debbano essere quelli stabiliti dalla legge – che è la politica stessa a definire. Trump ha agito a suo modo: di fronte al rifiuto di Amodei, ha chiesto a tutte le agenzie americane di stracciare i contratti con Anthropic vietandone l’utilizzo. Ma l’esclusione di Claude richiederà almeno sei mesi: nel frattempo è stato utilizzato anche per l’attacco di sabato all’Iran, per valutare le informazioni di intelligence e modellizzare scenari sul campo di battaglia.

 
Non tutte le società del settore, però, condividono la prudenza di Amodei. OpenAI, il giorno successivo allo scontro, ha annunciato un nuovo accordo con le forze armate statunitensi per consentire l’uso di ChatGPT anche su reti classificate, rafforzando una collaborazione già avviata nel 2025. Google sarebbe pronta a fare altrettanto, dopo aver eliminato dalle linee guida di Gemini il divieto di applicazioni militari e di sorveglianza. xAI, la società di Elon Musk, ha segnalato al Pentagono la disponibilità a fornire la propria tecnologia senza particolari restrizioni. Ma Claude di Anthropic mantiene ancora un vantaggio competitivo (per ora): l’integrazione con Palantir. Il gigante dei big data guidato da Alex Karp è l’anello di congiunzione tra il campo di battaglia e la potenza di calcolo dell’AI. E’ infatti attraverso i suoi sistemi che viene raccolta l’enorme quantità di dati – da gps, radar, immagini satellitari – data in pasto all’intelligenza artificiale per elaborare istantaneamente analisi operative e scenari decisionali. Secondo diverse fonti, Claude sarebbe oggi il sistema che meglio si interfaccia con l’ecosistema di Palantir.

  
Gli Stati Uniti non sono un caso isolato. Israele ha impiegato strumenti di intelligenza artificiale a Gaza e in Cisgiordania, anche per identificare obiettivi di bombardamento. In particolare, sistemi di riconoscimento facciale alimentati dalle immagini dei droni hanno contribuito alla selezione dei sospetti membri di Hamas. Un’inchiesta del New York Times ha documentato casi di errori attribuiti alle “allucinazioni” dell’AI, con conseguenze letali per civili. Anche la Russia utilizza algoritmi per migliorare la guida dei droni Shahed e Geran impiegati in Ucraina, alcuni dei quali sarebbero ormai capaci di individuare autonomamente i bersagli. Kyiv, a sua volta, fa ricorso a sistemi analoghi. Non sorprende dunque che proprio Israele, Russia e Stati Uniti – insieme a Corea del Nord e Burundi (!) – siano stati gli unici paesi a opporsi alla risoluzione dell’Assemblea generale dell’Onu di dicembre che invitava a riflettere sulle implicazioni etiche dell’AI militare.

 
La questione non è più se l’intelligenza artificiale entrerà nella guerra, ma a quali condizioni. Non sostituisce ancora il decisore umano, ma ne comprime i tempi, amplifica la capacità di analisi e abbassa la soglia operativa dell’uso della forza. E prepara il terreno a sistemi non più semplicemente telecomandati, bensì autonomi. Sullo sfondo avanzano anche i robot umanoidi, settore in cui la Cina ha investito massicciamente e che potrebbe trovare applicazioni militari prima di quanto si immagini. La regolazione internazionale procede lentamente, mentre l’adozione sul campo accelera. Se la rivoluzione industriale ha moltiplicato la potenza distruttiva, quella algoritmica sta ridefinendo la responsabilità. E quando la decisione di colpire si riduce a un output generato da un modello, il nodo non è solo tecnico: è politico. Chi controlla il codice, controlla anche la guerra.