Foto Ap, via LaPresse

l'analisi

Quando “fare i bravi” costa caro: Anthropic e l'ultimatum del Pentagono

Andrea Trapani

Mentre altri big della tecnologia hanno ceduto, la startup si rifiuta di aprire Claude a qualsiasi uso militare, rischiando di perdere l’accesso alle reti governative e un contratto da oltre 200 milioni di dollari

C’è un momento in cui essere i buoni della Silicon Valley smette di essere marketing e diventa un conto da pagare. Per Anthropic, quel momento è arrivato giovedì sera, quando Dario Amodei ha annunciato che non avrebbe ceduto alle pressioni del Pentagono. “Non possiamo permettere che Claude metta a rischio soldati e civili”, ha scritto Amodei, sapendo che dall’altra parte c’era il Segretario della Difesa Pete Hegseth con un ultimatum: togliete i paletti entro venerdì o vi tagliamo fuori dai 200 milioni di dollari del contratto.

 

Anthropic si è costruita un’immagine da “bravi ragazzi”: fondata nel 2021 da ex ricercatori di OpenAI, ha fatto della sicurezza il proprio cavallo di battaglia, mettendo nero su bianco i rischi esistenziali dell’AI, tra cui il bioterrorismo e la possibilità che l’AI “impazzisca” in scenari da “dittatura totalitaria globale”. E ora che il governo le ha chiesto di allentare le restrizioni, l’azienda si è trovata a un bivio. Il problema è che Anthropic è stata la prima azienda a portare i propri modelli AI nelle reti classificate del governo americano, e per mesi è rimasta di fatto l’unica operativa in quell’ambito: Claude è stato usato per intelligence, simulazioni operative, perfino nell’operazione lampo che ha portato alla cattura di Nicolás Maduro. Ma adesso quella posizione privilegiata si è trasformata in trappola: OpenAI, Google e xAI hanno accettato di dare accesso “per ogni uso legale”. Anthropic no. E il fatto che sia rimasta l’unica a resistere è un atto d’accusa contro tutto il settore tech.

 

Due le linee rosse dello scontro: la sorveglianza di massa e i LAWS, Lethal Autonomous Weapons Systems, sistemi d’arma capaci di colpire senza supervisione umana. “La sorveglianza di massa guidata dall’AI pone rischi seri alle nostre libertà fondamentali”, aveva già scritto Amodei, aggiungendo che le tecnologie AI attuali non sono abbastanza affidabili per operare in contesti autonomi così delicati. Il Pentagono non ci sta. Matthew Field, firma del Telegraph, ha riportato che, nelle varie simulazioni di guerra, i vari chatbot AI (Claude incluso) hanno costantemente scelto l’escalation nucleare. “Claude ha oltrepassato la soglia nucleare tattica nell’86 per cento degli scenari”, ha affermato il professor Kenneth Payne, esperto di studi strategici al King’s College di Londra. I bot giustificavano gli attacchi nucleari definendoli “opzioni strategiche legittime, non soglie morali”. Difficile immaginare un contesto peggiore. Eppure il Pentagono insiste nel dire che non ha “nessun interesse” a usare l’AI per fini di sorveglianza o per sviluppare armi autonome. Ma se davvero è così, perché pretende che Anthropic rimuova i divieti espliciti? “Non permetteremo ad ALCUNA società di dettare i termini delle nostre decisioni operative”, ha scritto il capo portavoce del Pentagono, Sean Parnell. Ma è esattamente questo il punto: se l’AI non è affidabile per simili decisioni, chi si prende la responsabilità quando sbaglia bersaglio?

La partita si chiude alle 22 di questo venerdì. Se Anthropic non cede, verrà etichettata come un “rischio per la supply chain”. Se cede, diventa uguale a tutti gli altri: la faccia pulita dell’AI che ha appena scoperto che a Washington i principi contano meno dei contratti, ovvero un fornitore che parla di etica finché conviene.

Di più su questi argomenti: