Ansa
Baruffe tech
Amodei da Hegseth e Musk contro “misAnthropic”. L'AI in fase “sicurezza nazionale”
Anthropic detta tempi, lessico e tono della fase attuale dell'Ai. E ora accusa tre laboratori cinesi di aver condotto campagne su scala industriale per distillare capacità di Claude dentro i proprio modelli. Anche la tecnica è legittima, va fatta dentro i limiti e le regole lecite
Anthropic conferma di essere l’azienda del momento, nel bene e nel male. Lo è perché detta temi, lessico e tono della fase attuale dell’AI, e lo è anche perché finisce al centro di una pressione incrociata che arriva insieme dal fronte geopolitico, da quello competitivo e da quello politico-militare americano. Persino il piccolo teatro simbolico di Delhi, con Sam Altman e Dario Amodei che durante la foto di gruppo dell’India AI Impact Summit sono rimasti in una postura visibilmente fredda, senza la stretta di mano che molti si aspettavano, ha dato l’idea di un settore entrato in una fase di rivalità scoperta, quasi scenica. Il punto di partenza, oggi, è l’accusa resa pubblica da Anthropic: tre laboratori cinesi – DeepSeek, Moonshot e MiniMax – avrebbero condotto campagne su scala industriale per “distillare” capacità di Claude dentro i propri modelli, usando circa 24.000 account fraudolenti e oltre 16 milioni di interazioni. Anthropic insiste su un aspetto decisivo, che è anche il cuore politico del messaggio: la distillazione è una tecnica legittima, quando avviene dentro regole e perimetri leciti; diventa altro quando viene usata per aggirare termini di servizio, restrizioni regionali e, in prospettiva, anche l’effetto delle barriere strategiche americane. Reuters e la stessa Anthropic riportano numeri, scala e finalità con una chiarezza che lascia intuire una scelta deliberata di esposizione pubblica, quasi una chiamata alle armi regolatoria.
Nel racconto diffuso da Anthropic c’è infatti una tesi ulteriore, che va ben oltre la denuncia industriale. L’azienda sostiene che questi attacchi dimostrerebbero, paradossalmente, l’utilità dei controlli americani sull’export di chip avanzati: se i concorrenti cercano di estrarre capacità dai modelli statunitensi, significa che l’accesso diretto alla frontiera computazionale resta difficile, costoso, e ancora in parte contenibile. E’ una mossa che difende Claude, certo, e insieme rafforza una linea di policy. In altre parole, Anthropic si presenta come impresa, come sentinella e come soggetto che parla già in grammatica di sicurezza nazionale. Qui si chiude il primo braccio della tenaglia e si apre il secondo. Perché mentre Anthropic prova a collocarsi sul terreno dell’allarme strategico, Elon Musk la colpisce su un piano opposto, più brutale e più comunicativo, usando come di consueto il suo X come arena personale e politica. In suo post il magnate sudafricano parla di AI “cattiva” e “misanthropic” giocando sull’ironia nominale con l’azienda degli Amodei. Il termine è efficace proprio perché è rozzo: sposta la discussione dalle architetture di sicurezza alle intenzioni morali attribuite al rivale, e lo fa nello slogan di internet, in cui una parola memorabile conta più di un white paper.
Il risultato è che Anthropic viene stretta da due pressioni speculari. Da un lato, deve convincere Washington di essere abbastanza dura e affidabile da stare dentro la nuova dottrina strategica dell’AI. Dall’altro, rischia di essere dipinta dai competitor più aggressivi come laboratorio moralista, ideologico, persino ostile agli utenti, secondo la caricatura muskiana del “misanthropic”. In mezzo, c’è il nodo vero: chi stabilisce il confine tra safety, competitività e uso statale della potenza dei modelli. Ed è qui che l’incontro imminente fra Pete Hegseth e Dario Amodei di ieri diventa cruciale. Secondo la stampa americana il segretario alla Difesa ha “convocato” Amodei mentre si intensifica il dibattito sull’uso militare dell’AI, e ricorda sia le preoccupazioni etiche espresse dal ceo di Anthropic sull’uso governativo incontrollato, sia il fatto che Anthropic è stata la prima azienda AI approvata per reti militari classificate, pur restando in una posizione distinta rispetto ad altri attori più allineati all’enfasi bellica del momento. E’ un passaggio delicato, perché riguarda al contempo contratti, posture pubbliche, accesso istituzionale e reputazione strategica In queste ore Anthropic sembra incarnare insomma una contraddizione che riguarda tutta la frontiera AI americana: per contare davvero è necessario padroneggiare il linguaggio della sicurezza nazionale, ma appena lo si fa, si entra in un conflitto politico e simbolico che espone l’azienda su ogni fronte. Forse è questo che rende la vicenda più interessante della semplice rissa tra founder. La stretta di mano mancata a Delhi, il “misanthropic” di Musk, la denuncia sulla distillazione cinese, il tavolo con il Pentagono sono i tasselli di una nuova fase, in cui le aziende di AI smettono la maschera simpatica della start-up per svelare le macropotenze che sono sempre più chiamate a essere.
Cose dai nostri schermi