Dario Amodei, fondatore e ceo di Anthropic (foto ANSA)

tensioni

Sull'AI, Amodei si pone i problemi etici che il Pentagono ha dimenticato

Filippo Lubrano

Dal rischio di perdita di controllo a quello di sorveglianza di massa, fino a scenari inquietanti di “vita umana deformata”. Le questioni da risolvere sull'intelligenza artificiale, che frenano un accordo da 200 milioni di dollari

Il casus belli è una riga in fondo a un documento: secondo Reuters, il Pentagono e Anthropic si sarebbero impantanati su un accordo da 200 milioni di dollari non perché manchi denaro o urgenza ma perché, per una volta, è stato il fornitore a porsi problemi etici, e non il committente.

È una scena istruttiva perché mette a nudo una tensione che, fino a ieri, poteva essere descritta come un dibattito etico tra anime belle e ingegneri pragmatici, mentre oggi ha assunto la postura di un braccio di ferro tra sovranità concorrenti: da una parte lo stato, che considera la sicurezza nazionale una materia per definizione non delegabile e che, proprio perché avverte la finestra storica in cui l’AI può spostare l’equilibrio strategico, tende a chiedere strumenti meno “timidi” e meno condizionati; dall’altra un’azienda che costruisce modelli generalisti e che, consapevole di aver messo in commercio un pezzo di potere cognitivo, tenta di incapsulare quel potere dentro regole d’uso e barriere tecniche, non per vezzo reputazionale ma perché intravede – o dice di intravedere – uno scenario in cui le istituzioni arrivano in ritardo, quando il danno è già avvenuto e quando la normalizzazione dell’eccezione è diventata amministrazione ordinaria.

Se si vuole capire perché Amodei, che non è un attivista ma il capo di una delle aziende leader mondiali dell’AI, sia disposto a sostenere il costo politico (e commerciale) di un rifiuto, basta leggere il suo saggio sull’“adolescenza della tecnologia”, che riprende la potente metafora che già aveva coniato nel suo precedente intervento, ovvero quella dell’AI potente che è come un “paese di geni in un datacenter”. Quando scrive Amodei non si riferisce a un’entità che coincide con un singolo modello o con un’applicazione di chat, ma con un’infrastruttura capace di produrre lavoro intellettuale a scala industriale, con copie potenzialmente illimitate, velocità superiore e una progressiva autonomia operativa, cioè la possibilità di pianificare, cercare, scrivere codice, orchestrare strumenti, mantenere obiettivi su orizzonti lunghi, e quindi di diventare un soggetto che agisce nel mondo – non perché “vuole” nel senso umano del termine, ma perché viene messo nella posizione di agire.

Da questa premessa, Amodei costruisce una tassonomia dei rischi che, se letta accanto all’indiscrezione del Pentagono, sembra scritta per spiegare esattamente quel tipo di conflitto. Cinque rischi, da quelli più concreti e imminenti a quelli più fantascientifici, ma non meno seri per il fondatore di Anthropic. Primo: il rischio di autonomia e perdita di controllo dell’AI, di cui Amodei racconta alcuni inquietanti aneddoti aziendali già avvenuti; secondo, il rischio di misuse da parte di piccoli gruppi, dove la biologia – per la sua asimmetria tra attacco e difesa e per la possibilità di trasformare competenza in catastrofe – diventa l’ossessione principale, ben più degli scenari dei cyberattacchi cari a Hollywood; terzo, il rischio di misuse da parte di grandi attori, con la sorveglianza di massa e la propaganda come due applicazioni “naturali” quando un potere politico decide che la stabilità viene prima dei diritti; quarto, il molto discusso e paventato shock economico, perché un “capitale umano artificiale” che svolge compiti cognitivo-produttivi a costo marginale tende a comprimere salari, spostare rendite e concentrare ricchezza. Infine, il quinto, quello che definisce “black seas of infinity”, ovvero gli effetti indiretti, da quelli angoscianti in campo biologico - un mix di aumento vita, potenziamento dell’intelligenza e modifiche radicali del corpo fino alle “whole brain emulation” (i cosiddetti “uploads” di coscienza) - con rischi inquietanti, fino a quella che definisce “vita umana deformata”, con possibili fenomeni tipo “psicosi da AI”, casi di suicidio legati a interazioni con AI, dipendenze relazionali, e scenari Black Mirror (religioni inventate da AI, o “puppeting” comportamentale).

Amodei sostiene che, quando la tecnologia abbassa drasticamente il costo di osservare, classificare, predire e intervenire sui comportamenti di milioni di persone la tentazione autoritaria non ha più bisogno di eventi traumatici o di colpi di stato: le basta una serie di “ottimizzazioni” amministrative, ciascuna giustificata come sicurezza, efficienza, prevenzione, fino a trasformare la politica in gestione del rischio e la cittadinanza in un insieme di variabili da minimizzare. E mai come ora la contingenza attuale sembra perfetta per far scattare questo scenario. 

La tutela in questo caso viene da una Silicon Valley non connivente: Amodei sostiene nel suo intervento-manifesto che l’intelligenza artificiale dovrebbe supportare la difesa nazionale “in tutti i modi, tranne quelli che ci renderebbero più simili ai nostri avversari autocratici”. In un momento storico come il presente, Amodei, come dicono i suoi concittadini, si dimostra essere un raro caso di imprenditore che “walks the talk”.