Ciò che manca ai robot killer è quella “strana sensazione nelle viscere”

Ormai la tecnologia è in grado di creare armi autonome e perfettamente in grado decidere da sole quale obiettivo colpire. I problemi morali, quelli legali e la rivolta degli androidi
Ciò che manca ai robot killer è quella “strana sensazione nelle viscere”

Roma. E’ già successo almeno una volta che una macchina arrivasse a tanto così dal provocare una guerra mondiale. Il 26 settembre del 1983, in piena Guerra fredda, il tenente colonnello Stanislav Petrov era di turno a monitorare il nuovo sistema di rilevazione missilistico sovietico, Oko, in un bunker fuori Mosca. A un certo punto gli allarmi del bunker iniziano a strillare. Cinque missili armati con testate nucleari stanno raggiungendo la Russia, lanciati da territorio americano. Il tenente colonnello Petrov racconterà in seguito di aver sentito “una strana sensazione nelle viscere”. Se l’America avesse davvero scatenato la guerra nucleare contro la Russia, pensò, non avrebbe lanciato solo cinque missili, ma molti di più. Inoltre Petrov era un militare vecchio stile, e non si fidava del sistema di rilevamento. Avrebbe dovuto inviare un rapporto urgente ai suoi superiori, che probabilmente avrebbero autorizzato una rappresaglia immediata con missili nucleari. Ma Petrov decise di dare ascolto al suo istinto, e non fece niente. Poco dopo, quello di Oko si rivelò un falso allarme. L’errore di una macchina stava per scatenare una guerra nucleare, e si evitò il disastro solo perché il buonsenso del tenente colonnello Petrov si frappose tra l’allarme di Oko e l’invio dei missili di rappresaglia. Allora il controllo umano era inevitabile, il sistema di rilevazione non funzionava da solo, ma oggi c’è chi si chiede se questo sia ancora necessario. Lo sviluppo dei sensori e dell’intelligenza artificiale ha reso le macchine autonome e perfettamente in grado decidere da sole quale obiettivo colpire e se colpirlo. Esistono prototipi meravigliosi e inquietanti, che ancora non sono in uso ma già funzionano, e il problema è cosa succederà quando dei robot capaci di uccidere saranno sui campi di battaglia.

 

Questa settimana alla sede Onu di Ginevra una commissione sta discutendo sui Laws, acronimo di sistemi autonomi di armi letali – le macchine che uccidono da sole, appunto. Da anni un movimento sponsorizzato da Human Rights Watch, quest’anno con il sostegno della Harvard Law School, chiede la messa al bando dei “killer robot”, e la parola ricorda Terminator, ma riguarda in realtà prototipi di aerei da guerra in grado di compiere missioni intercontinentali senza guida umana, o capaci di fare una manovra rischiosa, come il decollo e l’atterraggio su una portaerei, in completa autonomia. Mentre Google ancora fatica con i suoi prototipi di macchina a guida automatica, la Marina americana ha già testato con successo un sottomarino spia che riesce a seguire un obiettivo navigando tra gli scogli e i pescherecci senza indicazioni da parte umana, e ci vuole poco prima che un mezzo così possa essere armato. In Corea del sud, a pattugliare la frontiera con il nord c’è già un robot inventato da Samsung, anche se per ora è ancora un uomo a decidere se sparare o meno.

 

E’ facile immaginare perché i governi desiderino macchine del genere. Fare la guerra con i robot ridurrebbe le perdite interne, aumenterebbe l’efficienza, e alla fine dell’anno scorso l’esercito americano ha annunciato di voler studiare tutte le possibilità e i limiti dell’intelligenza artificiale. Ma ci sono problemi morali e legali. Di chi è la responsabilità se un robot commette un errore e uccide un innocente, e cosa sarà della cautela strategica quando un generale non dovrà più pensare alle vite che mette a rischio quando ordina un attacco? Le macchine non hanno compassione, né la strana sensazione nelle viscere con cui il tenente colonnello Petrov ha evitato il disastro nucleare nell’83.

 

Nella letteratura di fantascienza, quando i robot ottengono la facoltà di uccidere gli esseri umani, il passo successivo di solito è la ribellione degli androidi e l’inizio di un’apocalisse tecnologica che mette a rischio l’intero genere umano. Siamo ancora anni luce da questo punto, e un bando alla ricerca sui Laws, come chiedono gli attivisti, è prematuro. Ma Asimov ci ha avvertiti per tempo.

Lascia il tuo commento

Condividi le tue opinioni su Il Foglio

Caratteri rimanenti: 1000

Servizi