A che punto è la corsa di Stati Uniti, Cina e Russia ai robot-soldati

Aumentano gli investimenti nelle armi autonome che non necessitano di un operatore in carne e ossa. “Ma l’èra di Terminator non è ancora arrivata”, ci spiega una ricercatrice dell’Università di Oxford

 

armi robot

(foto di Youtube)

E’ di pochi giorni fa l’appello di Human Rights Watch –  l’ong con sede a New York che si occupa della difesa dei diritti umani – per sensibilizzare istituzioni e opinione pubblica sui rischi legati allo sviluppo delle armi completamente autonome (LAWS, lethal autonomous weapons systems). HRW si occupa di coordinare una fitta rete costituita da altre organizzazioni, associazioni e privati cittadini – in prima linea per promuovere questa causa c’è Jody Williams, premio Nobel per la Pace nel 1997 – che va sotto il nome di Campaign to Stop Killer Robots. Il comitato si batte tra l’altro per l’applicazione dell’articolo 36 del protocollo addizionale della Convenzione di Ginevra, siglato nel 1977, che prevede la verifica da parte degli stati membri delle nuove armi e delle tecniche di guerra, fino a bandirle qualora risultassero disumane o difficilmente controllabili.

La nuova corsa agli armamenti si gioca anche su questo punto e il riposizionamento dello scacchiere globale ha solo accelerato un processo già in corso. Per lo sviluppo delle nuove tecnologie in campo militare – comprese quelle relative alle armi autonome – il Pentagono ha stanziato 18 miliardi di dollari per i prossimi tre anni, ma l’affare non è solo a stelle e strisce: anche Russia e Cina si muovono a grandi passi nel tentativo di sfilare a Washington il primato militare. La partita è aperta, tanto che lo stesso vice segretario del Dipartimento della Difesa ha di recente dichiarato al New York Times che i due paesi rivali hanno sviluppato tecnologie belliche paragonabili a quelle degli Stati Uniti, e in caso di conflitto l’unica cosa da fare è “essere in grado di vincere velocemente come è accaduto in passato”.

 

Game over: la Raf vuole schierare i giocatori di Play Station contro lo Stato islamico

Il rischio di confondere realtà effettiva e virtuale e i pericoli di un futuro da cattiva fantascienza

L’organo internazionale deputato al controllo degli armamenti che opera sotto l’egida delle Nazioni Unite, il Convention on Certain Conventional Weapons (CCW) ha tenuto proprio in questi giorni a Ginevra il suo quinto meeting annuale. Heather Roff, senior research fellow al Dipartimento di Politiche e Relazioni internazionali dell’Università di Oxford e ricercatrice all’Università dell’Arizona, è autrice di diverse pubblicazioni sul tema delle armi autonome, l’ultima delle quali è stata inviata come briefing paper al CCW. “I LAWS sono progettati per individuare un obiettivo e attaccarlo senza che sia necessario l’intervento umano di un operatore”, spiega Roff al Foglio. Nella maggior parte dei casi si tratta di aerei senza equipaggio o più semplicemente droni. “Sono uno dei primi firmatari della lettera che il Future of Life Institute ha reso pubblica per mettere in guardia dai possibili rischi derivanti dall’uso delle armi autonome. La mia più grande preoccupazione è che in futuro gli esseri umani avranno un controllo e, di conseguenza, una comprensione sempre minori di ciò che accade in guerra”, continua Roff. Com’è prevedibile, a fare le spese di questo scenario sarebbero soprattutto i civili. “La piega che sta prendendo la corsa agli armamenti mi fa credere che i governi saranno sempre più inclini a sperimentare sistemi basati sull’intelligenza artificiale via via più pericolosi, senza valutare appieno le possibili ripercussioni”.

L’impiego di droni e di macchine costruite per uccidere uomini in autonomia implica anche una questione morale profonda ma, spiega ancora Roff, non è il caso di alimentare paure irrazionali verso le intelligenze artificiali: “Non penso che lo sviluppo di una superintelligenza sia dietro l’angolo e non ritengo che domani i robot ci uccideranno per avere il dominio sul pianeta” – il cosiddetto scenario alla Terminator – “tuttavia, per come si stanno mettendo le cose, ci stiamo avventurando su un terreno molto rischioso. Occorre un cambio di rotta che includa l’introduzione di norme di comportamento per la robotica e l’intelligenza artificiale”.

Lascia il tuo commento

Condividi le tue opinioni su Il Foglio

Caratteri rimanenti: 1000

Servizi