L'intelligenza artificiale che ci distruggerà è già qui. L'allarme di Musk & Co. sulle “armi autonome”

“Autonomous weapons” è un’espressione vagamente inquietante che sta prendendo una certa consistenza anche oltre i confini della comunità scientifica che studia l’intelligenza artificiale. Le armi autonome, capaci di individuare e aggredire un nemico senza una guida umana sono una questione del futuro prossimo

New York. “Autonomous weapons” è un’espressione vagamente inquietante che sta prendendo una certa consistenza anche oltre i confini della comunità scientifica che studia l’intelligenza artificiale. Le armi autonome, capaci di individuare e aggredire un nemico senza una guida umana (o con una guida remotissima) sono una questione del futuro prossimo, non di una fantasia asimoviana né del momento catartico o esiziale in cui supereremo la barriera della singularity, inaugurando l’èra post-umana. Un migliaio di pesi massimi del settore, capitanati dagli altisonanti nomi di Elon Musk, Stephen Hawking e Steve Wozniak, ha firmato di recente una lettera aperta per mettere in guardia l’umanità da “quella che è stata descritta come la terza rivoluzione nell’ambito della guerra, dopo la polvere da sparo e le armi nucleari”.

 

La lettera aperta, diffusa dal Future of Life Institute del Massachusetts, dice che “la questione fondamentale per l’umanità oggi è se iniziare una corsa globale agli armamenti operati dall’intelligenza artificiale oppure prevenirla”. Se l’umanità deciderà per la prima, tragica ipotesi, inevitabilmente le armi autonome diventeranno “i kalashnikov di domani”, economici e facili da reperire. Immaginare droni intelligentissimi che selezionano ed eliminano obiettivi secondo criteri predeterminati ci getta nella trama sinistra di un romanzo distopico, ma nella realtà il Pentagono sta già lavorando da tempo in questa direzione. Un finanziamento da 7,5 miliardi di dollari è stato erogato già nel 2013 dal dipartimento della Difesa americano verso i ricercatori di varie università che indagano sulla possibilità di insegnare a un’intelligenza artificiale a riconoscere il bene e il male. Il robot che arreca danno all’uomo implica una chiara violazione della prima legge della robotica di Isaac Asimov, mettendo in crisi le sue visioni tendenzialmente ottimiste sul rapporto uomo-macchina, ma qui, appunto, si tratta di mettere a fuoco innanzitutto un’antropologia, la robotologia verrà di conseguenza.

 

[**Video_box_2**]Che l’uomo sia in grado di commettere il male è un dato autoevidente, ma qui si fa un passo ulteriore, quello di costruire un’intelligenza maligna. Anzi, costruire un’intelligenza che giustificandosi con intenti buoni e promesse di efficienza (ad esempio condurre operazioni militari necessarie minimizzando il numero delle vite umane a rischio) finisce per scatenare una corsa globale ad acquisire armi che governi o i gruppi che le controllano potrebbero usare con una certa, pericolosa leggerezza. Già il massiccio ricorso ai droni della presente generazione, progenitori delle armi autonome, ha creato quello che, convertendo un’espressione di ambito economico, il filosofo Michael Walzer ha chiamato “azzardo morale”: ci si prende un rischio sapendo che in caso di fallimento qualcosa salverà la situazione o che comunque le perdite non saranno troppo gravi. Rischiare o non rischiare la vita dei propri soldati per condurre un’operazione può cambiare di molto i calcoli di un generale, e la regola non scritta è: non fare con le forze speciali ciò che puoi fare con la coscienza più leggera con un aereo senza pilota. L’idea dell’arma autonoma esercita così un’ovvia fascinazione per l’industria bellica, tanto che – strano destino – tocca a un gruppo di scienziati figli del positivismo, cultori dei dati e adepti delle capacità dell’uomo di manipolare con costrutto e secondo fini buoni la realtà, lanciare un allarme intorno alle conseguenze involontarie della creazione di intelligenze distruttrici.

Di più su questi argomenti: