Razzi israeliani su Gaza (foto LaPresse)

nuove tecnologie

Quei maledetti 20 secondi. Il dilemma della guerra dell'IA a Gaza

Luca Gambardella

L’algoritmo usato per dare la caccia a Hamas causa danni collaterali elevati. Lo scontro fra moralisti ed entusiasti

Le società combattono le guerre con le stesse modalità con cui generano ricchezza, scrivevano nel 1980 Alvin e Heidi Toffler, i sociologi-futurologi, come amavano definirsi, che delinearono i contorni della cosiddetta “Terza ondata”, l’èra delle macchine. E da Gaza, a partire dal 7 ottobre, si sta plasmando un pezzo di questa nuova epoca, un “anno zero” dei conflitti armati. La settimana scorsa, il giornalista israeliano Yval Abraham ha pubblicato sul magazine +972 un lungo reportage sull’impiego massiccio dell’intelligenza artificiale a Gaza da parte di Tsahal. Il software usato si chiama Levander e il suo utilizzo, raccontato nei dettagli attraverso le testimonianze di sei diversi funzionari israeliani, ha interessato soprattutto la prima fase della controffensiva nel nord della Striscia. Abraham racconta come sia un software  a selezionare una shortlist di bersagli al suolo da colpire. La macchina ha imparato a farlo grazie all’uomo, che con un algoritmo l’ha addestrata a discernere quale sia un obiettivo nemico da quelli che non lo sono. Questo almeno in teoria, perché gli errori, secondo le informazioni  rivelate dagli stessi funzionari israeliani, sono tollerati. E’ previsto che sia l’uomo – un militare –  a prendersi la responsabilità finale di decidere se colpire il bersaglio individuato dalla macchina. Ed è qui l’elemento di novità svelato dall’inchiesta: lo scarso tempo a disposizione per ordinare l’attacco, appena venti secondi, “giusto il tempo di capire se il bersaglio sia di sesso maschile”. “All’uomo è lasciato un lasso di tempo minimo. Di conseguenza, il rischio di causare vittime collaterali è elevato”, commenta al Foglio Alessandra Russo, che studia l’impiego dell’IA nei conflitti armati alla Cattolica di Milano. “Si parla di un margine di errore tollerato del 10 per cento, che è un valore altissimo”. La prassi usata da Tsahal, spiegano i funzionari israeliani, consiste nell’aspettare che il terrorista individuato dalla macchina rientri in casa. “E’ più semplice colpire un obiettivo nella sua abitazione privata”, dicono i funzionari israeliani. In questo modo, il sistema denominato “Where’s daddy?” finiva per neutralizzare l’obiettivo, ma anche la sua famiglia, moltiplicando le vittime. Secondo l’inchiesta, Tsahal sarebbe arrivato a una tolleranza di cento civili uccisi per ogni terrorista di Hamas colpito. 

Una tecnologia spietata che però non è del tutto nuova. Prima di Levander, Israele aveva sviluppato un altro software, The Gospel, anch’esso impiegato a Gaza in questi mesi, ma limitato all’individuazione degli edifici da abbattere. “Con Gospel, il tempo di verifica del target da parte dei funzionari era più elevato”, dice Russo. Per Andrea Gilli, del Nato Defence College, “queste tecnologie sono ideate proprio per minimizzare i danni collaterali, identificando il target selezionando i dati elaborati dalle macchine. La novità di Levander è che si valutano elementi qualitativi per colpire degli individui. E’ una tecnologia di previsione, potremmo dire, e quindi apre a nuovi dilemmi. Per esempio: chi è un terrorista? Un bambino che studia in una scuola di Hamas può essere considerato un obiettivo militare? Il punto è tutto qui”. 

 

I primi sviluppi significativi dell’intelligenza artificiale applicata alla guerra risalgono al 2017. I primi impieghi sono dell’anno successivo. “L’uso di software simili non è una novità, oggi in ambito militare tutto è gestito da queste tecnologie”, dice Mauro Gilli del Center for Security Studies-ETH di Zurigo. La pratica di affidarsi a una macchina per identificare un obiettivo da colpire è ancora più antica. “Le prime rudimentali tecniche di targeting nei conflitti armati risalgono alla fine degli anni Cinquanta, inizio dei Sessanta”. Da qualche anno, gli americani e soprattutto i cinesi investono molto nello sviluppo dell’intelligenza artificiale. Pechino è considerata molto più avanti di Washington, che invece applica svariati caveat che hanno rallentato lo sviluppo di questi sistemi. Nel luglio dello scorso anno, un gruppo di esperti del settore IA e di ceo di aziende tech furono ascoltati in audizione al Congresso americano. Il concetto ripetuto in coro fu uno: gli Stati Uniti devono fare più in fretta nella raccolta dati e negli investimenti in nuove tecnologie se vogliono competere con la Cina. “Il paese che riesce a integrare più velocemente ed efficacemente le nuove tecnologie nel modo in cui si combattono le guerre vince – aveva avvertito Alexandr Wang, giovanissimo ceo della start up Scale AI – Siamo all’alba di una nuova èra”. 

Finora, gli americani hanno sviluppato il progetto Maven, descritto di recente su Bloomberg con un’intervista al fisico americano Will Roper, uno dei suoi ideatori. “Per anni non ho detto nemmeno alla mia famiglia che lavoro facevo. Di che si trattava? Ideavo la guerra del futuro”. I primi impieghi dell’IA hanno interessato Siria e Iraq, che sono diventate un’enorme “palestra” per le nuove tecnologie di targeting. Maven è stato impiegato dagli americani anche di recente, nei bombardamenti compiuti nelle scorse settimane al confine fra i due paesi per colpire le postazioni delle milizie filoiraniane. Ma una cosa è usare queste tecnologie nel mezzo di aree desertiche, un’altra è farlo in uno dei luoghi più densamente popolati al mondo. “Fra noi del settore abbiamo definito Levander come un Maven con gli anabolizzanti”, dice Russo. 

 

I due paradigmi in contrapposizione sono i più recenti attacchi americani in Afghanistan e quelli di Israele a Gaza. Dal 2002, diversi raid condotti dalle forze armate statunitensi hanno finito per sbagliare tragicamente i loro bersagli, come nel caso dei ripetuti bombardamenti di case private. Quelle che erroneamente si ritenevano riunioni di leader talebani, in realtà erano feste di matrimoni. Da allora, gli americani hanno tratto lezioni importanti sul ground targeting, affinando le modalità di individuazione degli obiettivi. La dimostrazione più evidente è giunta nel luglio del 2022, a Kabul, con l’omicidio del numero due di al Qaida, Ayman al Zawahiri. Per quell’operazione fu cruciale il ruolo sul terreno del personale dell’intelligence, quello fatto da agenti in carne e ossa, e poi l’impiego del drone R9X Hellfire, denominato  “blade bomb”, “ninja bomb” o “flying Ginsu”, progettato per ridurre al minimo ogni danno collaterale. Dotato di sei lame rotanti, l’R9X è un “tritacarne” senza testata esplosiva che colpisce solamente l’obiettivo. “Quello fu un caso di estrema attenzione nel volere ridurre i danni collaterali – spiega Mauro Gilli – Ora Israele sembra stia facendo altre valutazioni, sulla falsa riga di quando fecero i russi a Groznyj nel 1994”. 

 

Ma secondo il ricercatore, non sarebbe il poco tempo a disposizione il vero elemento di novità nell’impiego di Levander da parte degli israeliani. “Il dibattito surreale che ha preso piede, quello del cosiddetto ‘man in the loop’, l’uomo in balia della macchina, c’è già da molto tempo. Qualsiasi operatore che si ritrovi a supervisionare sistemi missilistici ha pochi secondi a disposizione per decidere. Prendiamo ad esempio l’attivazione di sistemi di difesa contro missili balistici”. Basta volgere lo sguardo più a oriente, a quanto avviene da mesi nel Mar Rosso, per rendersi conto che la proliferazione di nuovi sistemi d’arma con un livello tecnologico elevato, anche fra gruppi parastatali come Ansar Allah nello Yemen, sta cambiando radicalmente il modo di combattere. Oltre all’uso massiccio di piccoli droni, gli houthi sono stati i primi  nella storia ad avere impiegato missili balistici anti nave. “Con una velocità Mach-5, capace di viaggiare a quasi 5 mila chilometri orari, dal momento del lancio di un loro missile fino al potenziale impatto contro un obiettivo al largo, che sia una nave commerciale o una fregata, il comandante di una nave militare ha fra i 9 e il 15 secondi di tempo per decidere di abbatterlo”, ha raccontato all’americana “60 minutes” il viceammiraglio americano Brad Cooper, vicecomandante del Centcom, il comando centrale americano. 

“Il grande problema con questi nuovi sistemi tecnologici su cui si basa l’IA è il rischio di un sovraccarico cognitivo per l’operatore”, spiega ancora  Russo. “Anche per questo gli americani hanno un controllo maggiore sui dati raccolti e ‘masticati’ dal software. In Maven, il tempo di verifica prima di colpire un bersaglio è maggiore di quello impiegato dagli israeliani”. Ma la questione dell’impiego dell’IA nella scelta dei bersagli non apre solamente questioni tattiche o etiche. Per Andrea Gilli, un altro tema è quello giuridico. “E’ una questione di regole di ingaggio, che evidentemente sono state abbassate”, spiega l’esperto del Nato Defence College. Ancora, non è l’arma in sé che deve spaventare ma il modo in cui è impiegata. “Secondo il Diritto internazionale umanitario, uccidere civili è consentito se sussistono princìpi di proporzionalità. Chiaramente si tratta di valori che non sono standardizzati, ma se è vero che Levander ha causato molte vittime civili andrebbe poi dimostrata l’intenzionalità nel colpirle”. Secondo molti esperti, parlare generalmente dei palestinesi di Gaza come “bersagli militari” degli israeliani sarebbe problematico proprio per la difficoltà con cui potere dimostrare l’intenzionalità nel colpire i civili. 

 

Ciò che è certo è che siamo davanti a una nuova rivoluzione militare. Francis G. Hoffman, della National Defence University di Washington, qualche anno fa su War on the Rocks aveva messo in guardia contro  “le conclusioni naïve e ipocrite della minoranza dei tecno-moralisti”, che si oppone ciecamente a ogni tentativo di sviluppare nuove tecnologie che “potrebbero rendere più accurato il modo in cui possiamo difendere gli interessi del nostro paese”. Allo stesso tempo, Hoffman metteva in guardia dai “facili ottimismi dei tecno-entusiasti”, chiarendo la necessità di preservare la “supervisione dell’uomo”.   “Queste nuove tecnologie stanno cambiando il modo di fare la guerra, è indubbio”, commenta al Foglio l’ammiraglio Giampaolo Di Paola, ex ministro della Difesa. “Ma le incognite sono svariate. Potremmo essere davanti a un’èra simile a quella dell’avvento della bomba atomica”. Dobbiamo avere paura? “Tutte le nuove armi sono temibili, si tratta solo di sapersi adattare”. 

Di più su questi argomenti:
  • Luca Gambardella
  • Sono nato a Latina nel 1985. Sangue siciliano. Per dimenticare Littoria sono fuggito a Venezia per giocare a fare il marinaio alla scuola militare "Morosini". Laurea in Scienze internazionali e diplomatiche a Gorizia. Ho vissuto a Damasco per studiare arabo. Nel 2012 sono andato in Egitto e ho iniziato a scrivere di Medio Oriente e immigrazione come freelance. Dal 2014 lavoro al Foglio.