Dal Washington Post

Cosa cambia con il fattore IA alle prossime elezioni americane

Il voto del 2024 sarà il primo nell’era dell’intelligenza artificiale negli Stati Uniti. Foto e video deepfake vengono strattonati tra una campagna elettorale e l’altra e il concetto di “verità” ne esce stravolto 

Gli esperti di intelligenza artificiale da tempo lanciano avvertimenti  sui contenuti generati dall’intelligenza artificiale che  potrebbero confondere la realtà delle cose. A poche settimane dall’inizio di un anno elettorale cruciale, la confusione generata dall’IA è in aumento. I politici di tutto il mondo hanno eliminato prove potenzialmente dannose – video sgranati di incontri in hotel, registrazioni vocali che criticano gli avversari politici – liquidandole come falsi generati dall’intelligenza artificiale. Allo stesso tempo, i deepfake dell’IA vengono usati per diffondere disinformazione.
 

Lunedì scorso, il dipartimento di Giustizia del New Hampshire ha dichiarato di stare indagando su telefonate automatiche con quella che sembrava essere una voce generata dall’intelligenza artificiale simile alla voce di Joe Biden e che diceva agli elettori di saltare le primarie di martedì – il primo uso degno di nota dell’intelligenza artificiale per la soppressione degli elettori in questo ciclo elettorale. Il mese scorso, l’ex presidente Donald Trump ha respinto un annuncio su Fox News con video delle sue ben documentate gaffe pubbliche – tra cui la sua difficoltà a pronunciare la parola “anonymous” in Montana e la sua visita alla città californiana di “Pleasure”, alias Paradise, entrambe nel 2018 – sostenendo che il filmato fosse stato generato dall’IA. “I pervertiti e i perdenti del fallito e una volta smantellato Lincoln Project, e altri, stanno usando l’IA nei loro finti spot televisivi per farmi apparire cattivo e patetico come il corrotto Joe Biden, non una cosa facile da fare”, ha scritto Trump su Truth Social. “Fox News non dovrebbe trasmettere questi spot”.
 

Il Lincoln Project, un comitato d’azione politica formato da repubblicani moderati per opporsi a Trump, ha prontamente smentito l’affermazione; lo spot presentava incidenti durante la presidenza di Trump che erano stati ampiamente trattati all’epoca e testimoniati nella vita reale da molti osservatori indipendenti. Tuttavia, l’intelligenza artificiale crea un “dividendo bugiardo”, ha affermato Hany Farid, professore dell’Università della California a Berkeley che studia la propaganda digitale e la disinformazione. “Nell’èra dell’intelligenza artificiale, quando si riesce a beccare un agente di polizia o un politico che dice qualcosa di orribile, questi hanno una negazione plausibile”. L’IA “destabilizza il concetto stesso di verità”, ha aggiunto Libby Lange, analista dell’organizzazione di monitoraggio della disinformazione Graphika. Se tutto può essere falso, e se tutti sostengono che tutto è falso o manipolato in qualche modo, non c’è davvero un senso di verità di fondo”. Gli attori politicamente motivati, in particolare, possono dare qualsiasi interpretazione scelgano”.
 

Trump non è il solo a cogliere questo vantaggio. In tutto il mondo, l’intelligenza artificiale sta diventando un capro espiatorio comune per i politici che cercano di respingere le accuse dannose. Alla fine dello scorso anno, è emerso un video sgranato di un politico taiwanese del partito al potere che entra in un hotel con una donna, indicando che aveva una relazione. Commentatori e altri politici si sono subito schierati in sua difesa, affermando che il filmato era stato generato dall’intelligenza artificiale, anche se non è chiaro se lo fosse davvero. Ad aprile è trapelata una registrazione vocale di 26 secondi in cui un politico dello stato indiano meridionale del Tamil Nadu sembra accusare il suo stesso partito di aver accumulato illegalmente 3,6 miliardi di dollari, secondo quanto riportato da Rest of World. Il politico ha negato la veridicità della registrazione, definendola “generata dalla macchina”; gli esperti hanno dichiarato di non essere sicuri che l’audio sia reale o falso.
 

Le aziende di intelligenza artificiale hanno generalmente dichiarato che i loro strumenti non dovrebbero essere utilizzati nelle campagne politiche, ma l’applicazione è stata discontinua. Venerdì OpenAI ha vietato a uno sviluppatore di utilizzare i suoi strumenti dopo aver costruito un bot che imitava il candidato democratico alle presidenziali Dean Phillips. La campagna di Phillips aveva sostenuto il bot, ma dopo che il Washington Post ne ha dato notizia, OpenAI ha ritenuto che esso violasse le regole contro l’uso della sua tecnologia per le campagne.
 

La confusione legata all’intelligenza artificiale si sta diffondendo anche al di là della politica. La scorsa settimana, gli utenti dei social media hanno iniziato a far circolare un clip audio che sostenevano essere un preside di una scuola della contea di Baltimora, nel Regno Unito, impegnato in una filippica razzista contro gli ebrei e gli studenti neri. Il sindacato che rappresenta il preside ha dichiarato che l’audio è stato generato dall’intelligenza artificiale. Diversi indizi portano a questa conclusione, tra cui la cadenza uniforme del discorso e le indicazioni di giunzione, ha detto Farid, che ha analizzato l’audio. Ma senza sapere da dove provenga o in quale contesto sia stato registrato, è impossibile dirlo con certezza. Sui social media, i commentatori sembrano in gran parte credere che l’audio sia reale e il distretto scolastico ha dichiarato di aver avviato un’indagine. Una richiesta di commento al preside attraverso il suo sindacato non ha ricevuto risposta.
 

Queste affermazioni hanno un peso perché i deepfake dell’intelligenza artificiale sono oggi più comuni e riescono a replicare meglio la voce e l’aspetto di una persona. I deepfake diventano regolarmente virali su X, Facebook e altre piattaforme sociali. Nel frattempo, gli strumenti e i metodi per identificare i media creati dall’IA non sono al passo con i rapidi progressi della capacità dell’IA di generare tali contenuti. Immagini false di Trump sono diventate virali più volte. All’inizio di questo mese, l’attore Mark Ruffalo ha pubblicato immagini false di Trump con ragazze adolescenti, sostenendo che le immagini mostravano l’ex presidente su un aereo privato di proprietà del condannato per reati sessuali Jeffrey Epstein. Ruffalo si è poi scusato. Trump, che ha passato settimane a inveire contro l’intelligenza artificiale sul social Truth, ha postato sull’incidente dicendo: “Questa è l’intelligenza artificiale ed è molto pericolosa per il nostro paese!”.

 

 

La crescente preoccupazione per l’impatto dell’IA sulla politica e sull’economia mondiale è stato uno dei temi principali della conferenza dei leader mondiali e degli amministratori delegati tenutasi a Davos, in Svizzera, la scorsa settimana. Nel suo discorso di apertura della conferenza, la presidente della Confederazione Viola Amherd ha definito la propaganda e le menzogne generate dall’IA “una vera minaccia” per la stabilità mondiale, “soprattutto oggi che il rapido sviluppo dell’intelligenza artificiale contribuisce alla crescente credibilità di queste fake news”. Le aziende del settore tecnologico e dei social media affermano che stanno studiando la possibilità di creare sistemi per controllare e moderare automaticamente i contenuti generati dall’intelligenza artificiale che si spacciano per veri, ma non lo hanno ancora fatto. Nel frattempo, solo gli esperti possiedono la tecnologia e l’esperienza necessarie per analizzare un media e determinare se è vero o falso. Questo fa sì che siano troppo poche le persone in grado di verificare la veridicità di contenuti che oggi possono essere generati con strumenti di IA facili da usare e disponibili per quasi tutti. “Non è necessario essere un informatico. Non è necessario saper codificare”, ha detto Farid. “Non c’è più alcuna barriera all’ingresso”.
 

Aviv Ovadya, esperto dell’impatto dell’IA sulla democrazia e affiliato al Berkman Klein Center dell’Università di Harvard, ha affermato che il pubblico in generale è molto più consapevole dei deepfake dell’IA rispetto a cinque anni fa. Se i politici vedono altri eludere le critiche sostenendo che le prove rilasciate contro di loro sono IA, sempre più persone faranno questa affermazione. “C’è un effetto contagio”, ha detto, notando un aumento simile di politici che definiscono falsamente truccate le elezioni.
 

Ovadya ha detto che le aziende tecnologiche hanno gli strumenti per regolare il problema: potrebbero filigranare l’audio per creare un’impronta digitale o unirsi a una coalizione volta a prevenire la diffusione di informazioni fuorvianti online sviluppando standard tecnici che stabiliscano l’origine dei contenuti dei media. Soprattutto, ha detto, potrebbero modificare i loro algoritmi in modo da non promuovere contenuti sensazionali ma potenzialmente falsi. Finora, ha detto, le aziende tecnologiche non sono riuscite ad agire per salvaguardare la percezione della realtà da parte del pubblico. “Finché gli incentivi continueranno a essere il sensazionalismo guidato dal coinvolgimento e il conflitto vero e proprio”, ha detto, “questi sono i tipi di contenuti – che siano deepfake o meno – che emergeranno”.

Pranshu Verma e Gerrit De Vynck. Hanno collaborato Drew Harwell e Nitasha Tiku

Copyright Washington Post