Ansa

il dibattito

Più IA, più personale. Perché è fondamentale il fattore umano nella tecnologia

Pietro Minto

Serviranno sempre più competenze, varie per formazione ed estrazione, in modo da seguire meglio lo sviluppo delle intelligente artificiali, evitando pregiudizi, errori e bias nella tecnologia. I dilemmi post ChatGPT e i motivi per non licenziare 

Qualche settimana fa ha fatto parlare di sé una lettera aperta – firmata anche da Elon Musk e Steve Wozniak – in cui decine di personalità del settore di spicco hanno chiesto di mettere in pausa per sei mesi lo sviluppo delle intelligenze artificiali. L’esplosiva diffusione di servizi come ChatGPT o Midjourney ha stupito ma anche spaventato, spingendo alla richiesta di fermare tutto prima che sia troppo tardi, quanto meno per avere tempo di fare nuove leggi ad hoc per il nuovo mondo delle IA.

Son passati pochi giorni ma il quadro sembra essere già cambiato, e non solo perché Musk ha leggermente cambiato idea, aprendo una nuova società con cui fare concorrenza a OpenAI. In generale il corso degli eventi sta dimostrando che un simile stop a un settore in ebollizione sarebbe impossibile da attuare, oltre che non rappresentare la risposta giusta. Prima di scelte tanto drastiche e di riflessioni sulla fine del mondo, infatti, basterebbe ricordarsi di un elemento che potrebbe fare la differenza e, forse, chissà, salvarci tutti: siamo noi, gli esseri umani.

E’ questo il monito lanciato da diversi professionisti ed esperti del campo, che hanno sottolineato come il coinvolgimento maggiore degli umani è essenziale per evitare che le IA sfuggano di mano. Più persone, quindi, ma anche persone diverse, di formazione ed estrazione varia, in modo da seguire meglio lo sviluppo delle IA, evitando pregiudizi, errori e bias nella tecnologia, come ha ricordato Oded Netzer, professore della Columbia Business School al sito Business Insider. 

Già da anni, del resto, realtà come Alphabet, Meta e Microsoft, molto attive nel settore, impiegano anche esperti di etica nei loro team di ricercatori. Questa convivenza forzata tra tecnici, filosofi e giuristi ha caratterizzato buona parte dello sviluppo delle intelligenze artificiali ma sembra essersi incrinata proprio negli ultimi mesi, per diversi motivi. Da una parte il successo di OpenAI, che ha spinto giganti e startup ad accelerare senza badare troppo ai vincoli etici e ai dilemmi sulla sopravvivenza umana; dall’altra i pesanti tagli al personale avvenuti in questi  mesi nel settore tecnologico, che sono andati inevitabilmente a toccare anche i team che si occupavano di sviluppare e monitorare lo sviluppo di IA. La sola Meta, per esempio, avrebbe tagliato il 25 per cento del suo personale, in quello che il ceo Mark Zuckerberg ha celebrato come “l’anno dell’efficienza”. 

Invece di preoccuparsi del risveglio di chissà quale creatura demoniaca sotto forma di codice, quindi, sarebbe meglio trovare una conciliazione tra due tendenze che a oggi sembrano respingersi a vicenda. Già nel 2021, Google licenziò due esperte di etica del Brain Team (divisione che si occupa di IA) perché si erano rifiutate di ritirare uno studio piuttosto allarmato sui modelli linguistici, il cui funzionamento è alla base di sistemi come ChatGPT. Il rischio è che a sviluppare e monitorare le IA rimangano pochi umani, e che siano perlopiù ingegneri e sviluppatori: “Le nostre vite digitali non devono essere costruite solo dai fanatici della tecnologia come me”, ha detto l’esperta di IA Kriti Sharma, “ma da una combinazione di persone dal background diverso”.

Nel frattempo, nel mondo reale, la marea di contenuti creati dalle intelligenze artificiali generative comincia a farsi sentire su siti come Reddit, che si stanno attrezzando per proteggere le loro comunità. Anche in questo caso, a risolvere la situazione siamo noi umani, con un aumento del lavoro e delle responsabilità dei moderatori – gli utenti volontari che si occupano di gestire e ripulire i subreddit, le varie sezioni tematiche di cui si compone il sito –, i quali hanno notato un picco di commenti e contenuti “sospetti” dal lancio di ChatGPT in poi. Il problema è che, per ora, distinguere un testo generato dall’intelligenza artificiale da uno scritto da un essere umano risulta complesso: “In futuro servirà vorrà molto lavoro da parte degli umani,” ha dichiarato un moderatore di Reddit a Vice. Ecco, è un motivo in più non licenziarli in blocco.
 

Di più su questi argomenti: