La Tholos di Delfi, IV secolo a.C. (da Wikipedia)

Nel web

Il pol. corr. ha un nuovo oracolo: il bot Delphi

Francesco Gottardi

Abbattere statue sì, mangiare carne no. Le nobili intenzioni della ricerca sull'intelligenza artificiale sono incappate in un robottino online che risponde a qualsiasi dilemma morale degli utenti. Istruzioni per l'uso

Cosa penserebbe mai la pizia dei tempi antichi, ormai trasfigurata in bot senza arte né parte? Se non altro l’oracolo di Delfi si pronunciava sull’esito di una guerra o sulla propizia fondazione di una città: senza particolari connotazioni, lasciando l’etica ad Aristotele e alla filosofia. Oggi invece Ask Delphi, l’intelligenza artificiale (IA) sviluppata da un ente di ricerca no profit americano, si propone di rispondere ai dilemmi morali del ventunesimo secolo. È online da qualche settimana – qui il link, come gioco può essere divertente – e alla portata di tutti. Niente libagioni o solenne cerimoniale: basta chiedere una cosa – davvero qualsiasi cosa – e cliccare su "ponder" (riflettere). Tempo pochi secondi e la tecnologia dirà se la questione è giusta o sbagliata, accettabile o sconveniente.

 

“Delphi è un prototipo di ricerca progettato per indagare i vantaggi e i limiti di modellare i giudizi morali delle persone”, si legge nei termini e condizioni del sito. “Il suo scopo è aiutare i sistemi IA ad essere più eticamente informati e consapevoli dell’equità sociale”, e non, dunque, aiutare a scegliere come agire nella vita reale. Tuttavia, sottolinea lo stesso Allen institute che ha creato Delphi, “i suoi responsi potrebbero contenere risultati offensivi o inappropriati, in base alle persone su cui è stato tarato l’algoritmo”.

 

Il campione in questione – ispiratore e target di Delphi allo stesso tempo – è enorme. Gli oltre 1,7 milioni esempi di dilemmi umani che alimentano il meccanismo del bot derivano infatti dall’attività su Reddit, la piattaforma digitale da mezzo miliardo di utenti in tutto il mondo. Il "cyber-oracolo", invece, è frutto di Mechanical turk, uno dei web services di Amazon: secondo un processo di selezione, i partecipanti allo studio sono chiamati a svolgere un test per qualificare la loro integrità – viene escluso in partenza chi mostra segni di razzismo o sessismo, ad esempio – e solo i più meritevoli entrano a far parte della giuria. A quel punto ogni domanda viene sottoposta a una triade casuale di arbitri, che decide a maggioranza. Nel 92 per cento dei casi, sostengono i ricercatori, i responsi del bot coincidono con quelli della giuria reale così individuata.

 

 

Anche in questo caso, l’introduzione di un criterio morale a priori – basta questo a polarizzare, in qualsiasi direzione – è stata voluta per evitare contenuti potenzialmente pericolosi e tutelare le minoranze. Il risultato però è il pensiero unico del mondo anglosassone contemporaneo. Passino i cortocircuiti del caso, che scivolano nel grottesco – approcciare un uomo per strada “è giusto”, con una donna invece “è una cosa brutta” che però diventa “accettabile” se fatta in chiesa: si va avanti all’infinito. Ma secondo Delphi è ok abbattere le statue di personaggi storici controversi, censurare la satira o cancellare i libri che qualcuno può ritenere offensivi. Va bene essere contro Putin, Xi Jinping, Bernie Sanders o Emmanuel Macron; guai invece a prendersela con Biden, la Cnn, la teoria gender o Greta Thunberg – e va da sé: anche mangiare molta carne è sbagliato. Una macchina da Impero del bene insomma. Da non prendere sul serio, come suggerisce lo stesso bot. “È irrazionale”, risponde l’oracolo, se gli si chiede: “È giusto credere in Ask Delphi?”