Ecce robot. Così l’uomo si interroga sulle intelligenze artificiali

Rischi e opportunità per tecnologia, lavoro e società. Come cambierà la nostra vita ai tempi delle macchine autonome. Parlano Selman e Vardi, tra i massimi esperti a livello mondiale in questo settore.

Ecce robot. Così l’uomo si interroga sulle intelligenze artificiali

Guai a definirli luddisti, anche perché per molti di essi la tecnologia rappresenta il pane quotidiano. Sono più di ottomila provenienti da tutto il mondo – perlopiù accademici, scienziati e imprenditori – preoccupati che il rapido sviluppo della tecnologia possa rappresentare una minaccia per l’intera umanità. Hanno deciso di sottoscrivere la lettera aperta del Future of Life Institute con lo scopo di sensibilizzare governanti e legislatori circa le giuste priorità per un “solido e vantaggioso sviluppo dell’intelligenza artificiale”.

 

Nella lunghissima lista di firmatari dell’appello spiccano nomi noti, come quelli di Elon Musk, Stephen Hawking e Steve Wozniak, giusto per citarne alcuni. Tra di essi Bart Selman e Moshe Vardi, docenti di Informatica rispettivamente alla Cornell University (Ithaca, New York) e alla Rice Univesity (Houston, Texas), considerati tra i massimi esperti a livello mondiale in questo settore. Il Foglio ha voluto discutere con loro in merito alle possibili implicazioni economiche ed etiche dello sviluppo dell’automazione e dell’intelligenza artificiale. “Mai l’umanità ha avuto tanto potere su sé stessa e niente garantisce che lo utilizzerà bene, soprattutto se si considera il modo in cui se ne sta servendo”, scrive Papa Francesco nell’enciclica Laudato Si’, quasi a completare ciò che trentacinque anni fa il santo Giovanni Paolo II scriveva nella Laborem Excersens, con la quale denunciava i rischi legati “all’introduzione generalizzata dell’automazione in molti campi della produzione”, prevedendo “per milioni di lavoratori qualificati la disoccupazione, o la necessità di un riaddestramento”.

 

“L’intelligenza artificiale sta passando dal campo della ricerca accademica a quello delle applicazioni pratiche” spiega Selman. “Alcuni esempi sono sotto gli occhi di tutti: le automobili che si guidano da sole, i droni, i robot, i sistemi di trading automatizzati, e così via. Questi sistemi operano semi-autonomamente e, come nel caso della guida, prendono decisioni al posto nostro. Fino ad oggi questi sistemi avevano capacità relativamente limitate, ma nei prossimi dieci o vent’anni diventeranno potenti e indipendenti dal controllo umano diretto, perciò è essenziale che operino in condizioni di sicurezza e sempre sotto la supervisione di un operatore, per garantire che non agiscano contro i nostri interessi”.

 

Se dietro a una macchina c’è sempre un operatore che la programma, quali rischi si possono avverare? “Una macchina può essere programmata, perciò possiamo dettagliare ciò che è necessario che esegua per conto nostro”, continua Selman. “Nel caso del software legato all’intelligenza artificiale le cose stanno diversamente: il programmatore fissa gli obiettivi generali e il sistema è in grado di trovare le soluzioni per raggiungerli. Se un’autovettura auto-guidante ha l’obiettivo di portarci all’aeroporto entro un determinato orario e si verifica un imprevisto, potrebbe decidere autonomamente di impostare una velocità di crociera eccessiva e mettere perciò a repentaglio l’incolumità dei passeggeri. In estrema sintesi, il pericolo è che i sistemi basati sull’intelligenza artificiale sono in grado di prendere decisioni imprevedibili e tanto più è difficile il compito che devono portare a termine tanto più aumenta il rischio e la complessità di gestione”.

 


Video sulla nuova auto di Google: si guida da sola, legge i segnali stradali, vede i pedoni, frena, mantiene le distanze. Fonte: Greenpeacez


 

Lo scopo ideale del Future of Life Institute (FLI) è tutto nella sintesi perfetta del suo motto: Technology is giving life the potential to flourish like never before…or to self-distruct. Let’s make a difference. Sembra uno scenario fantascientifico ma per Bart Selman è più reale di quanto si possa immaginare. “La vista e la capacità di riconoscimento vocale dei computer”, spiega, “sono migliorati in misura significativa negli ultimi cinque anni e continuano a progredire. Se prima del 2010 i computer erano essenzialmente ciechi e sordi, oggi le macchine stanno iniziando a vedere e sentire il mondo nello stesso modo degli esseri umani, e questo potrebbe portarci nell’arco dei prossimi venticinque anni ad avere intorno a noi dei robot molto simili agli esseri umani e dotati di una propria moralità”.

 


HRP-4C è un robot umanoide con volto femminile creato da AIST (istituto nazionale Giapponese per la scienza e la tecnologia) e presentato al pubblico a Tokio il 16 marzo 2009. E' dotata di capacità di riconoscimento e di sintesi vocale.


 

All’orizzonte c’è lo Übermensch – o superhuman, come preferiscono chiamarlo i ricercatori, anche se la denominazione anglosassone non toglie nulla al significato sinistro di questo termine. Il professor Selman è uno dei trentasette ricercatori accreditati che ha ricevuto i finanziamenti stanziati dal FLI l’anno scorso, grazie anche alle generose donazioni di Elon Musk. “Stiamo studiando la velocità di progressione dell’intelligenza delle macchine. Alcuni sostengono che il software dell’intelligenza artificiale raggiungerà il livello umano nell’arco di venti o trent’anni. A quel punto il codice inizierà ad automigliorarsi a un ritmo sempre più veloce, diventando super-intelligente. Il nostro studio”, spiega ancora Selman, “è volto a stabilire se questo possa in effetti avverarsi nella realtà”.

 

E’ lo scenario profetizzato dal filosofo svedese Nick Bostrom, docente all’Università di Oxford, che nel bestseller Superintelligence teorizza il sorpasso da parte dell’intelligenza artificiale ai danni di quella umana, fino a rimpiazzarla completamente in uno scenario alla Terminator. Un libro “caldamente consigliato” da Bill Gates, ormai in prima linea nella lotta ai rischi legati allo sviluppo incontrollato dell’intelligenza artificiale. Per la cronaca anche Bostrom è uno dei firmatari della lettera aperta del FLI.

 

Sull’argomento Moshe Vardi è più cauto: “Trovo il concetto di superintelligenza alquanto fantasioso, un po’ come pensare che Brainiac possa diventare qualcosa di reale. Non possediamo una definizione precisa di cosa sia l’intelligenza, figuriamoci la superintelligenza. Quello rappresentato”, continua, “è uno scenario basato su ipotesi speculative. Come dice Andrew Ng, Chief Scientist alla Baidu Research e associate professor a Stanford: “Temere lo sviluppo di robot killer è come preoccuparsi del sovrappopolamento di Marte”.

 

Se per il futuro possiamo solo muovere ipotesi, gli studiosi concordano sul fatto che l’automazione e l’intelligenza artificiale abbiano un impatto significativo sul mercato del lavoro. Uno studio pubblicato nel 2013 da Frey e Osborne dell’Università di Oxford prevede che il 47 per cento dei lavori attualmente presenti negli Stati Uniti siano ad “alto rischio” nei prossimi vent’anni. Su questo punto Moshe Vardi è ferratissimo, non per niente tiene da anni in giro per il mondo conferenze dal titolo If machines are capable of doing almost any work humans can do, what will humans do?

 

“Per quanto mi riguarda”, commenta, “l’impatto sul mercato del lavoro è l’aspetto più importante anche in termini di conseguenze sociali. Per quanto lo studio di Frey e Osborne sia di sicuro interesse, la metodologia utilizzata è contestata da molti economisti e personalmente ho seri dubbi che si possano fare previsioni così accurate a lungo termine. A ogni modo, molti studi hanno evidenziato come negli ultimi venticinque anni i lavori a medio livello di specializzazione siano stati vulnerabili all’automazione, e lo saranno anche nei prossimi venticinque”.

 

“Il mercato del lavoro è sempre più polarizzato tra occupazioni che non richiedono specializzazione e quelle ultra-specializzate”, spiega Francesco Seghezzi, Visiting Fellow alla Cornell University e direttore ADAPT University Press, “il risultato è che la classe media sta sparendo, ed è un fenomeno inesorabile per quanto le istituzioni provino un certo disagio nell’affrontare il tema. Qualche segnale positivo in Italia lo stiamo vedendo, come per esempio l’introduzione dell’alternanza scuola/lavoro, ma il governo si è limitato a cogliere alcuni macroproblemi già noti da tempo. Il vero nodo rimangono le politiche attive e in particolare il contratto di ricollocazione, che sembra essere sparito dalla riforma del lavoro. E’ vero che l’automazione ha provocato ricadute in termini occupazionali, specie in alcuni settori come la manifattura”, conclude, “ma questo può aprire spazi a nuove figure che fino a ieri non esistevano”.

 

“Vero”, gli fa eco Moshe Vardi, “specialmente professioni altamente specializzate, come per esempio gli analisti di big data. Perciò la sfida oggi è quella dell’istruzione, per permettere a più persone possibili di progredire nella scala delle competenze. Occorre anche capire se queste nuove figure siano sufficienti a coprire la perdita di posti di lavoro generata dallo sviluppo delle nuove tecnologie. Un recente studio di Berger e Frey riporta che solo lo 0,5 per cento della forza lavoro degli Stati Uniti è oggi impiegata in settori che nel 2000 non esistevano”.

L’errore fino a oggi, sostiene Vardi, è stato concentrarsi troppo sulle possibilità e troppo poco sulle conseguenze di un rapido sviluppo tecnologico. Tuttavia, sostiene Selman, “lo sviluppo tecnologico non va assolutamente fermato: la questione semmai è come guidarlo perché le opportunità che ne derivano possano essere sfruttate appieno per il bene dell’umanità”.

 

“Ada Lovelace – matematica inglese vissuta nel XIX secolo e considerata la prima programmatrice informatica della storia – sognava un mondo in cui i computer fossero efficacemente al servizio dell’umanità”, conclude Vardi. “Gli scienziati sono mossi dalla curiosità e dalla sfida intellettuale, ma spesso evitano di considerare le conseguenze sociali delle tecnologie alla quali lavorano. E’ compito della società, e in particolar modo degli uomini di scienza, assicurare che la tecnologia abbia come scopo il bene dell’umanità”.

Lascia il tuo commento

Condividi le tue opinioni su Il Foglio

Caratteri rimanenti: 1000

Servizi