cerca

Bisogna avere paura delle auto che si guidano da sole? Quattro esperti rispondono

Cosa cambia se a investire non è un uomo ma una macchina? La colpa, la riduzione del rischio, le innovazioni di domani che sono già qui, dibattito sulle questioni aperte dopo il caso Uber

28 Marzo 2018 alle 17:41

Il futuro della mobillità dopo il caso Uber. Girotondo di opinioni

Un suv Volvo di Uber a guida autonoma (foto via Wikipedia)

La notte del 18 marzo 2018 Elaine Herzberg stava attraversando una strada a Tempe, in Arizona, dove stava transitando un veicolo a guida autonoma, uno dei suv Volvo che Uber sta testando nello stato americano. Elaine è stata investita ed è morta, e secondo la polizia locale “nemmeno un umano avrebbe potuto frenare in tempo”. L’Arizona ha deciso di bloccare la sperimentazione, e in tutto il mondo si è iniziato a dibattere del caso: tra chi sostiene che le tecnologie ci salveranno la vita, e quindi dobbiamo essere disposti ad accettare una morte sul percorso che ci farà arrivare al rischio zero (o quasi), e chi invece crede che questo tipo di incidenti dovrebbero farci fermare e riflettere sulla necessità e le implicazioni – anche etiche – delle auto senza conducente. Il 26 marzo sul Wall Street Journal Abigail Shrier è intervenuta sostenendo che il futuro potrà anche essere più sicuro, ma nondimeno rischia di essere terrificante. C’entrano i sentimenti, i sensi di colpa, il sentirsi umani. Tra posizioni estreme e più morbide, il dibattito è aperto e attuale, per questo il Foglio ha deciso di far intervenire quattro esperti, che ci spiegano il loro punto di vista sulla questione.

 

Meglio morire investiti da un ubriaco o da un’auto senza pilota?

Quanti rischi siamo disposti ad affrontare per avere un’auto che si guida da sola? Riflessioni sul caso Uber

 


 

Il nostro futuro è più sicuro, ma terrificante

Abigail Shrier, dal Wall Street Journal

 

“Sapevamo che prima o poi sarebbe successo”. Inizia così un articolo del Wall Street Journal firmato da Abigail Shrier, intitolato “Il nostro futuro sarà più sicuro, ma terrificante”. Elaine Herzberg è il primo pedone ucciso da un’auto che si guida da sola. Il suv Volvo viaggiava a 38 miglia all’ora (60 chilometri orari) e “la collisione sarebbe stata inevitabile anche per un guidatore umano”. Un giorno i veicoli autonomi saranno più sicuri di quelli guidati da un uomo. Ci saranno ancora morti tragiche, ma ci possiamo confortare con la probabilità che ce ne saranno sempre di meno. Nondimeno, c’è qualcosa che ci disturba, qualcosa di doloroso e angosciante sulla possibilità di morire investiti da un robot. “Ho conosciuto soltanto una persona coinvolta in un incidente mortale con un altro veicolo. La donna che è rimasta uccisa per lui era una sconosciuta”, racconta Shrier, secondo cui quel caso è paragonabile – dal punto di vista della dinamica – a quello di Tempe. “L’assicurazione ha stabilito che era colpa della donna, ma l’avvenimento ha sconvolto l’autista. Per mesi non è riuscito a dormire. Per ancora più tempo, l’incidente è stata l’unica cosa di cui riuscisse a parlare”.


C’entra la dinamica della colpa, secondo Abigail Shrier. Perché quando un innocente muore, ci aspettiamo “questo tipo di reazioni e sentimenti”.  In qualche modo, sostiene l’autrice, la prospettiva di ricevere una fredda lettera di dimissioni dall’ufficio pubbliche relazioni di un’azienda della Silicon Valley non ci è sufficiente. Non tutti sono premurosi o desiderosi di prendersi cura del prossimo, ma almeno “con gli esseri umani c’è sempre comunque la possibilità che qualcuno passi a trovarti e mostri un’emozione”, una piccola cosa, certo, che però può “alleviare, anche se di poco, il dolore per la morte”.


Il dibattito è aperto e dopo l’incidente di Tempe lo stato dell’Arizona ha deciso di sospendere la sperimentazione, che comunque continua in altri stati americani, dove ormai è praticamente realtà: soltanto in California sono state concesse 50 licenze per i test, senza che sia necessaria la presenza di un umano nel posto del guidatore, ma il controllo può essere preso da remoto. “Forse non dovremo preoccuparci che qualche malintenzionato possa intervenire e causare il caos, o che gli adesivi sui segnali stradali possano mandare in confusione l’intelligenza artificiale, o ancora che l’educata auto senza conducente si fermi di fronte a due malintenzionati armati”. Di certo, si arriverà a un punto in cui le auto saranno così sicure che dovremo necessariamente bandire gli autisti in carne e ossa, che in confronto ci sembreranno “dei killer”. A quel punto – si chiede Shrier – cosa saremo? “Chi avrà più bisogno di chiacchiere o convenevoli con un tassista? Quando le auto senza conducente saranno la norma, abiteremo in un’America profondamente differente, più tesa, meno amichevole e cordiale, perché l’amicizia è uno strumento adattivo con cui abbiamo iniziato a convivere in un mondo interdipendente. Minore sarà la necessità degli altri, minore sarà la nostra interazione e avremo sempre meno ragioni per prenderci cura degli altri”. Una società che affida le vite dei suoi membri al corretto funzionamento di “robot non ancora pronti piuttosto che all’umano giudizio” è una società differente. Un nuovo mondo, in cui le nostre vite esistono per migliorare la tecnologia. Perché in fondo, “le nostre morti sono il prezzo del progresso”.

 

L’auto di Uber e le ossessioni liberal

Perché Hollywood e la Silicon Valley sfornano sciocchezze simili, scrive Asia Times (22/3)


 

Giudichiamo l'intelligenza artificiale in base agli obiettivi posti

Stefano Quintarelli* e David Weinberger**

 

Estratto dalla proposta di legge "Delega al Governo per la disciplina e la promozione dello sviluppo dei sistemi di intelligenza artificiale" (4793), presentata il 18 dicembre 2017 a firma di Stefano Quintarelli

 

Consideriamo un veicolo autonomo (VA) che percorra una strada cittadina chiusa a veicoli guidati da umani. Immaginiamo che accada un evento imprevedibile che non conceda al VA nessuna opzione positiva (un nugolo di cuccioli cade da un sovrappasso, una voragine si apre sotto un autobus pieno di geni matematici eccetera). Qualunque sia il dilemma, immaginiamo che l'opzione “meno peggiore” per la rete di VA sia di condurre il veicolo con zia Ada giù da un ponte. Affrontiamo questi esperimenti mentali per chiarire i princìpi morali che desideriamo siano seguiti dai VA. Questo è utile come approfondimento mentale, ma può condurre in un binario morto nel momento in cui dobbiamo considerare come disegnare e governare le intelligenze artificiali: esaminiamo gli algoritmi per vedere se hanno violato dei principi morali. Ciò ci ripropone il tema delle spiegazioni in quanto assumiamo che queste decisioni sono – o dovrebbero essere – governate dall'applicazione di princìpi. Spieghiamo le “decisioni” dei VA sulla base di princìpi applicati a determinate condizioni. Ma nel mondo dell'intelligenza artificiale, così come nella vita quotidiana, ciò ci conduce ad argomentazioni sulla moralità che sono spesso impossibili da risolvere in quanto comprendiamo i princìpi riferendoli a casi generali che sono estremamente difficili da valutare nell'applicazione a casi particolari.

 

I princìpi dovrebbero essere incorporati ex ante in tutti i sistemi di intelligenza artificiale che produciamo, determinandone il loro comportamento senza eccezioni, mentre nei sistemi gestiti da umani le valutazioni sono fatte ex post, con decisioni valutate caso per caso nella loro specificità, senza così poter determinare regole generali con validità assolute. (…) I sistemi di intelligenza artificiale dovrebbero dichiarare per cosa sono ottimizzati. Le ottimizzazioni di sistemi che incidono significativamente sui cittadini non dovrebbero essere decise dalle società che creano questi sistemi, ma da organizzazioni che rappresentino gli interessi pubblici. L'ottimizzazione deve essere definita in termini di esiti rispetto a degli obiettivi. (…)

 

Perché è rilevante discutere della governance dei sistemi di intelligenza artificiale in termini di ottimizzazione?
In primo luogo, evade il dilemma costruzione ex ante versus valutazione ex post e ci focalizza su una discussione normativa laica sull'intelligenza artificiale come strumento per tendere a benefìci socialmente desiderabili (obiettivo della politica) invece di un enigma labirintico di discussioni su princìpi e loro applicazioni. Ad esempio, come società non riusciremo mai a convergere ex ante su una decisione se un VA deve essere programmato per investire due carcerati fuggiaschi per salvare una suora, o se le persone più ricche possano andare più velocemente a discapito dei meno abbienti. Se non riusciamo a convergere sulla neutralità della rete non riusciremo mai a farlo sulla neutralità delle autostrade. Ma disponiamo di apparati e possibili sistemi di governance per consentirci di decidere, ad esempio, che un sistema di VA dovrebbe avere come obiettivo la minimizzazione delle vittime di incidenti come prima priorità e la riduzione di impatto ambientale come seconda. In secondo luogo, ci consente di valutare il successo, il fallimento e la responsabilità legale in termini di proprietà del sistema, sulle quali è possibile accordarsi ex ante, invece di caso per caso (su cui abbiamo sempre fatto valutazioni ex post, peraltro esposte a un elevato grado di variabilità di contesto e soggettività da parte dei giudicanti). (…)  In terzo luogo, contestualizza la sofferenza che i sistemi di intelligenza artificiale causeranno. Ad esempio, la famiglia della zia Ada sarà indignata che il suo VA sia andato giù da un ponte. La famiglia vorrà fare causa ai fornitori del VA. Ma la ragione per cui l'auto abbia fatto ciò potrà essere inspiegabile, come la motivazione di una diagnosi precoce di un tumore, e ancora più complessa perché andrebbe analizzata nel contesto di dati provenienti da tutti gli altri sistemi nello stesso contesto in cui il veicolo ha scambiato informazioni. (…) Generalmente, non saremo in grado di spiegare la decisione né di verificarla.

 

Da un punto di vista morale e di responsabilità giuridica questo ci appare assolutamente insoddisfacente. D'altro canto in Italia nel 2016 ci sono state 3.283 vittime di incidenti stradali (e 249.175 feriti). Immaginiamo che alcuni anni dopo l'introduzione di VA il numero di vittime di incidenti si riduca a un decimo. Anche se potessimo avere una spiegazione umanamente comprensibile della ragione per cui l'auto della zia Ada sia andata giù da un ponte, la domanda non sarebbe se fosse moralmente giustificabile ma se il sistema abbia contribuito a raggiungere l'obiettivo per cui è stato ottimizzato. Trecento morti in incidenti stradali all'anno sono un costo terribile, ma 2.900 vite salvate sono un bene glorioso. La responsabilità morale del fornitore di VA e della rete di VA sulle strade in un determinato momento non è salvare zia Ada ma raggiungere le ottimizzazioni che noi, come società, abbiamo assunto come decisione politica.

 

*Imprenditore esperto di informatica, è stato deputato della XVII legislatura

**Filosofo, è fellow del Berkman Center for Internet and Society alla Harvard Law School. Ha scritto "La stanza intelligente: La conoscenza come proprietà della rete"

 

Ecco chi vuole spegnere l’auto che si guida da sola

Cosa succede a Uber e alla tecnologia di guida autonoma dopo l'incidente di Tempa e il blocco in Arizona


 

Il progresso non si può fermare, lo decide il mercato 

Antonio Sileo*

 

Da sempre le case automobilistiche lavorano per migliorare la sicurezza in strada, i passi in avanti in tal senso sono sotto gli occhi di tutti. Sia dal punto di vista della sicurezza attiva – pensiamo all’introduzione dell’ABS o dell’ESP – sia da quello della sicurezza passiva – come gli airbag. A questo si aggiungono i sistemi di assistenza alla guida, tutte innovazioni che hanno come obiettivo quello di rendere il veicolo più sicuro e compensare eventuali errori del conducente (distrazione, visibilità, sonno), per ridurre le probabilità che accada un incidente. Oggi, grazie a visione computerizzata e l'apprendimento automatico, intelligenza artificiale, deep learning e digitalizzazione, possiamo parlare di auto senza conducente; dove il combinato disposto tra i progressi in materia di sensori e la potenza di calcolo rende i veicoli talmente sicuri da poter immaginare che le auto un domani si possano guidare da sole. La domanda è: quanto è vicino questo domani. Non troppo. E comunque solo se gli automobilisti lo vorranno, saranno i consumatori con le loro scelte d’acquisto (il mercato insomma) a marcare la distanza di questo più o meno prossimo futuro. Le auto davvero autonome del resto saranno a tutti gli effetti dei robot, capaci appunto di svolgere delle attività in autonomia interagendo con il mondo circostante.

 

Idealmente l’ambiente più sicuro possibile è quello dove tutte le auto sono dotate di sensori, si controllano a vicenda e non sbattono mai. Può guidarle un uomo o no, ma non sbatteranno mai. Il problema è che sulle strade non ci sono solo le auto, ma anche bici, pedoni, animali. E sebbene se ne parli molto, questa soluzione non è così vicina, oltre ai robot bisogna creare, almeno in parte, un’infrastruttura – il mondo interconnesso – che permetta il cambio di paradigma. Per inciso, i robot, auto o androidi che siano, ricordiamolo, rispetteranno le tre leggi teorizzate da Isaac Asimov, di cui la prima è “un robot non può recar danno a un essere umano né può permettere che a causa del proprio mancato intervento un essere umano riceva danno”. Le auto autonome in futuro saranno comunque più sicure di un conducente attento. In questo senso le auto a guida autonoma rappresentano semplicemente un’evoluzione dei sistemi attuali, in cui l’unico driver è la sicurezza. A questo punto la riflessione è sulla differenza di volontà tra player e produttori: i primi accelerano sulla guida autonoma, i secondi ci vanno con i piedi di piombo: d’altronde, il loro obiettivo è vendere la vettura, più che i servizi.

 

*Esperto di politiche energetiche e automotive, svolge attività di ricerca presso l'IEFE-Università Bocconi e I-Com - Istituto per la competitività, e collabora con il Politecnico di Bari. 

 

L'impatto tra l'auto di Uber e un pedone a Tempa

La polizia diffonde le immagini dell'incidente in Arizona

 


 

I vantaggi della guida senza pilota, questione di statistica

Carlo Alberto Carnevale Maffè*

 

Le auto a guida autonoma sono come i vaccini: il loro sviluppo è questione di metodo tecnico-scientifico, non di dibattito al Bar Sport. 

Purtroppo, anche a causa della scarsa cultura statistica, la gente si straccia le vesti per un caso su 100 milioni, come quello dell’Arizona, mentre ignora o considera scontate le altre 99 milioni e 999 mila 999 volte in cui tutto funziona. In Arizona, l’auto di Uber non ha riconosciuto, per un limite tecnologico, una bicicletta portata a mano, al buio, attraversando una strada a 6 corsie in un punto vietato ai pedoni. In queste condizioni, la statistica evidenzia che la probabilità di essere travolti da un’auto in transito – a guida umana – sarebbe stata comunque molto elevata. La stessa statistica, peraltro, ci fa presente che la sperimentazione sull’auto a guida autonoma sta già avendo effetti immediati e riscontrabili.

 

Come succede nel caso della ricerca per la Formula Uno, le innovazioni estreme hanno rapide e puntuali ricadute sui prodotti disponibili nei mercati di massa, nel caso specifico anche sulle auto del segmento medio.Gli autoveicoli con sensori di ostacoli, scanner per segnali stradali, feedback sensoriale per il mantenimento della corsia di marcia e frenata assistita o automatica sono i primi risultati commerciali dei test di guida autonoma come quello dell’Arizona. A costi bassi, o addirittura come dotazione di serie, le singole tecnologie sperimentate nelle auto a guida autonoma sono già arrivate su milioni di auto nuove. Sono tecnologie che offrono fin da oggi, per moltissime famiglie in tutto il mondo e non solo per i driver di Uber, maggiore sicurezza e prevenzione attiva degli incidenti, perché la macchina si accorge prima e meglio di noi di molti rischi stradali. È il classico fenomeno di “spill-over” tecnologico dell'innovazione, ed è già oggi sotto gli occhi di tutti. La sicurezza aumenta, e nel frattempo diminuiscono la fatica e lo stress della guida. Attenzione, però; si può creare il cosiddetto “effetto ringhiera”: siccome pensi che la ringhiera del balcone sia sicura prima ti appoggi un po', poi ti appoggi troppo, finché la ringhiera viene giù. E tu con essa. Anche in questo caso, la statistica è importante: l’effetto ringhiera impatta una persona su mille, e solo in casi estremi; la reale sicurezza garantita dalle tecnologie attive invece agisce su tutti e mille, tutti i giorni.

 

È importante far presente che la guida autonoma non ha l’obiettivo di sostituire integralmente e rapidamente gli esseri umani, né lo farà probabilmente mai in tutte le possibili occasioni di utilizzo reale. Al contrario, serve a facilitare determinate condizioni di uso, soprattutto di lunga percorrenza, come ad esempio la guida autostradale per gli autotreni. Fatica e stress sono una costante minaccia per gli autotrasportatori e spesso sono causa di incidenti: la robotizzazione li riduce drasticamente. Rendere più sicuro e più efficiente il trasporto merci su gomma è applicazione cruciale e decisiva delle attuali sperimentazioni sulle auto, ma è evidentemente un settore dove è impensabile sostituire integralmente gli esseri umani. Succederà quello che accade già oggi, in fabbrica, tra macchine utensili e operatore, laddove quest'ultimo sorveglia le prime e le controlla per evitare che si inceppino o danneggino le lavorazioni in corso.

 

Per massimizzare l’operatività in autostrada, inoltre, l’evoluzione verso la logica delle cosiddette “connected cars” consentirà di agganciarsi alla macchina che precede e a quella che segue, formando una specie di convoglio coordinato da informazioni condivise in tempo reale: è il cosiddetto “bandwagon” e serve per evitare l’effetto frusta, che accade quando un'auto frena, e a catena frenano tutti, fino a bloccare la fila. Quando poi si riparte, c’è l’effetto a fisarmonica. Le tecnologie che consentono il “bandwagoning" sono molto importanti: aumentano sicurezza e velocità media di crociera, riducono le code e soprattutto limitano una delle primissime cause di incidente: i tamponamenti autostradali. Quando i regolatori daranno il via libera ai sistemi di interconnessione automatica tra autoveicoli, gli incidenti tra auto diventeranno un ricordo, un residuo del passato nel quale gli esseri umani erano ancora così stupidi e imprudenti da guidare gli autoveicoli da soli, scontrandosi tra loro per distrazione o imprudenza. Potranno esserci incidenti con i pedoni, o con oggetti non connessi, ma in teoria non più tra macchine: queste ultime si parleranno in tempo reale, pre-calcolando i rischi di incidenza delle rispettive traiettorie. Nonostante il grande dibattito in corso  infatti, siamo ancora tutti con le mani sul volante. Quindi non c’è bisogno di aspettare l’auto che fa tutto da sola: già oggi singoli componenti di quei complessi sistemi sperimentali vengono estratti e applicati a contesti di minore complessità ma di molto maggiore diffusione, direttamente su auto di serie. E’ un effetto del metodo scientifico, che spinge a imparare dagli errori con il minor danno possibile e ad applicare le lezioni apprese con la massima scala possibile. E bisogna accettare razionalmente, anche se questo può sembrare scandaloso ai puristi dell’etica assoluta, che a fronte di una probabilità su un milione che ci siano gravi effetti su una singola persona, le altre 999 mila 999 risulteranno maggiormente tutelate e protette. Come succede già oggi con i farmaci.

 

Va poi considerata anche la questione assicurativa: grazie alle stesse tecnologie di sensorizzazione, già oggi si può monitorare il comportamento dei conducenti, e valutarne i relativi profili di rischio, offrendo coperture assicurative a condizioni dinamiche e sempre più coerenti con il contesto reale. Altra cosa sarà la responsabilità in caso di incidente con un’auto a guida totalmente autonoma, ma il dibattito sulla colpa appare già oggi alquanto sterile. L'auto circola in base a un contratto di natura pubblica, e quel contratto contiene una chiara identificazione della responsabilità: è meglio continuare a lamentarsi del disagio psicologico di vivere in un mondo robotizzato, o al contrario avere la certezza del monitoraggio delle cause e del relativo e rapido risarcimento danni, che nel frattempo – avendo ridotto strutturalmente i rischi di incidente –  sarà probabilmente superiore ai valori attuali di mercato? Non ha senso pensare che siccome il terremoto è colpa del destino cinico e baro, allora possiamo continuare a vivere, rassegnati ma pur sempre irresponsabili, in edifici insicuri. Meglio una casa antisismica e una buona polizza assicurativa.

*Docente di Strategia alla Scuola di Direzione Aziendale dell'Università Bocconi  SDA Professor di Strategy and Entrepreneurship alla SDA Bocconi School of Management.

 

Uber e la mobilità: la sicurezza sulle strade non è un problema di guida autonoma

Per la polizia americana l'incidente che provocato la morte di una donna in Arizona non è stata colpa del suv driverless. La tecnologia applicata all'auto e il rischio di colpevolizzare ciclisti e pedoni

  

(Ha collaborato Eugenio Cau)

Lascia il tuo commento

Condividi le tue opinioni su Il Foglio

Caratteri rimanenti: 1000

Commenti all'articolo

  • Zamax

    28 Marzo 2018 - 18:06

    Cioè: uno si compra l'automobile, che già costa dei bei soldini, gira in automobile, per lavoro, per impegni vari, o per puro svago, e si deve pure privare del piacere di guidarla? Somiglia tanto all'ineffabile sensazione prodotta dal coitus interruptus...

    Report

    Rispondi

Servizi