Sicurezza

Automobili a guida autonoma, l’ Intelligenza Artificiale fa progressi

Tesla, Uber, Google, MobileEye, Nutonomy ecc. alla corsa per le self-driving cars.

Se stimi i CEO delle piú grandi compagnie al mondo, l’idea di creare una macchina completamente autonoma potrebbe essere a pochi mesi di distanza. Nel 2015, Elon Musk ha predetto una Tesla completamente autonoma entro il 2018; così ha fatto Google. Il sistema Level 4 di Delphi e MobileEye sono attualmente in programma per il 2019. Nello stesso anno, Nutonomy prevede di schierare migliaia di taxi senza conducente sulle strade di Singapore. GM metterà in produzione un’auto completamente autonoma nel 2019, senza il volante o addirittura la capacità d’ intervento dei conducenti.

L’idea delle auto a guida autonoma (Self-Driving cars) sembra più vicina che mai. Waymo sta già testando le auto su strade limitate ma pubbliche, in Arizona. Tesla e una miriade di altri “imitatori” vendono già una forma limitata di pilota automatico, contando sui guidatori per intervenire se succedesse qualcosa di inaspettato. Ci sono stati alcuni incidenti, alcuni micidiali, ma finché i sistemi continuano a migliorare, la logica va.

tesla 1024x535 - Automobili a guida autonoma, l' Intelligenza Artificiale fa progressi
Tesla model S, dotata di pilota automatico.

C’è una crescente preoccupazione tra gli esperti di intelligenza artificiale che l’attesa potrebbe essere anni, se non decenni, prima che i sistemi di autoassistenza possano evitare in modo sicuro gli incidenti. Mentre i sistemi auto-training si confrontano con il caos del mondo reale, esperti come Gary Marcus della NYU si preparano a una dolorosa ricalibrazione delle aspettative, una correzione chiamata “inverno AI”. Questo ritardo potrebbe avere conseguenze disastrose per le aziende che si affidano alla tecnologia di “guida autonoma”.

Dati, algoritmi e chatbots

È facile capire perché le compagnie automobilistiche sono ottimiste riguardo all’autonomia. Negli ultimi dieci anni, il deep learning – un metodo che utilizza algoritmi di apprendimento automatico per estrarre informazioni strutturate da enormi set di dati – ha portato a progressi quasi impensabili nell’IA e nell’industria tecnologica. Alimenta la Ricerca Google, il feed delle notizie di Facebook, algoritmi conversazionali-vocali( speech-to-text ) e campioni di sistemi Go-playing.

Al di fuori di Internet, utilizziamo il deep learning per rilevare i terremoti, predire le malattie cardiache e segnalare comportamenti sospetti su un feed fotografico, insieme a innumerevoli altre innovazioni che prima sarebbero state impossibili.

Tuttavia, il deep learning richiede enormi quantità di dati di “allenamento” per funzionare correttamente, incorporando quasi tutti gli scenari che l’algoritmo incontrerà. Sistemi come Google Immagini, ad esempio, sono ottimi per riconoscere gli animali a patto che abbiano dati di training per mostrare loro l’aspetto di ciascun animale. Marcus descrive questo tipo di compito come “interpolazione”, esaminando tutte le immagini etichettate come “ocelot” e decidendo se la nuova immagine appartiene al gruppo.

Gli ingegneri possono sviluppare diversi metodi per acquisire dati e strutturarli nel miglior modo, infatti questi anni sono decisivi per le grandi aziende, le quali stanno facendo una corsa ai dati. Lo stesso algoritmo non può riconoscere un ocelot a meno che non si vedano migliaia di immagini di un ocelot – anche se si vedono le immagini di gattini e giaguari, esso sa che gli ocelot sono da qualche parte nel mezzo. Quel processo, chiamato “generalizzazione”, richiede un diverso insieme di abilità.

algo - Automobili a guida autonoma, l' Intelligenza Artificiale fa progressi
Alcuni algoritmi usati in Machine Learning

Il Deep Learning non è perfetto. O non ancora…

Per molto tempo, i ricercatori hanno pensato di poter migliorare le capacità di generalizzazione con i giusti algoritmi, ma recenti ricerche hanno dimostrato che il deep learning convenzionale è mal generalizzato piú di quanto pensassimo. Uno studio ha rilevato che i sistemi di deep learning convenzionali hanno difficoltà a generalizzare su diversi fotogrammi di un video, classificando un orso polare come un babbuino, una mangusta con una donnola, basandosi su piccoli spostamenti sullo sfondo. Con ogni classificazione basata su centinaia di fattori aggregati insieme, anche piccole modifiche alle immagini possono cambiare completamente il giudizio del sistema.

Inoltre, parlando dei chatbot, Marcus li critica e li definisce come l’esempio che rispecchia il problema di generalizzazione. Ribadisce: “Ci avevano promesso chatbots efficienti nel 2015“, dice, “ma non sono affatto validi perché non si tratta solamente di raccogliere dati“. Quando parli con una persona online, non vuoi solo che riprenda le conversazioni precedentiVuoi che rispondano a ciò che stai dicendo, attingendo a più ampie capacità di conversazione per produrre una risposta “unica” per te. Il deep learning non poteva emulare una conversazione “reale”. Una volta passato l’hype iniziale, le aziende hanno perso fiducia nei loro progetti di chatbot, e sono ancora pochissime le startup “valide” nel settore.

Incidenti self-driving cars, Tesla e Uber al centro delle critiche

Ritornando a Tesla, viene da porci una domanda: le auto che si guidano da sole continuano a migliorare, ma il progresso é di pari passo con il riconoscimento della voce e delle immagini? Oppure si imbatteranno nel problema della generalizzazione come i chatbots? L’autonomia è un problema di interpolazione o un problema di generalizzazione? Quanto sará imprevedibile guidare?

Potrebbe essere troppo presto per saperlo. “Le auto senza conducente sono come un esperimento scientifico in cui non conosciamo la risposta”, afferma Marcus. Non siamo mai stati in grado di automatizzare la guida a questo livello prima, quindi non sappiamo quale tipo di compito sia. Nella misura in cui riguarda “l’identificazione” di oggetti familiari e le seguenti regole, le tecnologie esistenti dovrebbero essere all’altezza del compito. Ma Marcus si preoccupa che guidare in scenari pericolosi può essere più complicato di quanto il settore voglia ammettere. “Nella realtá, possono accadere nuove cose, quindi sará una bella sfida per le gli algoritmi di deep learning riuscire a “metabolizzare” determinate situazioni.”

I dati sperimentali che abbiamo provengono da rapporti di incidenti pubblici, ognuno dei quali offre qualche ruga insolita. Un incidente fatale del 2016 ha visto un Model S guidare a tutta velocità dietro un rimorchio, confuso dall’elevata altezza e dal riflesso luminoso del sole. A marzo, un incidente di una Uber self-driving car ha ucciso una donna che spingeva una bicicletta, dopo essere emersa da un passaggio pedonale non autorizzato. Secondo il rapporto NTSB, il software di Uber ha identificato erroneamente la donna come un oggetto sconosciuto, quindi un veicolo, e infine come una bicicletta, aggiornando le sue predizioni ogni volta. In un incidente in California, un modello X si è diretto verso una barriera e ha accelerato nei momenti prima dell’impatto, per ragioni che rimangono poco chiare.

Umani o macchine, di chi è la colpa?

Ogni incidente sembra un “caso limite”, ovvero qualcosa che gli ingegneri non potevano prevedere in anticipo. Ogni incidente automobilistico comporta una circostanza imprevista, quindi le auto a guida autonoma dovranno affrontare ciascuno di questi scenari come se fosse la prima volta. Il risultato sarebbe una serie di incidenti che non diventeranno meno comuni o meno pericolosi col passare del tempo.

Tuttavia non è chiaro per quanto tempo le self-driving cars possano rimanere nel loro limbo corrente. I modelli semi-autonomi di Tesla sono abbastanza intelligenti da gestire la maggior parte delle situazioni, ma richiedono l’intervento umano se qualcosa di imprevedibile accade. Quando qualcosa va storto, è difficile sapere se la colpa é della macchina o del guidatore. Per alcuni critici quell’ibrido è probabilmente meno sicuro di un guidatore umano, anche se gli errori sono difficili da attribuire solamente alla macchina. Uno studio della Rand Corporation stimò che le auto a guida autonoma avrebbero dovuto percorrere 275 milioni di miglia senza fare un incidente per dimostrare di essere sicure come i coduncenti umani, ma il primo decesso collegato al pilota automatico di Tesla è arrivato a circa 130 milioni di miglia prima del dovuto, ben al di sotto del livello.