A che punto sono i sistemi a guida autonoma? E saranno mai sicuri?

I sistemi a guida autonoma non hanno ancora raggiunto la sensibilità, il che significa che non sono realmente in grado di prendere le proprie decisioni

0
512
A che punto sono i sistemi a guida autonoma? E saranno mai sicuri?
A che punto sono i sistemi a guida autonoma? E saranno mai sicuri?

Nel mondo moderno, la rapida innovazione è un ingrediente chiave per il successo; se non riesci a tenere il passo con la concorrenza, hai finito. Tuttavia, questo ethos “muoviti velocemente” ha spesso conseguenze indesiderate, in particolare tra le startup che stanno sviluppando auto a guida autonoma.

È un’area di acceso dibattito all’interno dell’industria automobilistica che Mary “Missy” Cummings, professoressa di ingegneria e informatica ed ex consigliere della National Highway Traffic Safety Administration (NHTSA), ha demistificato in una recente intervista. Si è dimostrata un personaggio molto controverso (e utile) all’interno dello spazio automobilistico per essere così esplicita sulla ricerca del settore per capire a tutti i costi i sistemi di assistenza alla guida autonoma (ADAS).

Cummings si trova in una posizione interessante, poiché il suo punto di vista sui sistemi autonomi (le auto senza conducente, in particolare) è spesso ampiamente frainteso. Ha iniziato la sua carriera nel settore dell’aviazione ed è stata molto favorevole al passaggio all’autonomia, con un approccio sicuro e calcolato, e lo stesso si può dire per i sistemi di assistenza alla guida autonoma (ADAS). Qui, discutiamo le sue opinioni su come l’industria automobilistica può cambiare il suo piano di gioco per ottenere questi sistemi ADAS oltre la linea in modo più realistico e sicuro.

Perché le cose non funzionano?

L’attuale corsa agli armamenti sulla guida autonoma è iniziata nel lontano 2015, quando il sistema Autopilot di Tesla è diventato disponibile per la prima volta per i conducenti di Model S. Elon Musk aveva promesso un sistema di guida autonoma di livello 5, in cui il veicolo si guida da solo senza interazione umana, entro il 2017. Chiaramente, ciò non è accaduto e da allora la tecnologia di guida autonoma ha prodotto più domande che risposte: Questi sistemi saranno mai in grado di “superare in astuzia” i conducenti umani? Come coesistono con i pedoni e gli altri utenti della strada? Possiamo fidarci di questi sistemi?

Prima di continuare a districare il labirinto morale dei sistemi di guida autonoma, vorremmo sottolineare che questi problemi non sono esclusivi di Tesla (e di altre startup di veicoli elettrici): Ford’s Blue Cruise e Cadillac’s Super Cruise sono nella stessa barca, per citarne alcuni alcuni.

germania economia automobile tesla
Il CEO di Tesla, Elon Musk, partecipa all’inizio della produzione presso la “Gigafactory” di Tesla in Germania nel marzo 2022. PATRICK PLEUL // Getty Images

Questo è il problema con l’apprendimento automatico… quando prendi un algoritmo di apprendimento automatico e lo applichi a un milione di immagini, cerca correlazioni statistiche pixelate tra quei pixel e l’immagine“, dice Cummings. “E in realtà non sai se i pixel seguono la forma di un segnale di stop… o stanno trovando un altro modello statistico che potrebbe vedere come un segnale di stop“.



La maggior parte dei veicoli ora è dotata di sistemi ADAS di livello 2, che sono in grado di sterzare, accelerare e frenare autonomamente, ma che richiedono ancora un essere umano attento al volante. Va tutto bene, ma un problema chiamato “frenata fantasma” sta portando i veicoli a un arresto di emergenza per ostacoli fantasma inesistenti sulla strada. “Non sappiamo perché i sistemi di visione artificiale rilevano ostacoli che l’occhio umano non può vedere“, spiega Cummings. Un problema serio per lo sviluppo di un sistema di guida autonoma sicuro ed efficace.

È un problema fondamentale nell’intelligenza artificiale“, afferma Cummings. “Non abbiamo un modello… Non abbiamo un modo per trovare queste associazioni e correlazioni errate all’interno di quei dati“. Sebbene non abbiamo quasi idea del motivo per cui si verifica la frenata fantasma, sappiamo parecchio su come questi sistemi si avvicinano alla guida di un’automobile.

Come guidano i sistemi senza conducente?

Cummings ha sviluppato il proprio framework, noto come modello di abilità, conoscenza, regola, competenza (SKRE), per decodificare il modo in cui i sistemi autonomi e gli esseri umani prendono decisioni all’interno del loro ambiente. Paragona l’idea a una serie di scale, con una comprensione di come svolgere un determinato compito in cima. Ecco come questo modello si applica ai sistemi di guida autonoma.

→ Competenze

Pensa a quando stavi imparando a guidare: l’abilità letterale stessa è un elemento fondamentale per la padronanza. “Quando impari a guidare un’auto, devi imparare a stare tra le due linee bianche sulla strada“, afferma Cummings. Tuttavia, mentre mantenere il veicolo tra le corsie è di vitale importanza, è solo un’abilità superficiale quando si tratta di guidare un’automobile.

→ Regole

Continuando con la nostra analogia dell’imparare a guidare, questo è il caso in cui sei in grado di mantenere il tuo veicolo tra le linee senza zigzagare tra i due lati. Ora mantenere la direzione è naturale ed istitivo e tmpari a concentrarti sulle effettive regole della strada.

→ Conoscenza

L’aspetto della conoscenza del modello di Cummings implica il giudizio in condizioni di incertezza. Nel caso dei veicoli autonomi, queste sono le situazioni in cui un pallone da calcio rotola in strada; l’auto potrebbe vedere solo un pallone da calcio, ma noi sapppiamo per intuito ed esperienza che, probabilmente, c’è una persona che lo sta inseguendo. Il cervello umano ha una straordinaria capacità di elaborare enormi quantità di informazioni in modo super rapido, il che lo rende molto bravo in questo genere di cose.

La tua immaginazione, la tua capacità di concepire tutte queste potenziali probabilità è qualcosa che i computer non possono fare se non hanno mai visto quell’evento prima“, dice Cummings. Chiaro e semplice, questi sistemi non hanno ancora raggiunto la sensibilità, il che significa che non sono realmente in grado di prendere le proprie decisioni. Questi algoritmi di apprendimento automatico non stanno pensando alle decisioni come farebbe un essere umano. Stanno semplicemente abbinando modelli con i dati che sono stati forniti, che è solo una fusione di immagini.

Gli esseri umani hanno un’incredibile capacità di dare un senso a un’enorme quantità di informazioni molto rapidamente, grazie in parte all’amigdala del cervello. Una recente esclusiva di NPR con la scienziata comportamentale e di dati Pragya Agarwal rivela che il cervello umano può elaborare circa 11 milioni di bit di informazioni al secondo. Sebbene analizzare tutto in una volta sarebbe semplicemente impossibile, la nostra materia grigia è in grado di dare un senso alle informazioni abbinandole a esperienze, modelli e stereotipi preesistenti.

→ Competenza

La “competenza”, o ragionamento basato sull’esperienza, fa riferimento a come un essere umano o una macchina reagisce a una situazione che non ha mai sperimentato prima: la capacità di pensare ak volo. Durante l’intervista, Cummings ha menzionato il caso dell’atterraggio di emergenza di Sully Sullenberger nel 2009 nel fiume Hudson per spiegare l’aspetto finale del suo modello. “Aveva molte abilità, regole e conoscenze… ed era in grado di ragionare in condizioni di enorme incertezza per trovare una soluzione che avrebbe almeno salvato la vita a tutte quelle persone“, dice.

Allora, qual’è il problema?

Cummings sottolinea il fatto che i sistemi autonomi nel mondo dell’aviazione sono più diffusi di quanto si possa pensare. “Negli aeroplani oggi, i piloti non sono autorizzati a pilotare l’aereo per più di una manciata di minuti“, afferma. “Gli aerei che volano autonomamente volano molto più agevolmente, risparmiano molto gas e risparmiano sulle gomme durante gli atterraggi“. Sì, i moderni aerei di linea possono atterrare da soli.

Mentre è ben documentato che i sistemi autonomi nei moderni aerei di linea sono incredibilmente sicuri, la guida autonoma delle auto presenta una serie completamente nuova di sfide. Criticamente, le cose possono andare male molto più rapidamente durante la guida in autostrada rispetto al volo in aria. “In qualsiasi problema in volo, hai alcuni minuti per reagire”, dice Cummings. Mentre, se un’auto perde il controllo davanti a te in autostrada, hai pochi secondi per evitare l’incidente.

Per non parlare del fatto che la guida distratta è già un vero problema, che potrebbe essere esacerbato da auto che possono letteralmente guidare da sole. Ciò significa che i conducenti non saranno in grado di reagire in tempo per il momento in cui è necessario riprendere il controllo del veicolo; continuerai a precipitare verso un orribile incidente.

Fa l’esempio di qualcuno che mangia un pasto quando fa cadere una patatina fritta nella profonda voragine tra il sedile e la console centrale. Se presumono che l’auto possa guidare da sola, cercheranno di recuperare il loro spuntino, ma cosa devono fare se il veicolo non riesce a percorrere da solo una curva imminente? Senza il tempo di tornare al volante, ci sono buone probabilità che finiscano fuori strada, o peggio ancora: nella mediana verso il traffico in arrivo.

A Cummings piace riferirsi a questa disconnessione come “confusione di capacità“. Prendi il sistema Full-Self-Driving (FSD) di Tesla, ad esempio, in cui è probabile che i conducenti presumano che la FSD possa guidare l’auto senza l’input umano: siamo onesti, non si chiama guida semi-autonoma. Per fortuna altre case automobilistiche tradizionali sono state molto più riservate nel loro approccio alla denominazione dei sistemi di guida autonoma. Blue Cruise e Super Cruise sono molto più trasparenti quando parlano delle loro capacità; i loro sistemi possono essere utilizzati solo su tratti selezionati di autostrade e non su strade cittadine.

Cos’è LIDAR ed è una soluzione completa?

Laser Imaging Detection and Ranging (LIDAR) è un sistema di imaging laser avanzato che merita davvero un articolo a parte. “La visione al computer ha molti problemi, quindi vogliamo utilizzare un altro tipo di sistema di sensori per fornire una seconda opinione o forse anche fondere i dati per un modello mondiale più ricco“, afferma Cummings. Molte case automobilistiche vedono LIDAR come il pezzo mancante del puzzle per sbloccare il livello successivo di capacità di guida autonoma, ma Cummings afferma che non è la soluzione magica, tutto ciò che si diceva fosse. “Penso che questi sistemi possano migliorare alcuni di questi problemi… migliorerà il problema della frenata fantasma, ma non lo eliminerà“, afferma.

Uno dei problemi con LIDAR è che funziona davvero solo in condizioni ideali. “Si scopre che non funzionano molto bene con l’umidità nell’aria“, dice Cummings. “La pioggia… la pioggia nebbiosa è un problema… anche dopo che ha piovuto e ci sono pozzanghere sulla strada“. Queste pozzanghere sono problematiche in quanto hanno una lucentezza sopra di esse, che è praticamente invisibile a LIDAR; Cummings afferma che questi sistemi non sono in grado di decifrare quanto è profonda una pozzanghera.

Quindi c’è ancora molto lavoro da fare prima di sapere se possiamo integrare questi tipi di sistemi di imaging per migliorare le capacità delle strutture ADAS.

Dove andiamo da qui?

“Elon Musk non è l’unico a promettere che la guida autonoma è proprio dietro l’angolo”, afferma Cummings.

Prendendo in prestito dal suo background aeronautico, Cummings afferma che l’industria automobilistica deve davvero iniziare a prendere sul serio l’ingegneria dei sistemi. “Hanno bisogno di approfondire i test, hanno bisogno di test migliori, test più frequenti… devono fare molti più test in pista e test nel mondo reale“. Non sorprende che queste cose richiedano tempo e denaro per essere corrette, cosa che molte case automobilistiche non hanno.

Anche senza le risorse per sviluppare procedure di test migliori, Cummings afferma che le case automobilistiche possono ancora fare uno sforzo per abbracciare una vera cultura della sicurezza. L’entusiasmante prospettiva di essere i primi a fare un grande passo avanti nella tecnologia della guida autonoma non dovrebbe venire a scapito della vita umana.

I regolamenti non sono una brutta cosa e, se lavorassero con loro, queste aziende se la caverebbero meglio“, afferma Cummings. Che si tratti della dissonanza tra le startup (ad esempio: Tesla, Rivian, Lucid) e le case automobilistiche affermate (Ford, GMC, Volkswagen, ecc.) che entrano nello spazio dei veicoli elettrici, Cummings afferma che il modo migliore per andare avanti è lavorare insieme.

2