Lo schianto di una Tesla in Italia mostra i limiti dell’autopilota

Mondo

Di

L’incidente è un frontale con un furgone ribaltato avvenuto in autostrada verso Loano. Il video e i dati di bordo fanno emergere questioni tecniche ma anche dubbi sulla narrazione della tecnologia e i suoi effetti “psicologici”.

di Paolo Fiore

La vettura procede a 130 km/h nella corsia centrale. Si schianta. Scoppiano gli airbag, il muso è distrutto, il parabrezza tiene, la vettura non si ribalta ma ruota su se stessa. Chi guida è trasportato in ospedale in codice verde, la moglie in codice giallo e il figlio in codice rosso.

Roberto ricorda di non aver notato né fari né luci posteriori. Solo pochi istanti prima dell’impatto gli è sembrato di vedere il fondo di un furgone o qualcosa di simile. Per ricostruire la dinamica dell’incidente servono i dati e le immagini che i sensori e la telecamera di bordo hanno registrato. Per ottenerli servirà più di un mese. Il risultato è questo: un furgone si è ribaltato ed è immobile sulla carreggiata. I fari sono rivolti verso il guardrail e non ci sono altre luci di segnalazione visibili. La Model 3 colpisce in pieno il tetto del mezzo, carico di merce.

La dinamica dell’incidente

Poco dopo l’incidente, mentre è ancora in ospedale ad Alessandria, Roberto si attiva per cercare di recuperare il filmato. La camera di bordo, sempre attiva, è dotata di una memoria interna. Purtroppo però la scheda SD ha registrato il percorso fino a circa un chilometro dall’incidente. Nulla di utile.

Il primo luglio invia una richiesta a Tesla per sapere come ottenere il video. La procedura, stando alle regole sulla privacy della società, potrebbe richiedere fino a trenta giorni. Dopo vari solleciti, il 29 luglio arriva una prima risposta, ma il video non è ancora scaricabile. Tesla mette a disposizione un documento che contiene i dati dell’auto al momento dell’incidente.

Il tracciato di bordo certifica la dinamica dell’incidente. Dopo una sosta per ricaricare la vettura, l’Autopilot stabilizza l’andatura della Model 3 a 130 km/h. Procede a velocità costante per 11 minuti e 11 secondi, fino all’1:05. Al momento dello schianto, la Tesla si disconnette. L’ultima velocità rilevata è 130,4 km/h. Non c’è traccia di rallentamento. Il 4 agosto la compagnia mette a disposizione il link dal quale vedere e scaricare il video.

La versione di Tesla

A ottobre, l’avvocato di Roberto scrive a Tesla, sottolineando come l’analisi del caso lasci “presumere” che “il sistema di sicurezza del veicolo risultasse gravemente difettoso, non offrendo la sicurezza che dal medesimo ci si poteva legittimamente attendere e che, oramai da tempo, Tesla sta pubblicizzando”. In sostanza, l’Autopilot non avrebbe riconosciuto il furgone, fermo e in posizione anomala.

La risposta di Tesla è firmata dal senior service manager di Milano-Linate. Afferma di aver analizzato i registri diagnostici e “stabilito che il veicolo ha funzionato e ha risposto in modo appropriato secondo il comportamento e l’apporto alla guida della vettura da parte del conducente”. “Nei secondi prima dell’incidente – continua – il veicolo viaggiava a circa 129 km/h, e il volante era vicino alla posizione centrata”. A pochi istanti dall’impatto sarebbero “stati attivati più segnali e avvisi che indicavano un evento di incidente frontale”. Vero, conferma Roberto. Ma con un anticipo talmente breve da impedire un intervento efficace, nonostante il tentativo di frenare quando l’auto era ormai addosso al furgone.

schianto tesla italia limiti autopilota
 incidente di una Tesla in Italia

Quali sono i sistemi di sicurezza a bordo

Qui va fatto un piccolo passo indietro per capire quali sono i sistemi di guida assistita coinvolti. Il primo è il “Traffic-Aware Cruise Control and Autosteer”: tiene la vettura al centro della carreggiata e, in caso di pericolo, attiva un “sistema di avvertimento di collisione frontale”, che – si legge sul manuale della Model 3 – “emette un segnale acustico ed evidenzia il veicolo antistante in rosso sul touchscreen”.

A questo punto subentra l’“Automatic Emergency Breaking”: “In assenza di azioni correttive immediate la frenata automatica d’emergenza può azionare automaticamente i freni quando una collisione viene ritenuta imminente”. Se è vero che non è concepita per “evitare una collisione”, Tesla afferma che la Model 3 “è progettata per ridurre la gravità di un impatto”. Cosa che, in questo caso, non sembra aver fatto al meglio. Raggiunta dall’Agi, Tesla ha rimandato alle comunicazioni ufficiali avvenute con il suo cliente, preferendo evitare ulteriori dichiarazioni.

Autopilot, ossia guida assistita

È chiaro (né Tesla lo nega) che non ci sia stata una frenata significativa. Ed è chiaro che l’incidente sia un caso anomalo: riconoscere un furgone ribaltato, per un occhio umano e ancora di più per un software, è più complicato che individuare un rallentamento in coda. Il service manager di Tesla riconosce infatti che “diversi fattori […] possono causare, durante la guida, il mancato intervento del sistema di frenatura”. Tuttavia, la casa statunitense definisce il comportamento del pilota automatico “appropriato”.

E il punto è proprio questo. Quello che Tesla intende con “appropriato” è “non responsabile” dell’incidente. Per una sola ragione: “I sistemi di allarme/avviso non sono atti a evitare preventivamente possibili collisioni”. Di conseguenza, “non bisogna dipendere dal sistema Traffic-Aware Cruise Control and Autosteer confidando di evitare o ridurre l’impatto di una collisione”. Farlo “può provocare lesioni gravi o morte”. Tesla si solleva da ogni responsabilità affermando che la colpa è di chi si distrae alla guida. O di chi si fida troppo dell’auto.

Se infatti Tesla parla di Autopilot e di “guida autonoma al massimo potenziale”, i sistemi di bordo attualmente in commercio sono ancora di “Livello 2”. Cioè, secondo la scala da zero a cinque definita dalla Society of Automotive Engineers, “sistemi di supporto” e non “di automazione” (che vanno dal Livello 3 in su). Si tratta quindi, come spiega la stessa Tesla, di soluzioni “per cui è responsabilità del conducente mantenere la massima attenzione, guidare in sicurezza e avere il controllo della vettura in ogni momento”. Discorso chiuso? Non proprio.

Gli effetti collaterali della “guida autonoma”

All’inizio di giugno, la National Highway Traffic Safety Administration (Nhtsa) ha pubblicato i risultati di un’indagine su 16 incidenti che hanno coinvolto Tesla con il pilota automatico inserito. Risultato: l’autopilota ha restituito il pieno controllo della vettura al guidatore “meno di un secondo prima dell’impatto”. Tempistiche coerenti con l’incidente di Roberto.

Quando sufficienti (in 11 casi), i dati hanno evidenziato che “nessun guidatore ha adottato azioni evasive tra i due e i cinque secondi precedenti all’impatto”, nonostante “tutti” avessero “le mani sul volante”. Non sembra quindi che stessero facendo altro. Sugli 11 veicoli, cinque “non hanno esibito avvisi visivi o sonori” se non negli istanti precedenti all’incidente e quattro “non hanno mostrato alcun avviso visivo o sonoro”. Analizzando un campione più ampio di 106 incidenti, la Nhtsa sottolinea che uno su quattro possa essere riconducibile “all’operatività del sistema” (cioè alla sua fallibilità). Ma ha anche evidenziato come i guidatori, pur avendo quasi sempre le mani sul volante e gli occhi sulla strada, “non sono stati sufficientemente reattivi”. Si mescolano quindi temi tecnici e psicologici. La Nhtsa si è riservata di approfondirli, ma intanto ha evidenziato alcuni punti.

A livello legale, “l’uso o l’uso improprio da parte di un conducente di componenti del veicolo non precludono necessariamente un difetto del sistema”.

Tradotto: la disattenzione di un guidatore non giustifica – di per sé – un malfunzionamento. Tanto più nei sistemi di guida assistita, che per definizione sono basati sulla supervisione umana: per essere sicuri, sottolinea l’Nhtsa, devono saper prevedere “i modi in cui un conducente può interagire” con la vettura.

E qui subentra anche la componente psicologica: è importante capire come “l’Autopilot e i sistemi di Tesla possano esacerbare i fattori umani o i comportamenti a rischio, compromettendo l’efficacia della supervisione da parte del conducente”. In altre parole, la guida assistita potrebbe essere un rischio non solo perché è fallibile ma anche perché induce chi guida ad abbassare il livello di attenzione, specie se si definisce autonoma quando ancora non lo è.

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

CAPTCHA ImageChange Image

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Traduci
Facebook
Twitter
Instagram
YouTube