skip to Main Content

Richiamo Tesla Pilota Automatico

Perché negli Usa si indaga sul pilota automatico di Tesla

Reuters ha reso noto che il Dipartimento di Giustizia statunitense ha avviato da oltre un anno una inchiesta su Tesla legata agli incidenti avvenuti con il pilota automatico. Cosa sappiamo sulla base dei sinistri divulgati finora

Non ci sono solo diversi utenti inferociti che hanno deciso di fare causa a Tesla perché, nonostante le promesse, il pilota automatico non ha ancora raggiunto i livelli di abilità pubblicizzati. Secondo Reuters, il Dipartimento di Giustizia Usa avrebbe avviato da oltre un anno un’indagine sulla Casa di Elon Musk nel tentativo di fare luce sulla natura degli incidenti avvenuti con il sistema di guida assistita Autopilot attivo. La notizia giunge nelle stesse ore, peraltro, in cui sui media americani si parla dell’ennesimo sinistro stradale dall’esito mortale. Partiamo proprio da qui.

IL PILOTA AUTOMATICO HA PROBLEMI CON LE MOTO?

Da quanto si apprende, si tratta di un nuovo incidente tra una Tesla e una moto, vecchio “tallone d’Achille” del pilota automatico messo a punto dagli sviluppatori di Musk dato che il numero di sinistri con una dueruote sembrano suggerire che il sistema non riesca a riconoscerle. L’incidente è avvenuto a Boca Raton, in Florida, alle due del mattino del 26 agosto 2022, ma la notizia è stata diffusa solo ora. Una Tesla Model 3  ha tamponato una Kawasaki Vulcan S, il cui conducente è finito sul parabrezza dell’auto EV riportando ferite fatali. Secondo il rapporto della Polizia il conducente della Tesla aveva inserito il pilota automatico.

Si tratta del terzo sinistro stradale con una moto di cui è stata data notizia. Il primo il risale al 7 luglio ed è avvenuto a Riverside, in California: una Model Y sulla State Route 91 ha tamponato una moto uccidendo il pilota. Il 24 luglio, sempre di notte, una Model 3 nello Utah ha urtato una moto causando anche in quel caso la morte del centauro. In entrambi i casi gli automobilisti avrebbero ammesso di aver affidato la guida al pilota automatico. Ecco insomma perché da più parti ci si inizia a chiedere se, per qualche oscura ragione, le dueruote sfuggano alla vista dell’IA di bordo.

IN UK L’ALLARME DEL CMC

In Gran Bretagna un white paper del Connected Motorcycle Consortium (CMC) ha posto l’accento sulla presunta capacità del software di riconoscere le moto e quindi di comportarsi di conseguenza. Il CMC vuole richiamare le case produttrici perché prestino una “attenzione particolare al rilevamento dei veicoli motorizzati a due ruote. In determinate circostanze il rilevamento di veicoli motorizzati a due ruote è impegnativo per i sistemi avanzati di assistenza alla guida (ADAS), a causa del diverso modo di movimento, della forma snella e, di conseguenza, della minore riflettività radar dei veicoli motorizzati a due ruote rispetto alle macchine”.

Prima ancora del CMC era stata Associazione europea dei produttori di motociclette e dichiarare che “il rilevamento affidabile dei veicoli motorizzati a due ruote da parte dell’ADAS delle autovetture è assolutamente essenziale per evitare collisioni tra auto e veicoli a due ruote e per ridurre il numero di incidenti motociclistici. Le autovetture devono essere in grado di riconoscere in modo appropriato le manovre della motocicletta nel traffico ordinario, come l’ingresso in curva, l’inclinazione in curva o a un incrocio”.

QUANTO SONO AFFIDABILI I DATI A NOSTRA DISPOSIZIONE?

Precauzioni e istanze legittime, ma è ancora presto per trarre conclusioni affrettate. Anzitutto, bisognerà infatti appurare effettivamente se, al momento dello schianto, il pilota automatico fosse attivo. Da questo punto di vista le scatole nere di bordo di Tesla dovrebbero essere utili e fornire agli inquirenti le informazioni del caso. Può essere rischioso difatti affidarsi alla mera testimonianza del conducente dato che, sotto shock,  potrebbe essere spinto a mentire nel tentativo di deresponsabilizzarsi, attribuendo tutta la “colpa” al pilota automatico (e ignorando che la legge comunque gli impone di restare vigile al volante, pronto a intervenire in caso di pericolo).

In realtà la questione non è nemmeno così semplice, visto che il computer di bordo, che pure dovrebbe registrare tutto, è considerato “fonte di parte”, molto meno imparziale di quanto ci si aspetterebbe da una macchina. C’è perfino il sospetto che talune Case che sperimentano la guida automatica possano aver tarato i sistemi in modo da spegnersi prima dell’incidente. «Dobbiamo capire le performance di questi veicoli in situazioni reali», ha spiegato al Washington Post Steven Cliff della National Traffic Safety Administration.

Per questo, gli stessi numeri raccolti finora potrebbero non essere esaustivi. Un report pubblicato dalla National Highway Traffic Safety Administration — l’agenzia federale che fa capo al Dipartimento dei Trasporti e si occupa proprio di capire come aumentare la sicurezza stradale — sostiene che il pilota automatico di Tesla fosse attivo in 273 sinistri avvenuti in 12 mesi, il 70% del totale registrato da tutti i veicoli che stanno sperimentando tecnologie simili. Al momento della pubblicazione dello studio, Tesla aveva in strada circa 830mila vetture dotate di un qualche sistema automatizzato di guida. Al secondo posto per sinistri si trova Honda, con 90 incidenti (su 6 milioni di veicoli) e al terzo c’è invece Subaru, con 10. Gli altri produttori hanno riportati 5 sinistri o meno. Anche qui però i numeri non sono affidabili dato che c’è il sospetto che alcuni produttori possano non aver comunicato tutti i sinistri, mentre le proporzioni dicono nulla, dovendo essere considerate sia in rapporto ai sinistri che abitualmente avvengono in determinate aree sia delle condizioni meteo sia della diffusione di una tale marca (ecco insomma perché sarebbe sbagliato concludere che l’IA di Tesla è più fallace: potrebbe essere la casa che comunica tutti i sinistri, certamente è il marchio più diffuso a sfruttare quella tecnologia).

IL MARKETING PUO’ TRARRE IN INGANNO I CONDUCENTI?

Intanto Reuters, secondo cui il Dipartimento di Giustizia degli Stati Uniti ha avviato l’indagine (che potrebbe avere conseguenze penali) sul pilota automatico di Tesla, più che ai sinistri guarda alle condotte marketing sospette. L’agenzia ricorda infatti come, già nel 2016, Elon Musk, amministratore delegato della casa automobilistica, descrivesse il pilota automatico come “probabilmente migliore” di un guidatore umano. Soltanto la settimana scorsa, in un’altra conferenza telefonica, sempre Musk ha dichiarato che Tesla avrebbe presto rilasciato una versione aggiornata del software “Full Self-Driving” che consentirà ai clienti di recarsi “al lavoro, a casa di amici, al negozio di alimentari senza toccare il volante”. Ma, soprattutto, Reuters pone l’accento sul fatto che un video attualmente presente sul sito web dell’azienda affermi: “La persona al posto di guida è lì solo per motivi legali. Non sta facendo nulla. L’auto si guida da sola”. Questo nonostante la legge prescriva che il conducente debba sempre tenere le mani sul volante e restare vigile durante l’utilizzo di Autopilot.

Sebbene in tante altre parti del materiale che Tesla rilascia all’utenza il marchio statunitense dia le indicazioni corrette, e che in un’intervista rilasciata ad Automotive News nel 2020, Musk abbia dichiarato che i problemi di Autopilot derivano dall’utilizzo del sistema da parte dei clienti in modo contrario alle istruzioni della Casa, la testata instilla il sospetto che sia proprio parte del materiale informativo, unito alle roboanti dichiarazioni del Ceo (che molti venerano e seguono come un guru) a spingere il guidatore a distrarsi eccessivamente, mentre la tecnologia di bordo, sperimentale e in continua evoluzione (l’IA si nutre di dati raccolti a livello globale che vengono poi utilizzati per migliorarne le performance) abbisogni ancora di assistenza costante, non solo perché lo prevede il codice della strada.

 

Back To Top