La Tesla che guida da sola sfonda un passaggio a livello

2 ore fa 2

Nuove polemiche sulla guida autonoma. Una Model 3 con Full Self Driving attivato ignora totalmente la segnaletica e persino le sbarre abbassate: tragedia sfiorata

Giuseppe Croce

10 marzo - 13:00 - MILANO

Tesla di nuovo al centro delle polemiche per un episodio gravissimo di malfunzionamento del suo sistema "Fsd", cioè il criticatissimo, soprattutto per il nome "Full Self Driving" che lascia pensare ad un'auto "che si guida completamente da sola". La realtà dei fatti è molto diversa e l'ultimo incidente lo dimostra chiaramente: una Tesla Model 3 con Fsd attivato ha letteralmente ignorato un passaggio a livello chiuso, sfondando le barriere e attraversando le rotaie.

L'INCIDENTE

—  

Il fatto è avvenuto l'8 marzo a Los Angeles ed è stato ripreso dalla dashcam montata dal proprietario della Model 3 sulla sua auto. Dal filmato condiviso si vede chiaramente che il semaforo ferroviario funziona benissimo e il passaggio a livello inizia a chiudersi ben prima dell'arrivo della Model 3, che viaggia a circa 37 chilometri orari. La visibilità è ottima, non ci sono altre auto di fronte la Tesla e non c'è nessuna possibile scusante: semplicemente il sistema Fsd della Model 3 ignora il passaggio a livello e lo attraversa senza nemmeno rallentare. Il guidatore sembra altrettanto distratto, tanto che frena soltanto all'ultimo e non riesce ad evitare lo sfondamento, tanto che alla fine rilascia pure il freno pur di sfondare la seconda sbarra e portarsi fuori dalle rotaie, attraversando completamente l'incrocio.

LE POLEMICHE

—  

L'episodio ha riacceso le già caldissime polemiche sui sistemi di guida autonoma di Tesla, che la Motorizzazione della California hanno già pesantemente criticato perché il nome "Full Self Driving" è stato dichiarato pubblicità ingannevole. Per quanto riguarda l'attraversamento dei binari dei treni, poi, è saltato fuori che gli incidenti come quello appena descritto sono molto più frequenti di quanto possa sembrare, tanto che Nbc News è riuscita a ricostruirne ben 40. Su YouTube, poi, non mancano i video di incidenti avvenuti o scampati a pochi centimetri dalle sbarre, spesso per intervento del guidatore.

L'INDAGINE NHTSA

—  

Poche ore prima della diffusione dell'ultimo video, tra l'altro, si era chiusa la complessa indagine della National Highway Traffic Safety Administration (Nhtsa) americana sugli incidenti causati dal sistema Fsd. Indagine iniziata ad ottobre 2025 e basata su 58 sinistri apparentemente causati dal sistema di guida autonoma di Tesla, poi saliti a 80 in seguito ad ulteriori integrazioni avvenute a dicembre.Tesla ha avuto molta difficoltà a soddisfare le richieste di dati provenienti dall'ente pubblico americano che si occupa di sicurezza stradale, chiedendo e ottenendo due proroghe. Ora, però, il tempo è scaduto: Tesla aveva tempo fino al 9 marzo, adesso tocca ai tecnici della Nhtsa decidere se il sistema Fsd è realmente sicuro o è pericoloso.

Leggi l’intero articolo