Tesla affirme que l’FSD était désactivé avant l’accident du Cybertruck, mais les images racontent une tout autre réalité !

de Tesla : Étude de cas sur la conduite

Un Tesla Cybertruck a récemment été impliqué dans un accident notable alors qu’il utilisait le mode « Full Self-Driving ». Avec des questions entourant la sécurité des autonomes, cet incident soulève des préoccupations légitimes. Que s’est-il réellement passé ?

Le crash

Ce qui s’est passé le 18 août 2025 sur l’autoroute 69 Eastex à Houston est assez troublant. Justine Saint Amour, au volant de son Cybertruck, avait engagé le mode « Full Self-Driving » lorsque le véhicule s’est approché d’une bifurcation en Y. Au lieu de suivre la courbe à droite, la vidéo de la dashcam montre le Cybertruck avançant tout droit à une vitesse d’autoroute, percutant violemment une barrière en béton à la sortie de l’overpass.

Malgré les cônes de signalisation présents pour avertir, le véhicule a ignoré tous les signaux et a percuté la barrière avec force, causant des dommages significatifs au moment de l’impact.

La réaction d’Elon Musk et la défense des 4 secondes

Après la diffusion virale de la vidéo, Elon Musk a réagi sur X, déclarant que les journaux de Tesla montraient que la conductrice avait désengagé le mode Autopilot quatre secondes avant le crash. Cette assertion a été reprise par de nombreux supporters de Tesla pour souligner que l’incident n’était pas dû à un défaut du système, mais à une conduite manuelle.

Cependant, cette réaction semble passer à côté du véritable enjeu. L’avocat de Saint Amour, Bob Hilliard, a reconnu que sa cliente avait effectivement désengagé le système avant l’impact. Mais pourquoi l’a-t-elle fait ? Il semble que le système ait déjà présenté des signes de défaillance, ce qui a conduit à une réaction tardive de la conductrice.

A lire :  La coalition entre Tesla, Google et Carrier pourrait bien libérer 100 milliards de dollars en exploitant les capacités inutilisées du réseau électrique !

Le véritable : la excessive et le piège de la supervision

Ce type d’incident illustre parfaitement la faille fondamentale dans l’approche de Tesla concernant l’autonomie « supervisée ». Des recherches montrent qu’il faut entre 5 à 8 secondes pour qu’un conducteur puisse réengager son attention après un échec du système automatisé. Or, les situations d’urgence se déroulent plus rapidement que cela.

Lorsque le système fonctionne correctement, les conducteurs développent une confiance excessive. Cette confiance devient problématique quand le système échoue, comme cela fut le cas sur cette courbe ; le conducteur se retrouve dans une position délicate, devant réagir rapidement à un problème qu’il n’avait pas anticipé.

Un schéma inquiétant

Cet incident n’est pas unique. Une vidéo récente a montré une Tesla FSD traversant des barrières de passage à niveau, contrariée par l’arrivée d’un train. De plus, une en cours sur le FSD a déjà répertorié 80 violations de circulation, dont 14 accidents.

Par ailleurs, Waymo, avec ses véhicules entièrement autonomes, opère sans supervision humaine dans plusieurs villes, tout en maintenant un excellent bilan de sécurité. Cela soulève des questions sur ce que nous devrions attendre des technologies d’automatisation.

Notre point de vue

Les partisans de Tesla se focalisant uniquement sur le fait que la conductrice a désengagé le système manquent l’essentiel. Oui, techniquement, elle pilotait le véhicule au moment de l’impact, mais seulement parce que le FSD avait échoué en premier et l’avait plongée dans le chaos.

Je peux vous assurer, ayant parcouru des milliers de kilomètres avec le FSD, que des situations où le système s’approche trop rapidement d’un virage ne sont pas rares. Nous le répétons : le problème n’est pas lorsque tout semble aller bien sous l’attention du conducteur, mais lorsque cette même confiance s’effondre à un moment critique.

A lire :  Le système Autopilot de Tesla mis en échec par un simple obstacle en carton

Les affirmations de Musk sur les journaux de conduite sont techniques, mais elles ne sauraient dissimuler la réalité de ce qui se passe sur la route. En fin de compte, c’est un de responsabilités dans lequel la société doit faire face aux conséquences de ses .

Ajoutez Electrek comme source préférée sur Google

Pour en savoir plus sur la sécurité des systèmes autonomes, consultez le site de la NHTSA.

Conclusion

Ces incidents soulè de nombreuses questions sur l’avenir de la conduite autonome. Cela vous amène à réfléchir : jusqu’où devons-nous faire confiance à ces technologies ? Quelle est la frontière entre l’ et la sécurité ?

Jean-Marc Métayer

Je suis Jean-Marc Métayer, toulousain et amoureux de l’auto. J’ai toujours aimé les moteurs, mais un vieux cabriolet m’a appris que chaque voiture a une âme. Parfois, un simple trajet devient une aventure inoubliable.

Post navigation

Leave a Comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *