Incident de Tesla : Étude de cas sur la conduite autonome
Un Tesla Cybertruck a récemment été impliqué dans un accident notable alors qu’il utilisait le mode « Full Self-Driving ». Avec des questions entourant la sécurité des véhicules autonomes, cet incident soulève des préoccupations légitimes. Que s’est-il réellement passé ?
Le crash
Ce qui s’est passé le 18 août 2025 sur l’autoroute 69 Eastex à Houston est assez troublant. Justine Saint Amour, au volant de son Cybertruck, avait engagé le mode « Full Self-Driving » lorsque le véhicule s’est approché d’une bifurcation en Y. Au lieu de suivre la courbe à droite, la vidéo de la dashcam montre le Cybertruck avançant tout droit à une vitesse d’autoroute, percutant violemment une barrière en béton à la sortie de l’overpass.
Malgré les cônes de signalisation présents pour avertir, le véhicule a ignoré tous les signaux et a percuté la barrière avec force, causant des dommages significatifs au moment de l’impact.
La réaction d’Elon Musk et la défense des 4 secondes
Après la diffusion virale de la vidéo, Elon Musk a réagi sur X, déclarant que les journaux de Tesla montraient que la conductrice avait désengagé le mode Autopilot quatre secondes avant le crash. Cette assertion a été reprise par de nombreux supporters de Tesla pour souligner que l’incident n’était pas dû à un défaut du système, mais à une conduite manuelle.
Cependant, cette réaction semble passer à côté du véritable enjeu. L’avocat de Saint Amour, Bob Hilliard, a reconnu que sa cliente avait effectivement désengagé le système avant l’impact. Mais pourquoi l’a-t-elle fait ? Il semble que le système ait déjà présenté des signes de défaillance, ce qui a conduit à une réaction tardive de la conductrice.
Le véritable problème : la confiance excessive et le piège de la supervision
Ce type d’incident illustre parfaitement la faille fondamentale dans l’approche de Tesla concernant l’autonomie « supervisée ». Des recherches montrent qu’il faut entre 5 à 8 secondes pour qu’un conducteur puisse réengager son attention après un échec du système automatisé. Or, les situations d’urgence se déroulent plus rapidement que cela.
Lorsque le système fonctionne correctement, les conducteurs développent une confiance excessive. Cette confiance devient problématique quand le système échoue, comme cela fut le cas sur cette courbe ; le conducteur se retrouve dans une position délicate, devant réagir rapidement à un problème qu’il n’avait pas anticipé.
Un schéma inquiétant
Cet incident n’est pas unique. Une vidéo récente a montré une Tesla FSD traversant des barrières de passage à niveau, contrariée par l’arrivée d’un train. De plus, une enquête en cours sur le FSD a déjà répertorié 80 violations de circulation, dont 14 accidents.
Par ailleurs, Waymo, avec ses véhicules entièrement autonomes, opère sans supervision humaine dans plusieurs villes, tout en maintenant un excellent bilan de sécurité. Cela soulève des questions sur ce que nous devrions attendre des technologies d’automatisation.
Notre point de vue
Les partisans de Tesla se focalisant uniquement sur le fait que la conductrice a désengagé le système manquent l’essentiel. Oui, techniquement, elle pilotait le véhicule au moment de l’impact, mais seulement parce que le FSD avait échoué en premier et l’avait plongée dans le chaos.
Je peux vous assurer, ayant parcouru des milliers de kilomètres avec le FSD, que des situations où le système s’approche trop rapidement d’un virage ne sont pas rares. Nous le répétons : le problème n’est pas lorsque tout semble aller bien sous l’attention du conducteur, mais lorsque cette même confiance s’effondre à un moment critique.
Les affirmations de Musk sur les journaux de conduite sont techniques, mais elles ne sauraient dissimuler la réalité de ce qui se passe sur la route. En fin de compte, c’est un jeu de responsabilités dans lequel la société doit faire face aux conséquences de ses promesses.
Pour en savoir plus sur la sécurité des systèmes autonomes, consultez le site de la NHTSA.
Conclusion
Ces incidents soulèvent de nombreuses questions sur l’avenir de la conduite autonome. Cela vous amène à réfléchir : jusqu’où devons-nous faire confiance à ces technologies ? Quelle est la frontière entre l’innovation et la sécurité ?

Je suis Jean-Marc Métayer, toulousain et amoureux de l’auto. J’ai toujours aimé les moteurs, mais un vieux cabriolet m’a appris que chaque voiture a une âme. Parfois, un simple trajet devient une aventure inoubliable.


Leave a Comment