Un employé de Tesla pourrait être son premier décès en pilote automatique

Grâce à son Autopilot, un système d’aide à la conduite à plusieurs niveaux, le constructeur de voitures électriques Tesla a jusqu’à présent fait la une des journaux plus négatifs que positifs. La liste des accidents qui sont ou pourraient être liés au système s’allonge de plus en plus. Certains de ces accidents ont été mortels pour les passagers.

Le journal Washington Post a été le premier à entreprendre une reconstitution détaillée de l’événement de 2022. Il aurait pu s’agir du premier accident mortel en utilisant le plus haut niveau d’assistance, ce qu’on appelle Full Self-Driving, c’est-à-dire la conduite entièrement autonome d’un véhicule, qui n’est encore qu’une version bêta.

L’accident s’est produit à Evergreen, dans le Colorado. Selon le rapport, Hans von Ohain, employé de Tesla et conducteur du véhicule, et Erik Rossiter rentraient chez eux après avoir joué une partie de golf. À un moment donné, la voiture a quitté la route, a heurté un arbre et a pris feu.

Le Washington Post cite un enregistrement d’un centre d’appels d’urgence, selon lequel von Ohain utilisait « la fonction de conduite automatisée de Tesla », ce qui faisait que la voiture « simplement quittait la route ». Rossiter, qui était sur le siège passager et a survécu à l’accident, a confirmé que von Ohain avait effectivement utilisé la fonction Full Self-Driving. Toutefois, cela est impossible à prouver à ce stade, car l’incendie a complètement détruit les enregistrements de données de la voiture. Selon le Washington Post, Tesla a refusé de répondre aux questions sur l’incident.

Von Ohain est décédé dans un accident, incapable de sortir de la voiture en feu. Selon le journal, le rapport d’enquête indique que la cause du décès est « l’inhalation de fumée et des blessures thermiques ». Cependant, l’autopsie a montré que le taux d’alcoolémie de la victime était de 2,6 pour mille, soit plus de trois fois la limite légale.

Les tribunaux examinent de près le pilote automatique de Tesla

Tesla note sur son site Internet qu’Autopilot est destiné à « un conducteur attentif qui garde les mains sur le volant et peut prendre le contrôle à tout moment ». Le rapport suggère qu’une erreur humaine et technique pourrait s’être produite dans ce cas.

D’une part, comme l’écrit le Washington Post, il est évident que von Ohain ne serait pas capable de conduire une voiture avec un tel taux d’alcool dans le sang. En revanche, l’analyse de l’accident a montré que la voiture n’était pas exempte de défauts techniques. Il s’agit de traces de pneus roulant sur la route, qui suggèrent qu’après la collision du véhicule avec l’arbre, le moteur entraînait toujours les roues. Selon l’inspecteur en chef chargé de l’enquête sur les causes de l’accident, compte tenu de la dynamique de l’impact et de la façon dont la voiture a quitté la route sans aucun signe de manœuvre brusque, cela indique très clairement que la fonction active d’assistance à la conduite est à blâmer.

La question de savoir si les conducteurs eux-mêmes ou les constructeurs automobiles sont responsables de tels accidents intéresse désormais un nombre croissant de tribunaux. Un tribunal californien a récemment traité d’un accident survenu en 2019 dans lequel une Tesla Model 3, roulant en mode pilote automatique, avait quitté la route, tuant le conducteur et blessant grièvement deux passagers. Le juge a alors jugé que l’entreprise n’était pas responsable de l’incident. Selon le Washington Post, au moins neuf autres affaires de ce type seront portées devant les tribunaux cette année.

« Elon Musk prétend qu’une voiture peut se conduire toute seule et qu’elle est encore meilleure qu’un humain », cite le journal la veuve d’une victime d’un accident. « On nous a vendu un faux sentiment de sécurité. »

Source : Le Spiegel

A lire également