Les premières conclusions rendues par l’agence américaine en charge d’étudier les causes et raisons de l’accident qui a coûté la vie à un conducteur de Model S qui avait activé l’Autopilot proposé par la marque ont été publiées le 27 juillet.
Outre ce que tout le monde croit savoir c’est à dire que :
- le conducteur regardait un film sur son Ipad
- il ne tenait pas son volant malgré les rappels automatiques programmés par l’Autopilot
- il ne tenait pas compte des enseignements qui lui avaient été délivrés lors de la remise des clefs et pas plus du mode d’emploi qui précise clairement les limites et précautions d’usage de l’Autopillot
Une enquête est ouverte par la NHTSA
…la NHTSA vient de préciser qu’en plus ce conducteur dépassait la vitesse limite autorisé sur la voie où il circulait d’environ 15%. Elle précise aussi que cette première analyse ne préjuge en rien de ses conclusions à venir quant au rôle de l’Autopilot dans cet accident et plus précisément en ce qu’il n’aurait éventuellement pas apporté au conducteur le « service » annoncé par Tesla.
On voit donc qu’à ce jour beaucoup d’éléments pointent la négligence et l’imprudence du conducteur. Les multiples infractions dont il semble coupable permettront probablement à son assurance de se dégager de ses obligations contractuelles mais en sera t il de même pour Tesla ?
La compagnie a déjà expliqué que le radar frontal fourni par la société Mobileyes n’avait pas pu et su repérer le camion qui se présentait frontalement sur la route de la Model S probablement en raison d’une incapacité à le distinguer à cause de la très forte luminosité diminuant les contrastes et donc son repérage par le radar. Mais aussi parce que son orientation basse ne pouvait que viser la partie sous caisse du camion qui était dépourvue des barres latérales obligatoires en Europe et qui si elles avaient été présentes auraient probablement permis son repérage et l’activation du système de freinage d’urgence.
Le directeur de la NHTSA a déclaré de son côté que cet accident ne serait pas un frein au développement des systèmes d’assistance à la conduite mettant ainsi un point final ( ?) à la polémique que de nombreux médias (bien aidés) ont déclenchée puis entretenue depuis plusieurs semaines sur le développement de ces systèmes et indirectement le risque que faisait courir Tesla à ses clients.
On a même vu Consumer Reports demander la suspension de l’Autopilot jusqu’à la conclusion de l’enquête en cours et la correction de défauts que cette association pense avoir repérés.
Depuis Tesla et Mobileyes ont annoncé la fin de leur collaboration. Tesla se tourne aujourd’hui vers Bosch alors que Mobileyes a passé contrat avec BMW ! Doit on y voir une forme de désaveu de Tesla vis à vis de son fournisseur et les prémices d’un futur conflit judiciaire dans le cas où une responsabilité de Tesla serait établie par la NHTSA ?
Une question se pose de toute façon : un constructeur automobile peut il être tenu responsable des dommages que le mésusage de la voiture qu’il produit et vendu a provoqué ?
Mercedes semblait connaître la réponse à cette question en publiant aux USA depuis plusieurs semaines et ce malgré l’accident mortel, de pleines pages de publicité vantant la mise à disposition aux conducteurs de la nouvelle Classe E de son système Drive Pilot leur apportant « l’auto conduite de leur voiture …».
Une telle dénomination semblait en dire encore tellement plus que l’Autopilot que le même Consumer Reports a porté plainte contre Mercedes pour publicité trompeuse et a obtenu qu’elle arrête cette campagne !
Au final pour certains analystes seul le nom d’Autopilot semble pouvoir être mis en cause en ce qu’il aurait pu tromper des usagers inattentifs et de bonne foi, caractéristiques potentiellement non identifiables chez le conducteur décédé qui était en excès de vitesse, ne tenait pas son volant et regardait un film selon les constations faites à ce jour.
Une chose me parait cependant certaine: comme toujours cet accident mortel est la conséquence de facteurs indépendants mais concomitants ce jour là à cette heure là. Un conducteur mésusant le système dont sa voiture est équipée, une vitesse excessive, un camion traversant la route de façon inattendue, une lumière aveuglante, une absence de barres latérales sous la caisse du camion, des vidéos amateurs laissant croire à la voiture autonome, etc, etc.
Au final une mort stupide et la remise en cause contre productive d’un système qui fera progresser la sécurité et tendra à rendre nos routes moins mortifères. Dommage quand même, à moins que des progrès puissent en découler au bénéfice de tous.
Une suggestion pour compléter ce compte rendu et essai d’analyse : Tesla peut communiquer à chaque instant par le réseau Internet avec tous les propriétaires de Model S ou X qui disposent de l’Autopilot. Pourquoi ne pas leur rappeler régulièrement les conditions de son bon usage ? La protection des vies humaines ne passe pas que par l’amélioration des techniques, elle passe aussi par la répétition des bonnes informations.
La devise de l’équipe Tesla Autopilot est «de ne pas laisser la perfection être l’ennemi du mieux». Ce pourrait en être une première démonstration….
« …seul le nom d’Autopilot semble pouvoir être mis en cause… »
Sauf que les acheteurs reçoivent un cours leur expliquant ce que peut et ne peut pas faire l’Autopilot. Ils ont aussi droit à un essais routier.
Seul un acheteur de seconde main pourrait mal interpréter ce qu’est l’Autopilot.
De plus, l’Autopilot est le nom des options technologiques offert par Tesla et qui comprend en autre: Traffic-Aware Cruise Control, Autosteer, Auto Lane Change, Autopark, et Summon.
Le vrai nom de l’Autopilot tel qu’on le connait est Autosteer. Si les gens utilisent le mot Autopilot c’est que c’est plus facile à prononcer.
Merci pour ces précisions mais on ne peut passer sous silence que Tesla parle de pilotage automatique dans sa présentation:
« La Model S bénéficie du Pilotage Automatique Tesla conçu pour rendre vos trajets sur autoroute à la fois plus sûrs et moins stressants. »
Et que en langue anglaise Tesla parle bien d’Autopilot ! » »Autopilot allows Model S to steer within a lane, change lanes, and manage speed by using active….«
L’Autopilot garde la voiture sur sa piste et ajuste la vitesse en fonction du véhicule suivant et n’est donc pas impliqué dans l’accident.
Ce qui semble avoir mal fonctionné est le *freinage automatique anti-collision*, indépendant de l’Autopilot. Ce système reconnaît au moyen du radar et de la caméra les obstacles et devrait freiner en cas de collision imminente prévisible. Ce système ne doit pas confondre un véritable obstacle avec un panneau de signalisation au-dessus de la chaussée, ou un pont bas, ce qui pourrait déclencher un freinage intempestif. Dans de tels cas le radar signale un obstacle immobile, et la caméra invalide le signal du radar. Apparemment le réglage de la hauteur critique au-dessus de la chaussée à laquelle le freinage automatique s’enclenche demande révision.
Le problème c’est que le terme auto-pilot (pilote automatique) est trompeur, un pilote automatique sur un avion est réellement autonome, il est certifié par l’autorité, ce n’est pas (encore) le cas des voitures, Tesla fait une erreur en utilisant ce terme.