
Un jury a déclaré que Tesla n’était pas en faute dans un procès pour mort injustifiée en 2019, alléguant qu’Autopilot avait provoqué un accident, tuant un passager et en blessant grièvement deux.
En cause était la mort de Micah Lee, 37 ans, qui conduisait une Model 3 en 2019 à Menifee, en Californie (dans l’Inland Empire à l’est de Los Angeles), et a heurté un palmier à environ 65 milles à l’heure. , causant sa mort et les blessures de deux passagers, dont un garçon de 8 ans. Le procès a été intenté par les passagers.
Le procès alléguait que Tesla avait sciemment commercialisé au public un logiciel expérimental dangereux et que des défauts de sécurité au sein du système avaient conduit à l’accident (en particulier, un problème de direction spécifique connu par Tesla). Tesla a répondu que le conducteur avait consommé de l’alcool (son taux d’alcoolémie était de 0,05 %, en dessous de la limite légale de 0,08 % en Californie) et que le conducteur était toujours responsable de la conduite lorsque le pilote automatique est activé.
Un survivant qui se trouvait dans le véhicule au moment de l’accident a affirmé que le pilote automatique était activé au moment de l’accident.
Tesla a contesté cela, affirmant qu’il n’était pas clair si le pilote automatique était activé – une différence par rapport à son mode de fonctionnement typique, qui consiste à extraire les journaux du véhicule et à indiquer de manière définitive si et quand le pilote automatique était activé ou désactivé. Bien que ces réclamations aient parfois été déposées lorsque le pilote automatique a été désengagé quelques instants avant un accident, alors que l’évitement n’était plus possible pour le conducteur.
Après quatre jours de délibérations, le jury s’est prononcé en faveur de Tesla, par 9 voix contre 3, selon lequel Tesla n’était pas coupable.
Bien que Tesla ait déjà remporté un procès pour blessure au pilote automatique, en avril de cette année, il s’agit du premier procès résolu impliquant un décès. Ce dernier procès utilisait le même raisonnement : les conducteurs sont toujours responsables de ce qui se passe au volant lorsque le pilote automatique ou la conduite entièrement autonome sont activés (malgré le nom de ce dernier système suggérant le contraire). La conduite entièrement autonome n’était pas accessible au public au moment de l’accident de Lee, bien qu’il ait acheté le système pour 6 000 $ en espérant qu’il soit disponible dans le futur.
Les deux systèmes autonomes de Tesla sont au « niveau 2 » sur le marché. L’échelle d’automatisation de conduite de SAE, comme la plupart des autres nouveaux systèmes de conduite autonome sur le marché ces jours-ci. Bien que le pilote automatique ne fonctionne que sur les autoroutes, le système FSD de Tesla peut être activé dans plus de situations que la plupart des voitures. Mais à aucun moment la voiture n’assume la responsabilité de la conduite – cette responsabilité incombe toujours au conducteur.
Depuis le début du procès le mois dernier, le PDG de Tesla, Elon Musk, a fait un commentaire notable lors de sa présence désastreuse à la conférence téléphonique de Tesla au troisième trimestre. On lui a demandé si et quand Tesla accepterait une responsabilité légale pour les systèmes de conduite autonomes, comme Mercedes vient de commencer à le faire avec son système Level 3 DRIVE PILOT, le premier du genre aux États-Unis (lisez notre essai routier à Los Angeles). Musk a répondu en disant :
Eh bien, beaucoup de gens supposent que nous avons une responsabilité légale à en juger par les poursuites judiciaires. Nous ne pouvons certainement pas nous en tirer à bon compte, que nous le voulions ou non.
Elon Musk, PDG de Tesla
Plus loin dans la réponse, Musk a qualifié les systèmes d’IA de Tesla de « bébé AGI ». AGI est l’acronyme de « intelligence générale artificielle », qui est une technologie théorisée lorsque les ordinateurs deviennent suffisamment performants dans toutes les tâches pour pouvoir remplacer un humain dans pratiquement n’importe quelle situation, pas seulement dans des situations spécialisées. Bref, ce n’est pas ce que Tesla a et n’a rien à voir avec la question.
Tesla fait en effet actuellement face à plusieurs poursuites judiciaires pour des blessures et des décès survenus dans ses véhicules, beaucoup alléguant que le pilote automatique ou le FSD en sont responsables. Dans l’un d’entre eux, Tesla a tenté de faire valoir devant le tribunal que les déclarations enregistrées de Musk sur la conduite autonome « auraient pu être des contrefaçons ».
Nous avons également appris récemment, lors de la publication de la biographie de Musk, qu’il souhaitait utiliser la caméra embarquée de Tesla pour espionner les conducteurs et gagner des procès en matière de pilote automatique. Même si cela n’était apparemment pas nécessaire dans ce cas.
Le point de vue d’Electrek
Les questions comme celle posée dans cet essai sont intéressantes et difficiles à répondre, car elles combinent les concepts de responsabilité légale, de supports marketing et de perception du public.
Tesla indique très clairement dans les communications officielles, comme dans les manuels d’utilisation, dans le logiciel de la voiture lui-même, etc., que les conducteurs sont toujours responsables du véhicule lorsqu’ils utilisent le pilote automatique. Les conducteurs acceptent les accords en tant que tels lors de la première mise en marche du système.
Ou du moins, je pense ils le font, puisque la première fois que j’ai accepté, c’était il y a si longtemps. Et que c’est le problème. Les gens sont également habitués à accepter de longs accords chaque fois qu’ils allument un système ou utilisent une technologie, et personne ne les lit. Parfois, ces conditions incluent même des dispositions juridiquement inapplicables, selon le lieu en question.
Et puis, en termes de perception du public, de marketing et dans la façon dont Tesla a délibérément nommé le système, certains pensent que les voitures de Tesla peuvent réellement se conduire seules. Voici Tesla disant explicitement « la voiture roule toute seule » en 2016.
Nous ici à Électrek, et nos lecteurs connaissent la différence entre tous ces concepts. Nous savons que « Full Self-Driving » a été (soi-disant) nommé ainsi afin que les gens puissent l’acheter à l’avance et finalement accédez au système lorsqu’il atteint enfin sa pleine capacité de conduite autonome (ce qui devrait arriver, euh, « l’année prochaine »… au cours d’une année donnée). Nous savons que « pilote automatique » est censé faire référence à la façon dont cela fonctionne dans les avions, où un pilote doit toujours être assis sur le siège pour s’occuper d’autres tâches que la croisière régulière. Nous savons que Tesla ne dispose que d’un système de niveau 2 et que les conducteurs acceptent toujours leur responsabilité légale.
Mais lorsque le grand public s’empare de la technologie, il a tendance à faire des choses auxquelles on ne s’attendait pas. C’est pourquoi la prudence est généralement de mise lors de la diffusion de choses expérimentales au public (et, au début, Tesla le faisait – en donnant un accès anticipé aux nouvelles fonctionnalités Autopilot/FSD aux bêta-testeurs de confiance, avant une diffusion à grande échelle).
Bien qu’on lui ait dit avant d’activer le logiciel, et qu’on lui ait souvent rappelé pendant que le logiciel est activé, que le conducteur doit garder les mains sur le volant, nous savons tous que les conducteurs ne le font pas. Que les conducteurs soient moins attentifs lorsque le système est activé que lorsqu’il ne l’est pas. Des études l’ont également montré.
Et ainsi, même si le jury a conclu (probablement à juste titre) que Tesla n’est pas responsable ici, et même si cela constitue peut-être un bon rappel à tous les conducteurs de Tesla de continuez à faire attention à la route pendant que le pilote automatique/FSD est activé, vous conduisez toujours, alors agissez comme sinous pensons toujours qu’il y a matière à discussion sur le fait que Tesla fasse un meilleur travail pour assurer l’attention (par exemple, elle vient de déployer une fonction de surveillance de l’attention du conducteur à l’aide de la caméra de l’habitacle, six ans après avoir commencé à inclure ces caméras dans le modèle 3).
FTC : Nous utilisons des liens d’affiliation automatique générateurs de revenus. Plus.