
La Californie a interdit à Tesla d’appeler son logiciel Full Self-Driving (FSD), Teslarati rapports(Ouvre dans une nouvelle fenêtre)car les législateurs ont déclaré que son nom pourrait amener une “personne raisonnable” à croire que cette fonctionnalité permet à une voiture de devenir entièrement autonome.
La législation, qui entre en vigueur en 2023, intervient malgré le fait que Tesla ait déclaré que le FSD ne permet pas à une voiture de devenir autonome. FSD est vendu comme fonctionnalité supplémentaire pour 15 000 $ ou 199 $ par mois. La fonctionnalité est mise à jour en direct.
La loi, parrainée par la sénatrice de l’État démocrate Lena Gonzalez, interdit aux concessionnaires et constructeurs automobiles californiens de “nommer ou commercialiser de manière trompeuse” une voiture comme étant autonome si elle est équipée de fonctionnalités partiellement autonomes qui obligent toujours les conducteurs humains à faire attention et à gérer la conduite.
Une déclaration sur le site Web de Tesla concernant la fonctionnalité se lit comme suit : “Les fonctionnalités de pilote automatique, de pilote automatique amélioré et de conduite autonome complète actuellement activées nécessitent une supervision active du conducteur et ne rendent pas le véhicule autonome. L’autonomie totale dépendra de l’obtention d’une fiabilité bien supérieure à celle des conducteurs humains, comme le démontrent des milliards de kilomètres d’expérience, ainsi que de l’approbation réglementaire, qui peut prendre plus de temps dans certaines juridictions.
En 2017, le PDG de Tesla, Elon Musk, a déclaré qu’il prévoyait qu’une Tesla autonome soit capable d’effectuer un trajet de démonstration à travers le pays sans avoir besoin de assistance humaine avant 2018(Ouvre dans une nouvelle fenêtre)mais cela n’a pas été atteint jusqu’à présent.
La semaine dernière, la National Highway Traffic Safety Administration (NHTSA) lancé deux autres enquêtes spéciales sur les accidents(Ouvre dans une nouvelle fenêtre) dans les accidents de Tesla où le FSD aurait été un facteur dans l’accident.
L’un des accidents impliquait un conducteur de Tesla Model S qui utilisait le FSD lorsque la voiture a commencé à se déplacer de manière erratique, entraînant un empilement de huit voitures sur le pont de la baie de San Francisco, CNN. signalé(Ouvre dans une nouvelle fenêtre).
Recommandé par nos rédacteurs
Pendant ce temps, Tesla fait face à un recours collectif qui accuse le constructeur de voitures électriques d’induire le public en erreur en annonçant à tort ses fonctionnalités de pilote automatique et de FSD.
La plainte, déposée en septembre devant le tribunal de district américain du district nord de Californie, allègue que Tesla et son PDG, Elon Musk, ont trompé les conducteurs depuis 2016, quand il s’est engagé d’équiper toutes les voitures d’une technologie d’auto-conduite.
Recevez nos meilleures histoires !
S’inscrire pour Quoi de neuf maintenant pour recevoir nos meilleures histoires dans votre boîte de réception tous les matins.
Cette newsletter peut contenir des publicités, des offres ou des liens d’affiliation. L’inscription à une newsletter indique votre consentement à notre Conditions d’utilisation et Politique de confidentialité. Vous pouvez vous désabonner des newsletters à tout moment.