tesla-autopilot

Un internaute publie une vidéo qui montre une Tesla qui arrête d’indiquer la route quand elle croise un bus scolaire… C’est moyen si on a besoin de couper juste derrière ! Alors, Autopilot attention danger ? L’outil FSD (Full Self Driving) peut séduire et rassurer certains conducteurs. Mais pour ceux qui aiment rester maître de leur véhicule ou qui ont déjà eu quelques frayeurs, cela peut être un enfer ! 

Il affirme en plus qu’il a régulièrement observé ce phénomène et qu’il ne pense pas qu’il s’agisse d’un problème de visibilité. Il a même tagué Elon Musk pour avoir une réponse du plus haut responsable de la marque lui-même !

Il ajoute que “On dirait que la voiture peut visualiser le bus dans l’autre voie ainsi que la ligne jaune. Il a clairement besoin de travail avant robotaxis, mais facile pour l’homme d’intervenir.” Pour le moment oui ! Mais c’est la suite qui peut légitimement inquiéter… 

Un autre lui répond : “C’est une situation délicate. Mais il y a plusieurs indices subtils qu’un humain peut détecter que l’IA ne peut toujours pas. Lignes jaunes doubles + circulation arrêtée sur une route à 2 voies + feux de pause d’autres voitures + bus (ceci pourrait être bloqué). Ça semble banal pour un humain, mais ça ne l’est pas.”

Alors, Autopilot = danger ? A nuancer donc…

Lire également :  Un patron français offre des voitures électriques à ses salariés

Publications similaires

Un commentaire

  1. J’arrive pas à comprendre ce qui cloche… Le FSD est une fonction bêta qui s’améliore sans cesse. En attendant, le conducteur est responsable de son véhicule.
    Vous imaginez que Usain Bolt est passé de la position assise à la course sans jamais tomber ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *