Autopilot : Attention, danger !

- Publicité -

Un internaute publie une vidéo qui montre une Tesla qui arrête d’indiquer la route quand elle croise un bus scolaire… C’est moyen si on a besoin de couper juste derrière ! L’outil FSD (Full Self Driving) peut séduire et rassurer certains conducteurs. Mais pour ceux qui aiment rester maître de leur véhicule ou qui ont déjà eu quelques frayeurs, cela peut être un enfer ! 

Il affirme en plus qu’il a régulièrement observé ce phénomène et qu’il ne pense pas qu’il s’agisse d’un problème de visibilité. Il a même tagué Elon Musk pour avoir une réponse du plus haut responsable de la marque lui-même !

Il ajoute que “On dirait que la voiture peut visualiser le bus dans l’autre voie ainsi que la ligne jaune. Il a clairement besoin de travail avant robotaxis, mais facile pour l’homme d’intervenir.” Pour le moment oui ! Mais c’est la suite qui peut légitimement inquiéter… 

Un autre lui répond : “C’est une situation délicate. Mais il y a plusieurs indices subtils qu’un humain peut détecter que l’IA ne peut toujours pas. Lignes jaunes doubles + circulation arrêtée sur une route à 2 voies + feux de pause d’autres voitures + bus (ceci pourrait être bloqué). Ça semble banal pour un humain, mais ça ne l’est pas.”

A nuancer donc…

Comments

  1. J’arrive pas à comprendre ce qui cloche… Le FSD est une fonction bêta qui s’améliore sans cesse. En attendant, le conducteur est responsable de son véhicule.
    Vous imaginez que Usain Bolt est passé de la position assise à la course sans jamais tomber ?

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

GUIDES ACHAT

Publicité