Il fallait donc compter sur nos amis canadiens pour avoir l’occasion de lire enfin un article bien documenté, objectif et analytique sur les raisons et conséquences à venir des 3 accidents impliquant des Tesla ayant actionné leur fonction Auto pilot.

Loin des ridicules et démagogiques titres et articles parus dans la presse française à l’initiative de journalistes peu professionnels et surtout avides de sensationnalisme pour comptabiliser les lectures et les likes, Martin LESSARD pour ICI.Radio Canada a réfléchi et nous fait partager une analyse que je ne résiste pas à l’envie de vous proposer:

 » Les trois accidents sont survenus aux États-Unis. Le système de conduite automatique installé par défaut aurait été, semble-t-il, en cause dans un accident fatal (survenu plus tôt cette année, mais annoncé seulement récemment), et possiblement dans deux autres, qui n’ont heureusement pas été mortels, par la suite. La nouvelle a créé une onde de choc dans l’industrie et chez le grand public : les voitures autonomes ne semblent pas prêtes encore pour la route.

Est-ce la fin du rêve de la voiture autonome?

De nombreuses voix se sont élevées pour critiquer la voiture autonome sur les routes. Même s’il y a quand même eu mort d’homme, il faut pourtant relativiser la situation.

Quand vous aurez fini de lire ce billet, une personne sera probablement décédée dans un accident de voiture non autonome aux États-Unis (dernières statistiques : 32 675 morts en 2014). Pourquoi, alors, faire tout un cas avec la voiture autonome? Parce que le nom donné au système offre une fausse impression de sécurité.

Tesla a choisi d’utiliser le mot autopilote pour des raisons marketing, mais c’est, en fait, un système d’assistance à la conduite. En sortant le premier sur le marché, Tesla a voulu marquer un grand coup (et il a réussi). Mais si vous lisez bien les avertissements de la compagnie, le système est en version bêta.

Les conducteurs sont donc des « testeurs bêta » en réseau. Collectivement, ils entraînent le système à devenir meilleur sur les routes. Quand une des voitures apprend, toutes les voitures apprennent. Ce qu’on reproche à Tesla, c’est de donner cette fausse impression de sécurité.

Comment l’autopilote apprend-il de ses erreurs?

Avec les voitures non autonomes, chaque mort est non seulement de trop, mais inutile. Avec une voiture autonome, un accident est toujours un apprentissage de plus qui permettrait d’éviter le prochain. Vraiment? Ce n’est pas aussi clair que ça en a l’air.

Les systèmes d’intelligence artificielle, aujourd’hui, sont surtout basés sur les réseaux de neurones artificiels. Il faut une quantité astronomique de données pour entraîner un tel réseau. Le comportement de bonne conduite émerge de cet entraînement. Plus on conduit avec le système, plus il se perfectionne. Personne n’a pourtant programmé toutes les possibilités.

Un seul cas, un accident, n’est donc pas suffisant pour changer tout le système. Ce n’est pas comme pour un programme informatique simple où il s’agit d’ajouter une règle supplémentaire. Il sera d’ailleurs très difficile pour les experts de savoir exactement pourquoi le système dans les voitures accidentées a agi de telle façon, et non pas d’une autre.

Ce qu’il faut comprendre, c’est que ces systèmes fonctionnent sur des probabilités d’action. L’autopilote peut être impeccable dans 99 % des cas. Ou même dans 99,999 % des cas. Mais il rencontrera peut-être un cas problème. La probabilité de ne pas avoir d’accident n’est pas de 100 %. Il y aura donc éventuellement un accident.

C’est cette marge d’erreur qui donne des frissons. L’autopilote donne l’impression qu’on peut lui confier le volant. Avec la confiance, notre attention baisse. Et c’est là tout le drame, car pour l’instant, il faut garder un œil ouvert. Pourquoi? Parce que le danger vient des autres voitures non autonomes.

Nos routes seront-elles réellement plus sécuritaires avec seulement des voitures autonomes?

La réponse courte est oui. Tant qu’il reste des conducteurs humains le danger sera présent, pourrait-on dire pour simplifier les choses. Quand les voitures autonomes domineront entièrement la route, il n’y aura plus d’hécatombe routier comme c’est le cas actuellement.

La réponse longue est 99,999 % oui, car une surprise peut toujours arriver. Un viaduc qui tombe, une barre de béton dans un tunnel qui s’effondre ou une chaussée qui s’affaisse subitement, cela fait partie des aléas de la vie. Il est probable qu’une voiture autonome n’aurait jamais le temps de réagir.

C’est dans la transition vers cette promesse de nirvana routier que se trouve le problème. Cette transition ne se fera pas aussi vite qu’on peut le penser. Les capteurs et les caméras utilisés pour permettre à la voiture de saisir tout son environnement font monter le coût du véhicule. Pour une voiture de luxe, ça reste peut-être un détail, mais pour une voiture bas de gamme, la question de la qualité de l’équipement et du logiciel de conduite se pose.« 

Première info corrective en date du 14 juillet:  

selon Electrek.com: lors de l’accident de la Model X renvoyée par les glissières de sécurité l’Autopilot n’était pas activé contrairement aux affirmations du conducteur. Elon Musk a déclaré que s’il l’avait été l’accident aurait pu être évité.

Lire également :  Gigafactory Berlin : Un chantier presque finalisé

Publications similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *