Selon le récit de Jalopnik appuyé par des vidéos et images, l’accident s’est produit plus tôt dans la journée du lundi, « sur la route nationale 1 de Taiwan, près de la section des eaux de Zhongshan High Chiayi », où une Tesla Model 3, alors qu’elle roulait à vive allure, s'est écrasée dans le toit d'une remorque de camion renversée. Apparemment, l’accident a été causé par le fait que le système Autopilot de Tesla n'a pas détecté le grand objet blanc qui se trouvait juste devant lui en plein jour et par temps clair, d’après la vidéo de l’incident massivement partagée sur les médias sociaux. Sur la vidéo, vous pouvez voir le véhicule foncer droit dans le camion, avec seulement ce qui ressemble à une tentative solitaire de freinage juste avant l'impact.
Pour tout conducteur humain prêtant la moindre attention, cet accident est presque impossible, à supposer que le conducteur ait eu le regard fixé sur la route et que le véhicule ait eu des freins fonctionnels. Selon les nouvelles traduites des médias taïwanais, le conducteur, un homme de 53 ans nommé Huang, a déclaré aux médias que le pilote automatique était enclenché sur sa Model 3. Mais au lieu de ralentir pour éviter de heurter le camion, la Tesla l'a percutée en perçant le toit de son compartiment de rangement de marchandises.
« La quatrième brigade de la police routière a déclaré que le conducteur de Tesla était un homme de 53 ans nommé Huang, qui a affirmé avoir activé le système d'assistance au véhicule à l'époque. On pensait que le véhicule détecterait un obstacle et ralentirait ou s'arrêterait, mais la voiture se déplaçait toujours à une vitesse fixe, de sorte que lorsque les freins devaient être appliqués au dernier moment, il serait trop tard pour causer une catastrophe », a rapporté Jalopnik en citant un média local.
La vidéo montre que la Tesla a bloqué ses roues avant juste avant l'impact, ce qui correspond à l'affirmation de Huang selon laquelle il a appuyé sur la pédale de frein lorsqu'il a vu le camion renversé. Heureusement, Huang n'a pas été blessé, mais la Model 3 a été détruite comme l’a publié un utilisateur de Twitter. « Tesla a freiné très très tard. D'autres voitures ont freiné beaucoup plus tôt ». « Tout cela et pas un seul airbag dans la voiture ne semble s'être déclenché. Cela devrait être la grande histoire ici », a tweeté l’utilisateur.
Les véhicules Tesla ont été impliqués dans de précédents accidents où Autopilot a réagi de façon similaire
Nous avons déjà vu des pannes de pilote automatique où Autopilot a réagi de façon similaire face à des obstacles, en particulier lorsqu'il s'agissait de gros objets immobiles. Le 29 mai 2018, à la suite d’un premier accident au cours du même, une berline en mode pilote automatique s'est écrasée contre un véhicule de police en stationnement. Le radar, des caméras avec une visibilité à 360 degrés et des capteurs installés dans la berline n’ont pas permis d’éviter la collision avec une voiture du Département de Police de Laguna Beach.
Les enquêteurs de la sécurité des transports ont découvert en 2019 que la conception du système d'aide à la conduite par Tesla Inc. était en partie responsable d'un autre accident dans lequel un conducteur inattentif d’une voiture Tesla a percuté un camion d'incendie stationné sur l'autoroute 405, à Culver City près de Los Angeles en janvier 2018. Selon les résultats d’enquête du NTSB, un pick-up, qui roulait devant la Tesla, a changé de voie juste avant d'atteindre le camion d'incendie et une voiture de la patrouille routière. Mais au lieu de ralentir ou de freiner à son tour, le véhicule Tesla a accéléré et a heurté le camion à une vitesse de 49,9 km/h.
En 2016, Joshua Brown, un homme de 40 ans qui était à bord de sa berline Tesla Model S, est entré en collision avec un camion semi-remorque. A l'époque, des enquêtes avaient révélé que le conducteur utilisait le pilote automatique avancé de Tesla au moment de l'accident. Ce système de pilotage automatique avait été mis en cause et cela avait entraîné la séparation de Tesla d'avec l'entreprise qui lui fournissait cette technologie. Mais les accidents ne se sont pas arrêtés suite au développement en interne d’une version de pilote automatique de deuxième génération.
Le système de pilotage automatique de Tesla utilise principalement des caméras pour son système Autopilot, et des précédents accidents énumérés ci-dessus suggèrent que des situations comme celle-ci, un grand objet immobile de couleur claire sur la route par une journée ensoleillée peut être difficile à distinguer pour le système.
Selon Jalopnik, « en général, les objets immobiles sont difficiles à distinguer pour les systèmes de freinage automatique d'urgence et les systèmes autonomes, car si vous utilisez des émetteurs de radar pour déclencher le freinage des objets immobiles, les voitures ont tendance à avoir beaucoup trop de faux positifs et d'arrêts involontaires que ce qui est sûr ou souhaitable ». « Les systèmes LiDAR, qu'Elon Musk a rejetés pour Tesla, pourraient probablement fournir de meilleures informations de portée pour de grands objets immobiles comme celui-ci que la configuration "toutes caméras" de Tesla », d’après Jalopnik.
Selon un commentateur, « De telles choses sont tout à fait attendues des contrôleurs non linéaires à haute dimension (et les réseaux neuronaux utilisés pour la détection d'objets et l'analyse de décisions entrent dans cette catégorie)...». « Les réseaux neuronaux (NN) ne sont pas adaptés au contrôle à haute prévisibilité et à haut facteur de sécurité. Je me demande si, en fait, nous ne pouvons pas construire un contrôleur NN avec le niveau de détection d'objets inhabituels et de reconnaissance de scénarios de cas limite requis pour correspondre à la capacité moyenne des conducteurs humains à reconnaître et à réagir de manière appropriée à des situations inhabituelles », a-t-il ajouté.
Les capacités du système Autopilot encore mises en cause
Ce serait bien que le système de freinage d'urgence automatique d'Autopilot empêche ce genre d'accidents, mais il ne fonctionne pas toujours, et rien ne remplace une bonne attention à tout instant de la conduite. De plus, le fait de comprendre que les véhicules Tesla, comme toutes les voitures disponibles sur le marché aujourd'hui, ne sont pas capables de conduire de manière totalement autonome serait également très utile. Puisque le conducteur devrait être attentif même avec le pilote automatique activé, car c'est précisément le genre de situation où un humain en état d'alerte aurait vu que Autopilot ne fonctionnait plus et qu’il fallait qu’il prenne le contrôle du véhicule lui-même.
En mars 2018, un véhicule Uber a été impliqué dans un accident mortel dans la ville de Tempe, en Arizona où l'entreprise testait ses voitures autonomes. Les capteurs installés sur ce type de véhicule pour détecter la présence d’obstacle n’ont pas pu alerter la conductrice de la présence d’une piétonne. Selon un rapport de la police de Tempe délivré un mois après les enquêtes préliminaires du National Transportation Safety Board, l'accident était « entièrement évitable » si seulement l'opératrice s’était concentrée sur la route tandis que la voiture fonctionnait de manière autonome. En effet, le rapport suggère que la conductrice de la voiture suivait une émission sur son smartphone au lieu de demeurer en état d’alerte.
Même si le marketing de Tesla pour Autopilot est parfois déroutant, voire trompeur quant au niveau de capacité dont le système dispose, le constructeur de voiture électrique demande toujours aux conducteurs de garder les mains sur le volant et de faire attention à tout moment chaque fois qu'ils activent les fonctions.
Ce dernier incident arrive à un moment délicat pour Tesla, étant donné que la société a récemment augmenté le prix de sa technologie d'autopilotage, dont le PDG Elon Musk a déclaré sur Twitter que la valeur de cette technologie dépassait les 100 000 dollars : « Le prix de la FSD (conduite entièrement autonome) va continuer à augmenter à mesure que le logiciel se rapproche de sa capacité d'autoguidage totale avec l'approbation des autorités de réglementation. À ce stade, la valeur de la FSD est probablement supérieure à 100 000 dollars ».
« Les voitures ne devraient pas détecter les "obstacles". Elles devraient détecter les routes. Elles ne devraient pas chercher premièrement des exceptions à l'espace de conduite par des stratégies de classification ou de segmentation. Elles ne doivent détecter que l'espace praticable », a écrit un commentateur. « Soit vous détectez une route dégagée sur une distance d'arrêt complet au moyen d’une gamme fiable (non visuelle) avec des échantillons suffisamment denses pour éviter les vides qui pourraient accrocher les roues ... soit vous continuez à rencontrer des "objets" qui ont échappé à votre classification », a-t-il ajouté. Et vous, qu’en pensez-vous ?
Sources : YouTube, Tweet
Et vous ?
Que pensez-vous de ce nouvel accident qui implique une Tesla Model 3 ?
Selon le conducteur, Autopilot était activé au moment de l’accident. Quel commentaire en faites-vous ?
Pensez-vous que le système Autopilot est en train de tendre vers le « Full Self Driving » promis par Tesla ?
Lire aussi
Le pilote automatique de Tesla est en partie responsable de l'accident de Culver City en 2018, la conception du véhicule ayant conduit le conducteur à se désengager de la conduite, selon le NTSB
Autopilote : Tesla impliqué dans une nouvelle collision, une berline en mode pilote automatique s'est écrasée sur un véhicule de police
Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident, et l'annonce des batteries de ses véhicules prenant feu
Accident Uber : l'opérateur à bord du véhicule suivait une émission TV sur son portable, la collision était entièrement évitable, selon la police