IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le Full Self-Driving de Tesla commet des "erreurs occasionnelles dangereuses" : lors d'un test sur plus de 1600 kilomètres, les conducteurs ont dû intervenir plus de 75 fois alors que le FSD était actif

Le , par Jade Emy

37PARTAGES

6  0 
Trente accidents de Tesla liés au système de conduite assistée font l'objet d'une enquête aux États-Unis,
Les accidents ont fait 10 morts depuis 2016

Les voitures électriques et la conduite autonome sont les plus grandes transformations que connaît l'industrie automobile. Il est difficile de contester que Tesla est en tête sur ces deux plans, mais c'est le dernier qui a placé le constructeur automobile sous la loupe des autorités américaines de réglementation de la sécurité. La National Highway Traffic Safety Administration (NHTSA) a déclaré jeudi qu'elle avait ouvert 30 enquêtes sur des accidents de Tesla impliquant 10 décès depuis 2016 où des systèmes avancés d'aide à la conduite étaient soupçonnés d'avoir été utilisés. L’agence a donné des détails sur les accidents en cours d'examen par ses programmes d'enquêtes spéciales sur les accidents.

Les régulateurs américains de la sécurité automobile ont annoncé des enquêtes en cours sur des accidents de Tesla impliquant 10 décès où des systèmes avancés d'aide à la conduite seraient impliqués, selon des feuilles de calcul vues par Reuters. La NHTSA avait déjà confirmé certaines enquêtes spécifiques sur les accidents de Tesla, mais n'avait pas encore communiqué une comptabilité complète de tous les accidents de Tesla ayant fait l'objet d'une enquête où le système Autopilot de Tesla était soupçonné d'être impliqué. Maintenant, l’agence a publié une liste offrant des détails sur les accidents en cours d'examen par ses programmes d'enquêtes spéciales sur les accidents.


Sur les 30 accidents de Tesla, la NHTSA a exclu le système Autopilot de Tesla dans trois cas et a publié des rapports sur deux de ces accidents. Une première demande d’une liste complète avait été faite à la NHTSA il y a plus d'un an dans le cadre d'une demande de documents publics. Mais la liste ne comprenait que l'État et le mois où les accidents se sont produits. Auparavant, la NHTSA avait déclaré avoir ouvert 28 enquêtes spéciales sur les accidents de Tesla, dont 24 sont en cours. La feuille de calcul montre un accident de février 2019 où l'utilisation d'Autopilot était indéterminée.

Le système Autopilot utilise des caméras, des capteurs à ultrasons et un radar pour voir et détecter l'environnement de la voiture. L'ensemble des capteurs et des caméras permet au conducteur d'avoir une connaissance de son environnement qu'un conducteur seul n'aurait pas autrement. Un puissant ordinateur de bord traite ces données en quelques millisecondes afin de rendre la conduite "plus sûre et moins stressante", selon la société. L'Autopilot est un système d'aide à la conduite pratique qui ne doit être utilisé qu'avec un conducteur pleinement attentif. Il ne transforme pas une Tesla en voiture autonome.

La feuille de calcul montre que la NHTSA a ouvert huit enquêtes sur des accidents de Tesla depuis mars. La question a fait l'objet d'une nouvelle attention après l'accident incendiaire du 17 avril au Texas qui a tué deux hommes et dans lequel la police avait dit croire que personne n'était au volant. Mais Tesla avait réfuté les affirmations de la police, affirmant qu'un volant déformé suggérait que quelqu'un était probablement à la place du conducteur. Les batteries de la voiture, achetée d'occasion sur eBay en janvier, ont brûlé pendant quatre heures après.

Dans le cas de l'accident du Texas, le National Transportation Safety Board (NSTB) a déclaré en mai que les tests suggéraient que le système de pilotage automatique du véhicule n'était "pas disponible" sur la route où l'accident s'est produit. L’agence a critiqué les mesures de protection du système Autopilot de Tesla, qui permet aux conducteurs de ne pas toucher le volant pendant de longues périodes.

L’accident du 17 avril qui a tué deux hommes au Texas

Un autre accident mortel survenu le 5 mai près de Los Angeles fait également l'objet d'une enquête de l'agence. Dans ce cas, le conducteur avait publié sur les médias sociaux des images de lui-même en train de "conduire" sa Tesla sans avoir les mains sur le volant. La Tesla modèle 3 a percuté un camion Mack renversé, et le conducteur a été déclaré mort sur place. L'accident s'est produit sur l'autoroute 210 près de Fontana, en Californie, à environ 80 km à l'est de Los Angeles.

La semaine dernière, la présidente de la commission du commerce du Sénat, Maria Cantwell, a cité les accidents de Tesla pour justifier le vote de la commission contre l'adoption d'une réglementation visant à accélérer l'adoption des voitures à conduite autonome. « Il semble que toutes les deux semaines, nous entendons parler d'un nouveau véhicule qui s'est écrasé alors qu'il était sur Autopilot », a déclaré Cantwell.

Aucune loi aux États-Unis ne rend illégales les voitures entièrement autonomes

En ce qui concerne les lois régissant les véhicules autonomes, les États-Unis sont constitués d'un ensemble de législations qui varient d'un État à l'autre, mais actuellement, il n'existe aucun endroit où il est strictement illégal de posséder et d'utiliser un véhicule totalement autonome. Par ailleurs, un premier projet de loi américain sur les voitures autonomes, qui assouplirait de nombreux règlements fédéraux concernant les véhicules autonomes, avait reçu un appui du Congrès en décembre 2018.

S'il était adopté, le projet de loi permettrait aux fabricants de véhicules tels que Tesla et General Motors de développer et de commercialiser ces véhicules sans action réglementaire spécifique. En même temps, le projet de loi collecterait des informations sur les accidents au niveau fédéral pour les systèmes de conduite autonome de niveau 2 tels que le pilote automatique Tesla et la Super Cruise de GM.

Certains États ont toutefois adopté des lois les réglementant ou les autorisant, mais aucun État ne les a carrément interdites. À ce jour, vingt-neuf États, dont l'Alabama, l'Arkansas, la Californie, le Colorado, le Connecticut et la Floride ont adopté une législation relative aux véhicules autonomes.

Dans une lettre adressée le 1er février au ministère américain des Transports, le président du NTSB, Robert Sumwalt, a exhorté le ministère à promulguer des règlements régissant les systèmes d'aide à la conduite tels qu'Autopilot, ainsi que les essais de véhicules autonomes. La NHTSA s'est principalement appuyée sur des directives volontaires pour les véhicules, adoptant une approche non interventionniste afin de ne pas entraver le développement de nouvelles technologies de sécurité.

Sumwalt a déclaré que Tesla utilise les personnes qui ont acheté les voitures pour tester son logiciel de "conduite entièrement autonome" sur les routes publiques avec une surveillance ou des exigences de rapport limitées. « Étant donné que la NHTSA n'a mis en place aucune exigence, les fabricants peuvent faire rouler et tester des véhicules pratiquement n'importe où, même si l'emplacement dépasse les limites du système de contrôle du véhicule autonome (AV) », a écrit Sumwalt.

Il a ajouté : « Bien que Tesla inclue un avertissement selon lequel "les fonctionnalités actuellement activées nécessitent une supervision active du conducteur et ne rendent pas le véhicule autonome", l'approche non interventionniste de la NHTSA en matière de surveillance des tests des AV pose un risque potentiel pour les automobilistes et les autres usagers de la route ». Cependant, ces derniers mois, la NHTSA, qui a le pouvoir de réglementer les systèmes de conduite automatisée et de demander des rappels si nécessaire, semble avoir développé un intérêt renouvelé pour ces systèmes.

Malgré les milliards de dollars dépensés jusqu'à présent, les constructeurs automobiles n'ont pas encore produit de véhicule complètement autonome. Le système de Tesla a atteint le niveau 2 d'autonomie, selon l'échelle de la Society of Automotive Engineers, ce qui est encore loin de l'autonomie complète et nécessite la présence d'une personne sur le siège du conducteur qui peut prendre le contrôle si nécessaire.

La feuille de calcul de la NHTSA indique également que l’agence a ouvert six autres enquêtes sur six autres accidents impliquant des systèmes d'aide à la conduite, dont deux impliquant des véhicules Cadillac dans lesquels aucun blessé n'a été signalé. Les quatre autres comprennent deux accidents impliquant un Lexus RX450H 2012 et un Navya Arma 2017 dans lesquels aucun blessé n'a été signalé.

Les deux autres impliquent des véhicules Volvo XC90 de 2017, dont un véhicule d'essai à conduite autonome d'Uber Technologies qui a heurté et tué une femme en Arizona en 2018. Uber a pris une série de décisions de développement qui ont contribué à la cause de l'accident et a désactivé les systèmes de freinage automatique d'urgence dans le véhicule Volvo XC90, ont constaté les enquêteurs de sécurité.

Source : NHTSA

Et vous ?

Quel commentaire faites-vous du nombre d’accidents impliquant Autopilot de Tesla depuis cinq ans ?
Que pensez-vous de la progression de la conduite autonome ?

Voir aussi :

Deux personnes sont tuées dans un accident d'une voiture Tesla sans personne au volant, l'Autopilot serait activé, et les batteries de la voiture ne cessaient de raviver les flammes
Vous devez désormais être éveillé et assis dans le siège du conducteur pour conduire une Tesla, la caméra de l'habitacle veillera à cela lorsque Autopilot est activé
Autopilot de Tesla peut être "facilement" trompé pour fonctionner sans personne sur le siège du conducteur, selon Consumer Reports, mais « vous ne devriez pas essayer ça »
Une conductrice de secours d'Uber inculpée dans un accident de conduite autonome de 2018 qui a tué une femme, pour avoir été distraite dans les moments précédant l'accident mortel
Vous avez lu gratuitement 3 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Gluups
Membre expert https://www.developpez.com
Le 25/02/2025 à 16:00
Citation Envoyé par Mathis Lucas Voir le message
Mais la réalité a eu du mal à le rattraper. Tesla soutient toujours que son logiciel Full Self-Driving exige que les conducteurs soient engagés et prêts à prendre le contrôle à tout moment. Dans la pratique, les conducteurs comme Jonathan Challinger se déconnectent souvent lors que le système est activé.
Ah oui, compter sur l'autonomie totale d'un système dont le constructeur dit de se tenir sur ses gardes, c'est un peu comme se croire protégé en acceptant de participer massivement à des essais cliniques sur quelque chose qui modifie votre génome ... Tant de risque pour si peu de résultats, pourquoi ?

Au fil des ans, les logiciels Autopilot et le Full Self-Driving de Tesla ont été liés des centaines
d'accidents, dont certains étaient mortels, et ont été impliqués dans un grand nombre de poursuites judiciaires. Certains reprochent à Tesla de distribuer un logiciel en version bêta utilisable sur les routes publiques.
Finalement, appeler ce logiciel "Full Self Driving", amène à se demander ce qu'on entend au juste par là, puisque ce logiciel a été recalé très largement à l'examen du permis de conduire. Si je dois déléguer la conduite de ma voiture à quelqu'un, j'aime autant que ça ne soit pas un gamin qui n'a pas eu son permis.

En matière de conduite automatisée, il est facile de se représenter que les coûts ne sont pas du tout du même ordre entre un "proof of concept" (après tout le procès concerne les États Unis) et un produit abouti et fiable. Les termes de communication sont donc forcément au cœur du débat.

Les procédures qui ont abouti à autoriser la circulation sur la voie publique doivent probablement aussi être revues.
4  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 25/02/2025 à 16:35
Tout-à-fait. Que la pub fasse rêver et donne envie d'en savoir plus, normal, c'est son boulot.

Qu'on signe sans lire, c'est une autre affaire.

L'enseignement de l'esprit critique dans le pays peut aussi faire l'objet de questions, auxquelles le tribunal n'a pas forcément pour mission de répondre.

Le procès risque de s'orienter vers une question sur le droit de faire rêver sur quelque chose de pas vraiment abouti (ce que je n'invente pas puisque c'est Tesla qui l'a dit).

Voilà qui est susceptible de nous rappeler qu'il faut d'abord lire les petits caractères, et ensuite seulement reprendre la lecture au début.

Se faire une idée d'ensemble, et reprendre la lecture le lendemain.
4  0 
Avatar de AaâÂäÄàAaâÂäÄàAaâÂäÄ
Membre expérimenté https://www.developpez.com
Le 25/02/2025 à 17:58
Citation Envoyé par Gluups Voir le message
Qu'on signe sans lire, c'est une autre affaire.
Quand tu achètes une voiture, tu lis réellement l'entiereté des pages et de tout ce à quoi tu consens ?
Entre le crédit, l'application sur le cell, les formulaires sur le consentement à l'utilisation de tes données, la propriété du véhicule, les documents officiels... tu en as pour des heures à tout lire !
Et le pire, sans vraiment d'alternative si tu refuses les conditions.
4  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 26/02/2025 à 7:31
Citation Envoyé par Ryu2000 Voir le message
Personne ne lit les conditions d'utilisation et ce genre de textes.
C'est beaucoup trop chiant et long. Il faudrait être juriste pour supporter ça.
Non seulement pour supporter mais aussi pour comprendre. Certaines formulations relèvent du jargon juridique et sont peu/pas compréhensible pour le quidam.
4  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 13/12/2024 à 0:53
Tesla n'a jamais dit que l'autopilot était meilleur que l'humain.
Le conducteur doit toujours conduire, c'est lui le responsable, l'autopilot n'est qu'une petite aide.
Il vend un produit sous l'appellation "Full Self Driving". En français il me semble que ça pourrait donner un truc du genre "Conduite Entièrement Automatisée". Et tu payes un abonnement spécifiquement pour cette option.
Et même l'appellation Autopilot est complètement trompeuse.

Je veux pas chercher d'excuse à la meuf qui met son chat dans le micro-ondes mais faut pas oublier que 90% des gens sont des analphabètes technologiques.
3  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 26/02/2025 à 9:20
Citation Envoyé par Ryu2000 Voir le message
Ils utilisent le style juridique, pour éviter toute ambiguité, l'objectif c'est d'être clair et de minimiser les interprétations floues.
Non, leur but n'est pas d'être compréhensible par le quidam moyen, mais de se protéger au maximum en cas de problème avec leurs produits.
3  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 30/09/2024 à 14:30
Citation Envoyé par Jade Emy Voir le message
Au cours des essais, les conducteurs d'AMCI ont dû intervenir plus de 75 fois alors que le FSD était actif, soit en moyenne une fois tous les 21 kilomètres. Dans un cas, la Tesla Model 3 a grillé un feu rouge en ville pendant la nuit alors que les caméras avaient clairement détecté les feux. Dans une autre situation où la fonction FSD (Supervised) était activée sur une route rurale sinueuse, la voiture a franchi une double ligne jaune et s'est retrouvée dans le trafic venant en sens inverse, obligeant le conducteur à reprendre la main. Une autre mésaventure notable s'est produite en ville lorsque le véhicule électrique s'est arrêté alors que le feu était vert et que les voitures qui le précédaient accéléraient.
Je crois que je l'ai déjà écrit dans un autre post mais même un enfant de cinq sait qu'on doit s'arrêter au feu rouge.
C'est la plus élémentaire des règles.
Je ne comprend pas qu'on puisse autoriser le commerce d'engins aussi dangereux.

Citation Envoyé par Jade Emy Voir le message
Ce n'est pas la première fois que les tests indépendants révèlent les "erreurs occasionnelles dangereuses" des systèmes ADAS de Tesla. Geoffrey Fowler, un chroniqueur technologique, a également partagé ses inquiétudes après avoir testé la mise à jour du logiciel Autopilot de Tesla, déployée lors du plus grand rappel de l'histoire de l'entreprise. Geoffrey Fowler a constaté que la Tesla Model Y, après la mise à jour, continue de prendre des initiatives risquées, telles que franchir des panneaux d'arrêt sans ralentir. Il souligne : "En testant le système de rappel Autopilot de Tesla, j'ai un sentiment d'insécurité persistant que vous devriez partager "
Cela fait 10 ans que le problème existe et que personne ne fait rien.
Quand on est bourré de fric comme Musk, c'est apparemment facile acheter/corrompre les bonnes personnes.

Citation Envoyé par Jade Emy Voir le message
Plus que la défaillance du système en lui-même, l'approche marketing du constructeur automobile est également susceptible d'inciter les conducteurs à ne pas en tenir compte, ce qui conduit aux multiples désastres sur les routes. Tesla définit son système Autopilot d' "ensemble de fonctionnalités d'assistance conducteur destinées à rendre la conduite plus sûre et sereine et qui ne sont en aucun cas conçues pour rendre le véhicule entièrement autonome ou pour remplacer le conducteur". Pourtant les véhicules Tesla intègrent la possibilité au conducteur de jouer ou de visionner des contenus vidéo pendant que la voiture est en mouvement. Cela renforce la confusion autour du terme Autopilot et est encore plus susceptible d’amener les conducteurs à penser que le véhicule est entièrement autonome.
.
C'est de la tromperie, purement et simplement.
Cette publicité mensongère fait malheureusement beaucoup de victimes.

Citation Envoyé par Jade Emy Voir le message
En 2023, les statistiques de la NHTSA sur le bilan d'Autopilot et du Full Self-Driving de Tesla inquiétaient. Entre juillet 2021 et le 15 mai 2022, le système Autopilot de Tesla était à l'origine trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés. Sur le marché américain, les données de l'agence américaine énuméraient au moins 17 incidents mortels, dont 11 depuis mai 2023, et cinq blessés graves. Au total, le nombre de décès liés à Tesla au 12 juin 2023 dans le monde est de 393. Le nombre de décès directement associés au logiciel Autopilot est de 33
.
Encore une fois, quand on voit le nombre de morts provoqué par Tesla et son système, on se demande pourquoi il est toujours autorisé, et même comment il a pu être autorisé au départ.
Et comme déjà évoqué, cela fait 10 ans que ça dure.
Je ne sais pas comment fait Musk pour dormir tranquille quand on voit le nombre morts qu'il a sur la conscience.
2  0 
Avatar de micka132
Expert confirmé https://www.developpez.com
Le 10/12/2024 à 19:11
Je comprends toujours pas comment on peut, à ce stade technologique, faire confiance au pilotage automatique de voiture à grande vitesse.
Peut être que c'est parce que je suis biaisé en étant "vaguement du milieu", mais pour moi c'est à peu près du même niveau que les gens qui utilisent le micro-onde pour sécher son animal.
2  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 27/09/2024 à 15:45


Citation Envoyé par Jade Emy Voir le message
Le Full Self-Driving de Tesla commet des "erreurs occasionnelles dangereuses" : lors d'un test sur plus de 1600 kilomètres, les conducteurs ont dû intervenir plus de 75 fois alors que le FSD était actif.

Le système avancé d'aide à la conduite entièrement autonome supervisé (Full Self-Driving supervised) de Tesla a été testé sur plus de 1600 kilomètres par AMCI, un cabinet de recherche automobile indépendant. Au cours du processus d'examen, les conducteurs ont dû intervenir plus de 75 fois. Le système Full Self-Driving (FSD) supervisé peut fonctionner parfaitement des dizaines de fois dans le même scénario, jusqu'à ce qu'il se dérègle de manière inattendue et nécessite l'intervention du conducteur.
1600 / 75 = 21,333... Il me semble que celà remet en cause une "idée reçue" qu'on ne pouvait pas contredire sous peine d'excommunication , comme quoi il y aura moins d'accidents fait par les "voitures autonomes" que celles conduite par un humain.

Citation Envoyé par Jade Emy Voir le message
Tesla et son PDG au franc-parler, Elon Musk
A ce niveau là, on ne peut pas dire que c'est du franc-parler. C'est plutôt de mensonge éhonté qu'il faudrait parler.

Citation Envoyé par Jade Emy Voir le message
promettent depuis longtemps des voitures autonomes, mais nous n'en sommes pas encore là. Bien que les deux systèmes avancés d'aide à la conduite (ADAS) disponibles s'appellent Autopilot et Full Self-Driving (Supervised), ils ne sont toujours pas classés comme des systèmes de niveau 3 sur le tableau des niveaux d'autonomie de conduite de la SAE, ce qui signifie que le conducteur doit toujours être attentif et prêt à reprendre le contrôle à tout moment.
Pour être plus précis, AUCUNE avançée significative n'a été faite par Tesla, depuis longtemps (Pratiquement 10 ans). Ah si, on peut jouer à des jeux vidéo dans une Tesla maintenant. Waouw, ça c'est de bombe.

Citation Envoyé par Jade Emy Voir le message
Si le FSD peut fonctionner parfaitement dans la majorité des situations, ce rapport montre qu'il peut parfois "manquer sa cible", et ce sont ces erreurs occasionnelles qui peuvent devenir dangereuses. C'est ce qu'a également conclu AMCI Testing, un cabinet de recherche indépendant, après avoir récemment testé le FSD de Tesla sur plus de 1 600 kilomètres de rues urbaines, de routes rurales à deux voies, de routes de montagne et d'autoroutes. L'entreprise a utilisé une Tesla Model 3 Performance 2024 équipée du matériel le plus récent du constructeur automobile et exécutant les dernières itérations logicielles, 12.5.1 et 12.5.3.
Heu, je ne veux pas remettre en doute le paragraphe ci-dessus écrit par Jade Emy, mais quant même, il faut dire les choses clairement :

  • Si le FSD peut fonctionner parfaitement dans la majorité des situations, c'est tout simplement le contraire: Le FSD ne fonctionne "parfaitement" que dans une minorité de situations. C'est à dire sur autoroute avec des belles lignes bien blanches, je mets le "parfaitement" entre des guillemets, car il faut retirer l'entrée et la sortie de ces autoroutes.
  • ce rapport montre qu'il peut parfois (tout les 21km et parfois ne vont pas très bien ensemble), "manquer sa cible" se planter royalement, et ce sont ces erreurs occasionnelles (encore une fois, tous les 21km, je ne vois pas très bien le lien avec le mot "occasionnelles"), qui peuvent devenir dangereuses mortels.


Citation Envoyé par Jade Emy Voir le message
Au cours des essais, les conducteurs d'AMCI ont dû intervenir plus de 75 fois alors que le FSD était actif, soit en moyenne une fois tous les 21 kilomètres. Dans un cas, la Tesla Model 3 a grillé un feu rouge en ville pendant la nuit alors que les caméras avaient clairement détecté les feux. Dans une autre situation où la fonction FSD (Supervised) était activée sur une route rurale sinueuse, la voiture a franchi une double ligne jaune et s'est retrouvée dans le trafic venant en sens inverse, obligeant le conducteur à reprendre la main. Une autre mésaventure notable s'est produite en ville lorsque le véhicule électrique s'est arrêté alors que le feu était vert et que les voitures qui le précédaient accéléraient.
Oh, que ça, de petits incidents sans importance donc. Des broutilles quoi. Rien de bien méchant.

Citation Envoyé par Jade Emy Voir le message
Voici comment Guy Mangiamele, directeur des essais de l'AMCI, résume la situation : "Ce qui est le plus déconcertant et le plus imprévisible, c'est que vous pouvez voir la FSD négocier avec succès un scénario spécifique à plusieurs reprises - souvent sur le même tronçon de route ou à la même intersection - pour la voir échouer de manière inexplicable la fois suivante".
C'est le plus inquiètant, car cela veut dire que pour une même situation, on a un résultat différent.
Comment expliquer ce phènomène ?
Est-il possible de savoir Pourquoi ce phénomène ?

Parce que si je freine avec une voiture normale, elle freine.

Citation Envoyé par Jade Emy Voir le message
"Avec tous les systèmes de conduite augmentée mains libres, et plus encore avec les véhicules autonomes sans conducteur, la confiance entre la technologie et le public est compacte", a déclaré David Stokols, PDG de la société mère d'AMCI Testing, AMCI Global. "S'approcher de l'infaillibilité, mais ne pas y parvenir, crée un problème de complaisance insidieux et dangereux pour l'opérateur, comme le prouvent les résultats des tests", a-t-il ajouté.
Quant je lis: S'approcher de l'infaillibilité, j'ai mal au yeux. On parle ici d'une bagnole autonome de niveau 2 (à peine), on est très loin de l'infaillibilité. C'est une tournure de phrase faite pour minimiser les problèmes.

Citation Envoyé par Jade Emy Voir le message
Ce n'est pas la première fois que les tests indépendants révèlent les "erreurs occasionnelles dangereuses" des systèmes ADAS de Tesla.
Pourrait on de temps en temps, parler franchement et dire la simple vérité ? Parce que ces "erreurs occasionnelles dangereuses" se produisent tout les 21km. C'est la 3ème fois dans le même article qu'on est dans le mensonge pure et simple. Ah, ce stade, ce n'est plus une erreur, c'est une volonté de faire passer des vessives pour des lanternes...

Moi ? Je n'ai pas envie d'en lire plus, il y a déjà bien assez d'âneries et de contradictions dans ce que j'ai lu jusqu'ici. Et je m'excuse d'avance, mon intention n'est pas de blâmer Jade Emy. Je fais des erreurs, nous faisons tous des erreurs, mais là, j'ai comme l'impression que l'article est une simple recopie (ou retransmission), faite sans recul, et sans réelle analyse de l'article en question.

Je comprend bien qu'il faut alimenter le site, et je suis content généralement de la manière dont les choses se passent, mais pas avec ce genre d'article.

BàV et Peace & Love.
1  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 19/12/2024 à 21:46
Citation Envoyé par popo Voir le message
Et dire qu'il a la prétention d'emmener l'homme sur Mars en toute sécurité avec ces fusées alors qu'il n'arrive pas à faire une voiture fiable.
Note bien, si il veut faire circuler des trucs dangereux, je préfère qu'il le fasse près de Mars que devant chez moi

Alors après, les Martiens peuvent trouver ça égoïste de ma part.
1  0