IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Waymo rappelle et met à jour son logiciel de robotaxi après que deux de ses voitures ont percuté la même dépanneuse
Il s'agit du premier rappel de la filiale de Google

Le , par Stéphane le calme

59PARTAGES

7  0 
Waymo rappelle et met à jour son logiciel de robotaxi après que deux de ses voitures ont percuté la même dépanneuse,
il s'agit du premier rappel de la filiale de Google

Waymo, la filiale de Google spécialisée dans la conduite autonome, a annoncé le rappel volontaire du logiciel qui équipe sa flotte de robotaxis après que deux véhicules ont percuté la même camionnette remorquée à Phoenix, en Arizona, en décembre. Il s'agit du premier rappel de l'entreprise.

Mauricio Peña, responsable de la sécurité chez Waymo, a qualifié les accidents de « mineurs » et a précisé qu'aucun des deux véhicules ne transportait de passagers à ce moment-là. Il n'y a pas eu de blessés. Il a également déclaré que le service de covoiturage de Waymo - qui est en service à Phoenix, San Francisco, Los Angeles et Austin - « n'est pas et n'a pas été interrompu par cette mise à jour ».


C'est dans un billet de blog que le responsable de la sécurité chez Waymo a annoncé la nouvelle, visiblement prise de concert avec la NHTSA :

Plus tôt dans la journée, nous avons volontairement déposé un rapport de rappel auprès de la National Highway Traffic Safety Administration (NHTSA) pour un logiciel qui équipait auparavant notre flotte. Nous avons choisi de le faire après consultation de la NHTSA et notre propre examen interne de deux incidents qui se sont produits dans un scénario rare à Phoenix le 11 décembre 2023, qui n'ont fait aucun blessé et n'ont causé que des dommages mineurs aux véhicules. L'ensemble de notre flotte a été mis à jour avec un logiciel pour résoudre ce problème rare entre le 20 décembre 2023 et le 12 janvier 2024. Notre service de transport en commun n'est pas et n'a pas été interrompu par cette mise à jour.

Pourquoi un rappel volontaire ?

En règle générale, un rappel sert à informer le propriétaire d'un véhicule de la nécessité d'une réparation. Dans notre cas, nous avons déposé un avis de rappel, qui sert à informer le public d'une mise à jour logicielle que nous avons commencé à déployer dans notre flotte en décembre 2023. Ce rappel volontaire montre à quel point nous prenons au sérieux notre responsabilité de déployer notre technologie en toute sécurité et de communiquer de manière transparente avec le public. Des centaines de rapports de rappel sont soumis chaque année à la NHTSA et nous respectons l'importance de ce cadre de sécurité routière ainsi que nos obligations légales en la matière.
Ce rappel intervient à un moment où les voitures autonomes font l'objet d'un examen approfondi à la suite d'une série d'accidents et de controverses très médiatisés. Le week-end dernier, un véhicule autonome de Waymo a été vandalisé et brûlé par une foule de personnes à San Francisco. Pour plus de contexte, le 10 février, un véhicule autonome de Waymo s'est faufilé dans les rues de Chinatown alors que les habitants célébraient le jour du Nouvel An chinois. Dans la foulée, certains fêtards ont attaqué le véhicule, l'ont vandalisé, ont brisé les vitres et y ont finalement mis le feu. Selon les résidents, ces rues sont généralement fermées à la circulation lors de la célébration de la fête du Nouvel An chinois, une « règle » qui est bien connue.

« La plupart des automobilistes savent qu'ils doivent éviter le quartier chinois pendant les fêtes du Nouvel An lunaire. Mais l'ordinateur ne le comprend pas », a expliqué Aaron Peskin, président du conseil des superviseurs de San Francisco, qui a appelé à une réglementation plus stricte des véhicules autonomes. La destruction du robotaxi de Waymo fait suite à des accidents impliquant ces véhicules. Par exemple, au début du mois, un véhicule autonome de Waymo a heurté un cycliste. En octobre, un véhicule autonome, fabriqué par Cruise, propriété de GM, a heurté et traîné un piéton sur une distance de 6 mètres. D'ailleurs, Cruise a décidé de suspendre ses activités pour faire face aux retombées. Il a embauché son premier responsable de la sécurité cette semaine.


Le contexte

Les accidents qui ont entraîné le rappel se sont tous deux produits le 11 décembre. Peña a écrit qu'un des véhicules de Waymo est tombé sur une camionnette orientée vers l'arrière qui était « incorrectement remorquée ». La camionnette était « constamment inclinée à travers une voie de virage centrale et une voie de circulation ». Peña a déclaré que le robotaxi « a incorrectement prédit le mouvement futur du véhicule remorqué » en raison de ce décalage entre l'orientation de la dépanneuse et celle de la camionnette, et qu'il est entré en contact avec lui.

La dépanneuse ne s'est pas arrêtée pour autant, selon Peña, et quelques minutes plus tard, un autre robotaxi Waymo est entré en contact avec la même camionnette qui était remorquée. La dépanneuse s'est arrêtée après le deuxième accident.

Waymo a déclaré avoir contacté la police de Phoenix et le département de la sécurité publique de l'Arizona le jour des accidents, et en avoir parlé à la National Highway Traffic Safety Administration le 15 décembre. L'entreprise et le personnel de la NHTSA ont eu « quatre conversations ultérieures » sur les accidents, avant que Waymo ne décide de rappeler volontairement le logiciel qui était utilisé à l'époque.

Ce rappel pourrait accroître la pression publique sur Waymo, alors que les villes, les citoyens et les agences gouvernementales examinent de près les promesses des flottes de véhicules autonomes. Les robotsaxis font déjà face à des réactions négatives à Los Angeles, notamment de la part du syndicat des Teamsters. Le département californien des véhicules à moteur enquête déjà sur l'accident susmentionné de Waymo avec un cycliste. Le ministère de la Justice et la Securities and Exchange Commission, entre autres, enquêtent sur la manière dont Cruise a géré son accident d'octobre.

La technologie de conduite autonome, loin d'être aussi "sophistiquée" que l'industrie le prétend

D'après de nombreux critiques, les robotaxis de Waymo et de Cruise mettent en danger les autres usagers de la route. Ces critiques estiment que les déclarations selon lesquelles ces véhicules sont plus sûrs que les conducteurs humains sont fausses. Ils citent des exemples pour soutenir leur position, comme celui-ci : après l'incident de Chinatown, les vidéos des robotaxis de Waymo ont proliféré sur la toile. L'une d'elles montrait un camion de pompiers, en route pour une urgence, temporairement coincé derrière un robotaxi de Waymo, qui ne s'était pas complètement arrêté pour laisser passer les pompiers.


Un porte-parole des pompiers a confirmé que le véhicule de Waymo avait partiellement bloqué la route. Certains observateurs ont vu dans cet incident le signe d'un ressentiment croissant à l'égard des voitures autonomes et d'autres technologies d'IA. Missy Cummings, directrice du centre Autonomy and Robotics de l'université George Mason et ancienne conseillère auprès des organismes de réglementation de la sécurité routière aux États-Unis, a affirmé dans une déclaration : « nous voyons les gens atteindre un point d'ébullition à cause d'une technologie dont ils ne veulent pas et qui n'améliore pas leur vie ».

Par contre, Aaron Peskin, président du conseil des superviseurs de San Francisco, estime qu'il ne s'agissait peut-être pas d'un acte anti-technologie, mais plutôt d'un « simple méfait criminel commis par une bande de voyous ». Le sénateur de l'État de Californie Dave Cortese, qui a proposé une loi visant à donner aux autorités locales plus de pouvoir pour réglementer les voitures autonomes, a déclaré que le fait que la voiture ait roulé dans une zone bondée pendant un feu d'artifice soulignait les lacunes de la technologie : « ce qui devient de plus en plus clair, c'est que la technologie des voitures autonomes n'est pas aussi sophistiquée que l'industrie voudrait nous le faire croire ».

Tesla, dont les véhicules électriques embarquent un système avancé d'aide à la conduite (ADAS) appelé Autopilot, fait régulièrement l'objet d'accusations selon lesquelles sa technologie n'est pas sûre et met les utilisateurs en danger. Par exemple, par le passé, plusieurs rapports ont signalé qu'à de nombreuses reprises, des véhicules Tesla pilotés par l'Autopilot ont percuté des voitures de police malgré le fait que leurs gyrophares étaient allumés. Certains critiques, notamment des législateurs, estiment que le déploiement de l'Autopilot est une expérience sur la voie publique qui menace la vie de tous les usagers.

Source : Waymo

Et vous ?

Faites-vous confiance aux voitures sans chauffeur? Accepteriez-vous de monter dans un robotaxi Waymo ou d’une autre marque?
Comment expliquez-vous les deux accidents impliquant les voitures Waymo? Est-ce un problème de logiciel, de réglementation, de comportement humain ou autre?
Quelles sont les mesures que Waymo devrait prendre pour éviter que de tels incidents ne se reproduisent? Pensez-vous que le rappel et la mise à jour du logiciel sont suffisants?
Quel est l’avenir de la mobilité autonome? Quels sont les enjeux économiques, sociaux et environnementaux liés à cette technologie?
Vous avez lu gratuitement 3 625 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 21/06/2024 à 11:01
En conclusion :

Les véhicules autonomes sont plus sûrs en ligne droite, avec une bonne visibilité, sur une chaussé sèche et avec une bonne adhérence !

Pour tout le reste, l'humain reste encore le conducteur le plus fiable...

C'est digne d'un trollidi !!!
8  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 09/02/2026 à 14:53
Bref, Waymo est aussi dangereux que Tesla.

Pour montrer à certain (que ne nommerai pas et qui mettent Musk sur un piédestal) que mes reproches ne concerne pas uniquement Tesla.
Même constat, même remarques.
Si Waymo n'est pas fiable, il faut les retirer de la circulation.
6  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 16/01/2026 à 14:48
Citation Envoyé par totozor Voir le message
J'ai regardé la vidéo, je vois deux choses :
Un passager qui sort d'un voiture à l'arret sur les rail d'un tram.
Une voiture qui avance sur des rails de tram, qui s'arrete, qui croise un tram sur la voie d'à coté, puis qui a l'air de vouloir quitter les rails mais se retrouve bloquée par un terreplein.

Ma conclusion est simple : soit l'article ne parle pas de cet évènement soit il est largement exagéré.
Ma deuxième conclusion est simple : la voiture est plus bête que le conducteur moyen qui se dirait "tant pis j'avance jusqu'à ce que je puisse reprendre ma voie" mais elle n'a mis personne en danger.
Il semble que vous commentiez sans même avoir pris la peine de visionner la video!!!

L'illustration montre un tram qui vient face à la voiture autonome MAIS... la vidéo montre que le tram vient de l'arrière de la voiture!!!! La voiture est donc bien sur les rails du tram et pas sur une autre voie

Et si le tram en question ne s'était pas arrêté semble-t-il à un arrêt pour faire monter/descendre des passagers, il y avait bel et bien risque d'accident d'autant plus que le taxi autonome est à l'arrêt et que clairement il ne sait pas comment s'en sortir de la situation... Le passager a eu le bon réflexe!
6  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 09/02/2026 à 12:10
Ce qu'il y a de sidérant est que l'on a des exemples tous les jours qui prouvent que l'IA relève de la farce (voir de l'escroquerie), mais des gogos continuent à y "investir" des milliards...

Le plus drôle est que google n'a rien inventé: Au 18ème siècle a été présenté le "Turc, joueur d'échec", un automate qui jouait aux échecs et gagnait la plupart de ses parties jouées contre des humains. Il a été présenté aussi bien dans les cours royales européennes qu'aux USA...

Le "Turc joueur d'échec" se présentait sous la forme d'un meuble dans lequel on pouvait voir le mécanisme en oeuvre avec sur le meuble un mannequin ayant l'aspect d'un turc de la période ottomane et bien sûr le mécanisme se mettait en mouvement quand le "Turc" déplaçait une pièce de l'échiquier....

Il a fallu attendre 1820 (plus d'un demi-siècle) pour découvrir la supercherie: Derrière le mécanisme, il y avait une cache dans le meuble où se tenait le vrai joueur... Un être humain de petite taille bien réel qui n'avait rien d'un automate... L'IA du 18ème siècle!
7  2 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 27/06/2024 à 2:59
La vidéo de démo est rigolote. Même si elle est sans doute un peu orientée.

Sinon, pour les voitures comme pour l'IA, je ne comprends pas le virage technologique qu'on est en train de prendre.
On est en train d'essayer de tordre des outils pour leur donner une nouvelle fonctionnalité. Bah non, on visse pas des écrous avec un marteau et on enfonce pas des pointes avec une clef à molette. Enfin si, on peut le faire mais en plus de pas être pratique, c'est complètement con.
Un véhicule qui suit un itinéraire prédéfini roule sur des rails : c'est un train, un métro ou un tramway mais pas une voiture. La preuve, ça marche pas.
Un ordinateur n'est pas fait pour réfléchir, il est fait pour additionner des bits. La preuve, il faut des quantités d'énergies colossales pour donner l'illusion qu'il réfléchit. Et ça marche pas.
4  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 10/02/2026 à 19:27
Citation Envoyé par OrthodoxWindows Voir le message
Je trouve ça trompeur de prendre l'exemple du Turc joueur d'échec pour désigner toute IA actuelle, en généralisant à partir des robotaxis Waymo. Il y a quelque chose qui le prouve : aujourd'hui, n'importe quel ordinateur est capable de jouer aux échec, et même de battre n'importe quel humain. On n'est donc pas au même niveau que le Turc joueur d'échec...
Je trouve au contraire que c'est un très bon exemple: Waymo fait croire que les voitures peuvent conduire toutes seules alors qu'il y a une personne qui les pilote à distance, un peu comme le joueur d'échec caché dans la boite du Turc Mécanique.
4  0 
Avatar de Guesset
Expert confirmé https://www.developpez.com
Le 11/02/2026 à 11:12
Bonjour,

Ce n'est pas scandaleux ?

Les voitures autonomes sont plus sûres que les humains (dixit Waymo) mais supervisées par des humains dans les situations difficiles donc à risque.

Le discours reste cohérent : quand l'une d'entre elles tuera quelqu'un, Waymo pourra toujours incriminer l'humain Philippin qui, peut-être, n'a même pas son permis

Nous vivons une époque formidable !

Salutations
4  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 11/02/2026 à 15:07
Citation Envoyé par Artemus24 Voir le message
@ Guesset : vous l'avez dit, la voiture est supervisée par un humain, ce n'est pas l'humain qui la conduit à distance.
Si ces voitures occasionnes bien moins d'accidents, je suis preneur. Le risque zéro n'existe pas.
Ce qu'il fallait comprendre dans le commentaire de @Guesset, c'est que lorsque la voiture se retrouve dans une situation qu'elle ne sais pas gérer, elle demande à un humain de prendre une décision, mais pas à l'humain qui est dans la voiture mais à un autre quelque part aux Philippines. Il y a très peu de chance que le philippin réagisse à tmp

Citation Envoyé par Artemus24 Voir le message
Je ne comprends pas votre rejet pour ces nouvelles technologies.
Personne ne vous demande d'être le passager de l'une ces voitures Waymo.
Il y a d'autres moyens de transports, surtout en ville, qui sont à la disposition de tout le monde.

Dans votre inconscient, vous voyez cela comme une voiture tueuse, non ?
Oui, il y a d'autres transport mais ils utilisent les mêmes routes.
Tu ne sera pas plus en sécurité dans un bus si la voiture pilotée par l'IA fait n'importe quoi et percute le bus.
4  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 01/03/2024 à 13:31
Citation Envoyé par Patrick Ruiz Voir le message
Les voitures autonomes sont-elles vraiment plus sûres que les conducteurs humains, ou est-ce une simple hypothèse ?
Beaucoup de choses se cachent derrière plus sûr:
Oui une voiture autonome ne sera jamais ivre au volant
Oui une voiture autonome ne sera jamais fatigué au volant
Oui une voiture autonome ne sera jamais en train de réfléchir à autre chose qu'à sa conduite
Mais
Non une voiture autonome n'est pas (encore) capable de prendre une décision humainement naturelle dans une situation exceptionnelle
Donc une voiture autonome est peut être statistiquement plus sûre qu'un humain mais il y a des situations où elle ne l'est pas et il n'est, de mon point de vue, pas acceptable qu'une voiture autonome ne soit pas capable d'éviter un accident qu'un conducteur moyen est capable d'éviter.

Donc une voiture autonome n'est pas plus sûre que le chauffeur moyen en situation inhabituelle.

Je suis aussi curieux de savoir comment une voiture réagit si elle conduit dans un environnement qui n'est pas celui de son entrainement.
Par exemple : je ne serais pas surpris qu'une voiture autonome belge n'arrive jamais à quitter le périphérique toulousain quand tout le monde quitte le boulot ou qu'une voiture autonome toulousaine provoque un accident en Belgique parce qu'elle s'impose pendant une tirette (passage de 2 voies à 1 seule)
Selon vous, les voitures autonomes peuvent-elles réduire le nombre d’accidents de la route de manière significative ?
Oui mais elles augmenteront aussi certains types d'accidents.
Les voitures autonomes peuvent-elles être programmées pour prendre des décisions éthiques en cas d’accident ?
L'éthique est une notion culturelle donc si elles étaient capable de le faire elles devraient intégrer, au minimum, un paramètre de localisation.
3  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 28/06/2024 à 0:54
Citation Envoyé par smobydick Voir le message
An 85% reduction or 6.8 times lower crash rate involving any injury, from minor to severe and fatal cases (0.41 incidence per million miles for the Waymo Driver vs 2.78 for the human benchmark)

A 57% reduction or 2.3 times lower police-reported crash rate (2.1 incidence per million miles for the Waymo Driver vs. 4.85 for the human benchmark)

7.1 million miles, 3 minor injuries: Waymo’s safety data looks good
Waymo says its cars cause injuries six times less often than human drivers.

https://arstechnica.com/cars/2023/12...re-data-shows/

Où sont tes stats qui prouvent le contraire qu'on rigole ?
Des stats comme ça, je t'en crées de mon chapeau quand on veut.

Là, tu sors des stats de Waymo pour des voitures... Waymo!

Et puis au passage, il ne faut pas t'arrêter à la première page de ton article; tu en as une deuxième, qui se termine par ça:
Seven million driverless miles of real-world driving gives us some information about the safety of Waymo vehicles. But it’s not enough to answer the most important safety question: whether Waymo’s technology makes fatal crashes less likely.

This is a hard question to answer because fatal crashes only occur on the road about once every 100 million miles. This means that we’re going to need to test driverless vehicles for hundreds of millions—if not billions—of miles before we can be sure whether they cause fewer fatal crashes than human drivers.

You might think you could extrapolate from statistics about non-fatal crashes—and so far, those numbers look pretty good for Waymo. But Zuby told me that it’s not that simple.

“When you look at reports of fatal crashes, a lot of them are just completely bizarre,” Zuby told me. Moreover, he said, AVs may have dramatically different failure modes than human drivers. Waymo’s technology helps eliminate situations like drunk driving that are responsible for a lot of fatal crashes. But the technology might have other failure modes that its designers haven't anticipated.

So that leaves us in a somewhat uncomfortable place: All the data so far suggests that Waymo vehicles are making roads in San Francisco and Phoenix at least a little bit safer. And Waymo's case gets stronger with every million miles it completes. But it’s going to be another couple of years—if not longer—before we can be confident about whether Waymo vehicles are helping to reduce the risk of fatal crashes.
On peut aussi demander à Microsoft des stats sur les avantages de ses produits, à Amazon des stats sur les avantages de ses produits, à OpenAI des stats sur les avantages de ses produits... Il faudrait qu'ils soient bien stupides pour fournir des stats à leur désavantage

Sinon, je suis certain que Monsanto/Bayer a aussi de belles statistiques sur la santé des gens qui ne consomment que leurs OGM.

Regarde le nombre de logiciels qui ne sont pas boggués, autour de toi, pour comprendre qu'il y a un vrai problème dans l'industrie informatique en général.

Ça, c'était ce que disait Lucky Strike sur ses produits en 1920, sur les bénéfices de ses cigarettes pour la santé par rapport aux autres marques.

Ça, c'était une tentative de Waymo d'utiliser des influenceurs pour faire de la pub sur la sécurité de ses voitures autonomes, mais sans dire que c'était une vidéo sponsorisée. La partie sur les youtubers commence autour de 8:11 minutes.
3  0