IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Waymo rappelle et met à jour son logiciel de robotaxi après que deux de ses voitures ont percuté la même dépanneuse
Il s'agit du premier rappel de la filiale de Google

Le , par Stéphane le calme

3PARTAGES

7  0 
Waymo, la filiale de Google spécialisée dans la conduite autonome, a annoncé le rappel volontaire du logiciel qui équipe sa flotte de robotaxis après que deux véhicules ont percuté la même camionnette remorquée à Phoenix, en Arizona, en décembre. Il s'agit du premier rappel de l'entreprise.

Mauricio Peña, responsable de la sécurité chez Waymo, a qualifié les accidents de « mineurs » et a précisé qu'aucun des deux véhicules ne transportait de passagers à ce moment-là. Il n'y a pas eu de blessés. Il a également déclaré que le service de covoiturage de Waymo - qui est en service à Phoenix, San Francisco, Los Angeles et Austin - « n'est pas et n'a pas été interrompu par cette mise à jour ».


C'est dans un billet de blog que le responsable de la sécurité chez Waymo a annoncé la nouvelle, visiblement prise de concert avec la NHTSA :

Plus tôt dans la journée, nous avons volontairement déposé un rapport de rappel auprès de la National Highway Traffic Safety Administration (NHTSA) pour un logiciel qui équipait auparavant notre flotte. Nous avons choisi de le faire après consultation de la NHTSA et notre propre examen interne de deux incidents qui se sont produits dans un scénario rare à Phoenix le 11 décembre 2023, qui n'ont fait aucun blessé et n'ont causé que des dommages mineurs aux véhicules. L'ensemble de notre flotte a été mis à jour avec un logiciel pour résoudre ce problème rare entre le 20 décembre 2023 et le 12 janvier 2024. Notre service de transport en commun n'est pas et n'a pas été interrompu par cette mise à jour.

Pourquoi un rappel volontaire ?

En règle générale, un rappel sert à informer le propriétaire d'un véhicule de la nécessité d'une réparation. Dans notre cas, nous avons déposé un avis de rappel, qui sert à informer le public d'une mise à jour logicielle que nous avons commencé à déployer dans notre flotte en décembre 2023. Ce rappel volontaire montre à quel point nous prenons au sérieux notre responsabilité de déployer notre technologie en toute sécurité et de communiquer de manière transparente avec le public. Des centaines de rapports de rappel sont soumis chaque année à la NHTSA et nous respectons l'importance de ce cadre de sécurité routière ainsi que nos obligations légales en la matière.
Ce rappel intervient à un moment où les voitures autonomes font l'objet d'un examen approfondi à la suite d'une série d'accidents et de controverses très médiatisés. Le week-end dernier, un véhicule autonome de Waymo a été vandalisé et brûlé par une foule de personnes à San Francisco. Pour plus de contexte, le 10 février, un véhicule autonome de Waymo s'est faufilé dans les rues de Chinatown alors que les habitants célébraient le jour du Nouvel An chinois. Dans la foulée, certains fêtards ont attaqué le véhicule, l'ont vandalisé, ont brisé les vitres et y ont finalement mis le feu. Selon les résidents, ces rues sont généralement fermées à la circulation lors de la célébration de la fête du Nouvel An chinois, une « règle » qui est bien connue.

« La plupart des automobilistes savent qu'ils doivent éviter le quartier chinois pendant les fêtes du Nouvel An lunaire. Mais l'ordinateur ne le comprend pas », a expliqué Aaron Peskin, président du conseil des superviseurs de San Francisco, qui a appelé à une réglementation plus stricte des véhicules autonomes. La destruction du robotaxi de Waymo fait suite à des accidents impliquant ces véhicules. Par exemple, au début du mois, un véhicule autonome de Waymo a heurté un cycliste. En octobre, un véhicule autonome, fabriqué par Cruise, propriété de GM, a heurté et traîné un piéton sur une distance de 6 mètres. D'ailleurs, Cruise a décidé de suspendre ses activités pour faire face aux retombées. Il a embauché son premier responsable de la sécurité cette semaine.


Le contexte

Les accidents qui ont entraîné le rappel se sont tous deux produits le 11 décembre. Peña a écrit qu'un des véhicules de Waymo est tombé sur une camionnette orientée vers l'arrière qui était « incorrectement remorquée ». La camionnette était « constamment inclinée à travers une voie de virage centrale et une voie de circulation ». Peña a déclaré que le robotaxi « a incorrectement prédit le mouvement futur du véhicule remorqué » en raison de ce décalage entre l'orientation de la dépanneuse et celle de la camionnette, et qu'il est entré en contact avec lui.

La dépanneuse ne s'est pas arrêtée pour autant, selon Peña, et quelques minutes plus tard, un autre robotaxi Waymo est entré en contact avec la même camionnette qui était remorquée. La dépanneuse s'est arrêtée après le deuxième accident.

Waymo a déclaré avoir contacté la police de Phoenix et le département de la sécurité publique de l'Arizona le jour des accidents, et en avoir parlé à la National Highway Traffic Safety Administration le 15 décembre. L'entreprise et le personnel de la NHTSA ont eu « quatre conversations ultérieures » sur les accidents, avant que Waymo ne décide de rappeler volontairement le logiciel qui était utilisé à l'époque.

Ce rappel pourrait accroître la pression publique sur Waymo, alors que les villes, les citoyens et les agences gouvernementales examinent de près les promesses des flottes de véhicules autonomes. Les robotsaxis font déjà face à des réactions négatives à Los Angeles, notamment de la part du syndicat des Teamsters. Le département californien des véhicules à moteur enquête déjà sur l'accident susmentionné de Waymo avec un cycliste. Le ministère de la Justice et la Securities and Exchange Commission, entre autres, enquêtent sur la manière dont Cruise a géré son accident d'octobre.

La technologie de conduite autonome, loin d'être aussi "sophistiquée" que l'industrie le prétend

D'après de nombreux critiques, les robotaxis de Waymo et de Cruise mettent en danger les autres usagers de la route. Ces critiques estiment que les déclarations selon lesquelles ces véhicules sont plus sûrs que les conducteurs humains sont fausses. Ils citent des exemples pour soutenir leur position, comme celui-ci : après l'incident de Chinatown, les vidéos des robotaxis de Waymo ont proliféré sur la toile. L'une d'elles montrait un camion de pompiers, en route pour une urgence, temporairement coincé derrière un robotaxi de Waymo, qui ne s'était pas complètement arrêté pour laisser passer les pompiers.


Un porte-parole des pompiers a confirmé que le véhicule de Waymo avait partiellement bloqué la route. Certains observateurs ont vu dans cet incident le signe d'un ressentiment croissant à l'égard des voitures autonomes et d'autres technologies d'IA. Missy Cummings, directrice du centre Autonomy and Robotics de l'université George Mason et ancienne conseillère auprès des organismes de réglementation de la sécurité routière aux États-Unis, a affirmé dans une déclaration : « nous voyons les gens atteindre un point d'ébullition à cause d'une technologie dont ils ne veulent pas et qui n'améliore pas leur vie ».

Par contre, Aaron Peskin, président du conseil des superviseurs de San Francisco, estime qu'il ne s'agissait peut-être pas d'un acte anti-technologie, mais plutôt d'un « simple méfait criminel commis par une bande de voyous ». Le sénateur de l'État de Californie Dave Cortese, qui a proposé une loi visant à donner aux autorités locales plus de pouvoir pour réglementer les voitures autonomes, a déclaré que le fait que la voiture ait roulé dans une zone bondée pendant un feu d'artifice soulignait les lacunes de la technologie : « ce qui devient de plus en plus clair, c'est que la technologie des voitures autonomes n'est pas aussi sophistiquée que l'industrie voudrait nous le faire croire ».

Tesla, dont les véhicules électriques embarquent un système avancé d'aide à la conduite (ADAS) appelé Autopilot, fait régulièrement l'objet d'accusations selon lesquelles sa technologie n'est pas sûre et met les utilisateurs en danger. Par exemple, par le passé, plusieurs rapports ont signalé qu'à de nombreuses reprises, des véhicules Tesla pilotés par l'Autopilot ont percuté des voitures de police malgré le fait que leurs gyrophares étaient allumés. Certains critiques, notamment des législateurs, estiment que le déploiement de l'Autopilot est une expérience sur la voie publique qui menace la vie de tous les usagers.

Source : Waymo

Et vous ?

Faites-vous confiance aux voitures sans chauffeur? Accepteriez-vous de monter dans un robotaxi Waymo ou d’une autre marque?
Comment expliquez-vous les deux accidents impliquant les voitures Waymo? Est-ce un problème de logiciel, de réglementation, de comportement humain ou autre?
Quelles sont les mesures que Waymo devrait prendre pour éviter que de tels incidents ne se reproduisent? Pensez-vous que le rappel et la mise à jour du logiciel sont suffisants?
Quel est l’avenir de la mobilité autonome? Quels sont les enjeux économiques, sociaux et environnementaux liés à cette technologie?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 21/06/2024 à 11:01
En conclusion :

Les véhicules autonomes sont plus sûrs en ligne droite, avec une bonne visibilité, sur une chaussé sèche et avec une bonne adhérence !

Pour tout le reste, l'humain reste encore le conducteur le plus fiable...

C'est digne d'un trollidi !!!
8  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 27/06/2024 à 2:59
La vidéo de démo est rigolote. Même si elle est sans doute un peu orientée.

Sinon, pour les voitures comme pour l'IA, je ne comprends pas le virage technologique qu'on est en train de prendre.
On est en train d'essayer de tordre des outils pour leur donner une nouvelle fonctionnalité. Bah non, on visse pas des écrous avec un marteau et on enfonce pas des pointes avec une clef à molette. Enfin si, on peut le faire mais en plus de pas être pratique, c'est complètement con.
Un véhicule qui suit un itinéraire prédéfini roule sur des rails : c'est un train, un métro ou un tramway mais pas une voiture. La preuve, ça marche pas.
Un ordinateur n'est pas fait pour réfléchir, il est fait pour additionner des bits. La preuve, il faut des quantités d'énergies colossales pour donner l'illusion qu'il réfléchit. Et ça marche pas.
4  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 01/03/2024 à 13:31
Citation Envoyé par Patrick Ruiz Voir le message
Les voitures autonomes sont-elles vraiment plus sûres que les conducteurs humains, ou est-ce une simple hypothèse ?
Beaucoup de choses se cachent derrière plus sûr:
Oui une voiture autonome ne sera jamais ivre au volant
Oui une voiture autonome ne sera jamais fatigué au volant
Oui une voiture autonome ne sera jamais en train de réfléchir à autre chose qu'à sa conduite
Mais
Non une voiture autonome n'est pas (encore) capable de prendre une décision humainement naturelle dans une situation exceptionnelle
Donc une voiture autonome est peut être statistiquement plus sûre qu'un humain mais il y a des situations où elle ne l'est pas et il n'est, de mon point de vue, pas acceptable qu'une voiture autonome ne soit pas capable d'éviter un accident qu'un conducteur moyen est capable d'éviter.

Donc une voiture autonome n'est pas plus sûre que le chauffeur moyen en situation inhabituelle.

Je suis aussi curieux de savoir comment une voiture réagit si elle conduit dans un environnement qui n'est pas celui de son entrainement.
Par exemple : je ne serais pas surpris qu'une voiture autonome belge n'arrive jamais à quitter le périphérique toulousain quand tout le monde quitte le boulot ou qu'une voiture autonome toulousaine provoque un accident en Belgique parce qu'elle s'impose pendant une tirette (passage de 2 voies à 1 seule)
Selon vous, les voitures autonomes peuvent-elles réduire le nombre d’accidents de la route de manière significative ?
Oui mais elles augmenteront aussi certains types d'accidents.
Les voitures autonomes peuvent-elles être programmées pour prendre des décisions éthiques en cas d’accident ?
L'éthique est une notion culturelle donc si elles étaient capable de le faire elles devraient intégrer, au minimum, un paramètre de localisation.
3  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 28/06/2024 à 0:54
Citation Envoyé par smobydick Voir le message
An 85% reduction or 6.8 times lower crash rate involving any injury, from minor to severe and fatal cases (0.41 incidence per million miles for the Waymo Driver vs 2.78 for the human benchmark)

A 57% reduction or 2.3 times lower police-reported crash rate (2.1 incidence per million miles for the Waymo Driver vs. 4.85 for the human benchmark)

7.1 million miles, 3 minor injuries: Waymo’s safety data looks good
Waymo says its cars cause injuries six times less often than human drivers.

https://arstechnica.com/cars/2023/12...re-data-shows/

Où sont tes stats qui prouvent le contraire qu'on rigole ?
Des stats comme ça, je t'en crées de mon chapeau quand on veut.

Là, tu sors des stats de Waymo pour des voitures... Waymo!

Et puis au passage, il ne faut pas t'arrêter à la première page de ton article; tu en as une deuxième, qui se termine par ça:
Seven million driverless miles of real-world driving gives us some information about the safety of Waymo vehicles. But it’s not enough to answer the most important safety question: whether Waymo’s technology makes fatal crashes less likely.

This is a hard question to answer because fatal crashes only occur on the road about once every 100 million miles. This means that we’re going to need to test driverless vehicles for hundreds of millions—if not billions—of miles before we can be sure whether they cause fewer fatal crashes than human drivers.

You might think you could extrapolate from statistics about non-fatal crashes—and so far, those numbers look pretty good for Waymo. But Zuby told me that it’s not that simple.

“When you look at reports of fatal crashes, a lot of them are just completely bizarre,” Zuby told me. Moreover, he said, AVs may have dramatically different failure modes than human drivers. Waymo’s technology helps eliminate situations like drunk driving that are responsible for a lot of fatal crashes. But the technology might have other failure modes that its designers haven't anticipated.

So that leaves us in a somewhat uncomfortable place: All the data so far suggests that Waymo vehicles are making roads in San Francisco and Phoenix at least a little bit safer. And Waymo's case gets stronger with every million miles it completes. But it’s going to be another couple of years—if not longer—before we can be confident about whether Waymo vehicles are helping to reduce the risk of fatal crashes.
On peut aussi demander à Microsoft des stats sur les avantages de ses produits, à Amazon des stats sur les avantages de ses produits, à OpenAI des stats sur les avantages de ses produits... Il faudrait qu'ils soient bien stupides pour fournir des stats à leur désavantage

Sinon, je suis certain que Monsanto/Bayer a aussi de belles statistiques sur la santé des gens qui ne consomment que leurs OGM.

Regarde le nombre de logiciels qui ne sont pas boggués, autour de toi, pour comprendre qu'il y a un vrai problème dans l'industrie informatique en général.

Ça, c'était ce que disait Lucky Strike sur ses produits en 1920, sur les bénéfices de ses cigarettes pour la santé par rapport aux autres marques.

Ça, c'était une tentative de Waymo d'utiliser des influenceurs pour faire de la pub sur la sécurité de ses voitures autonomes, mais sans dire que c'était une vidéo sponsorisée. La partie sur les youtubers commence autour de 8:11 minutes.
3  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 26/02/2024 à 23:59
A un moment quand une tâche est trop complexe pour être automatisée, faut peut-être se rendre à l'évidence et arrêter d'essayer de l'automatiser, non ?
3  1 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 27/02/2024 à 11:42
L'automatisation serait plus facile sur le ferroviaire
J'ai été conducteur de train à une époque de ma vie.
J'ai fait ma formation il y a presque 20 ans.
Déjà à cette époque, tout dans les locomotives était numérique et il y avait un retour d'info sur énormément de composants de la loco (enregistrement de ces infos dans une "boite noire" pour traitement ultérieur ou traitement temps réel pour provoquer l'arrêt automatique du train en cas de non respect d'une procédure, d'absence de réaction du conducteur, d'excès de vitesse...)
Il y a des balises au sol avec lesquelles le train communique pour connaître la vitesse maximale autorisée sur le tronçon.
Il y a des rails qui guident le train.

Bref, d'un point de vue de l'automatisation, le système est infiniment moins complexe qu'une voiture qui se retrouve sur une route où on peut/doit choisir son chemin et où les autres utilisateurs en font autant.

Quel politicien/PDG ne rêverait pas de se débarrasser des cheminots ?
Si malgré l'apparente simplicité du système (ça roule sur des rails, tout ce qu'il y a à faire c'est freiner ou accélérer) il n'a pas été automatisé, il doit bien y avoir une raison : les choses ne sont peut-être pas aussi simples qu'elles le semblent (et pour les voitures c'est encore pire je pense).
3  1 
Avatar de smarties
Expert confirmé https://www.developpez.com
Le 27/02/2024 à 20:41
Citation Envoyé par _toma_ Voir le message
Bref, d'un point de vue de l'automatisation, le système est infiniment moins complexe qu'une voiture qui se retrouve sur une route où on peut/doit choisir son chemin et où les autres utilisateurs en font autant.

Quel politicien/PDG ne rêverait pas de se débarrasser des cheminots ?
Si malgré l'apparente simplicité du système (ça roule sur des rails, tout ce qu'il y a à faire c'est freiner ou accélérer) il n'a pas été automatisé, il doit bien y avoir une raison : les choses ne sont peut-être pas aussi simples qu'elles le semblent (et pour les voitures c'est encore pire je pense).
Je suis d'accord mais certaines lignes de métro sont automatiques par exemple.
Je pense que le ferroviaire est peu automatisé car cela coûterait très cher de moderniser ces réseaux et probablement que les cheminot s'y opposeraient violemment.
2  0 
Avatar de thierryc
Membre régulier https://www.developpez.com
Le 03/03/2024 à 6:44
Méfions-nous de données type Therac 25.
La démonstration de la sureté des systèmes autonomes ne doit pas reposer sur une comparaison avec l'humain, impossible à reproduire et avec des biais. Par exemple, 1 milliard de km de conduite autonome sur des autoroutes américaines ne veut strictement rien dire. Autre problème : même si les données ont démontré une absence temporaire d'accidentalité sur une version du système, qui peut prédire la même chose après un complément d'apprentissage ou un changement d'architecture (par exemple, la suppression des Lidar sur les Tesla, dramatique)?
Si la génération actuelle d'automates basées sur l"IA n'est pas sûre et ne peut pas le démontrer, que les chercheurs et ingénieurs travaillent sur une nouvelle génération qui, elle, prendrait en compte la sureté fonctionnelle dès le cahier des charges.
2  0 
Avatar de spyserver
Membre confirmé https://www.developpez.com
Le 21/06/2024 à 11:38
Mdr c'est une blague ?
2  0 
Avatar de Daïmanu
Membre émérite https://www.developpez.com
Le 21/06/2024 à 11:40
Mais au final c'est comme un humain non ? Quand le soleil à l'horizon nous éblouit.

Après les statistiques ne sont peut-être pas comparable.
2  0