IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Waymo rappelle et met à jour son logiciel de robotaxi après que deux de ses voitures ont percuté la même dépanneuse
Il s'agit du premier rappel de la filiale de Google

Le , par Stéphane le calme

0PARTAGES

6  0 
Waymo, la filiale de Google spécialisée dans la conduite autonome, a annoncé le rappel volontaire du logiciel qui équipe sa flotte de robotaxis après que deux véhicules ont percuté la même camionnette remorquée à Phoenix, en Arizona, en décembre. Il s'agit du premier rappel de l'entreprise.

Mauricio Peña, responsable de la sécurité chez Waymo, a qualifié les accidents de « mineurs » et a précisé qu'aucun des deux véhicules ne transportait de passagers à ce moment-là. Il n'y a pas eu de blessés. Il a également déclaré que le service de covoiturage de Waymo - qui est en service à Phoenix, San Francisco, Los Angeles et Austin - « n'est pas et n'a pas été interrompu par cette mise à jour ».


C'est dans un billet de blog que le responsable de la sécurité chez Waymo a annoncé la nouvelle, visiblement prise de concert avec la NHTSA :

Plus tôt dans la journée, nous avons volontairement déposé un rapport de rappel auprès de la National Highway Traffic Safety Administration (NHTSA) pour un logiciel qui équipait auparavant notre flotte. Nous avons choisi de le faire après consultation de la NHTSA et notre propre examen interne de deux incidents qui se sont produits dans un scénario rare à Phoenix le 11 décembre 2023, qui n'ont fait aucun blessé et n'ont causé que des dommages mineurs aux véhicules. L'ensemble de notre flotte a été mis à jour avec un logiciel pour résoudre ce problème rare entre le 20 décembre 2023 et le 12 janvier 2024. Notre service de transport en commun n'est pas et n'a pas été interrompu par cette mise à jour.

Pourquoi un rappel volontaire ?

En règle générale, un rappel sert à informer le propriétaire d'un véhicule de la nécessité d'une réparation. Dans notre cas, nous avons déposé un avis de rappel, qui sert à informer le public d'une mise à jour logicielle que nous avons commencé à déployer dans notre flotte en décembre 2023. Ce rappel volontaire montre à quel point nous prenons au sérieux notre responsabilité de déployer notre technologie en toute sécurité et de communiquer de manière transparente avec le public. Des centaines de rapports de rappel sont soumis chaque année à la NHTSA et nous respectons l'importance de ce cadre de sécurité routière ainsi que nos obligations légales en la matière.
Ce rappel intervient à un moment où les voitures autonomes font l'objet d'un examen approfondi à la suite d'une série d'accidents et de controverses très médiatisés. Le week-end dernier, un véhicule autonome de Waymo a été vandalisé et brûlé par une foule de personnes à San Francisco. Pour plus de contexte, le 10 février, un véhicule autonome de Waymo s'est faufilé dans les rues de Chinatown alors que les habitants célébraient le jour du Nouvel An chinois. Dans la foulée, certains fêtards ont attaqué le véhicule, l'ont vandalisé, ont brisé les vitres et y ont finalement mis le feu. Selon les résidents, ces rues sont généralement fermées à la circulation lors de la célébration de la fête du Nouvel An chinois, une « règle » qui est bien connue.

« La plupart des automobilistes savent qu'ils doivent éviter le quartier chinois pendant les fêtes du Nouvel An lunaire. Mais l'ordinateur ne le comprend pas », a expliqué Aaron Peskin, président du conseil des superviseurs de San Francisco, qui a appelé à une réglementation plus stricte des véhicules autonomes. La destruction du robotaxi de Waymo fait suite à des accidents impliquant ces véhicules. Par exemple, au début du mois, un véhicule autonome de Waymo a heurté un cycliste. En octobre, un véhicule autonome, fabriqué par Cruise, propriété de GM, a heurté et traîné un piéton sur une distance de 6 mètres. D'ailleurs, Cruise a décidé de suspendre ses activités pour faire face aux retombées. Il a embauché son premier responsable de la sécurité cette semaine.


Le contexte

Les accidents qui ont entraîné le rappel se sont tous deux produits le 11 décembre. Peña a écrit qu'un des véhicules de Waymo est tombé sur une camionnette orientée vers l'arrière qui était « incorrectement remorquée ». La camionnette était « constamment inclinée à travers une voie de virage centrale et une voie de circulation ». Peña a déclaré que le robotaxi « a incorrectement prédit le mouvement futur du véhicule remorqué » en raison de ce décalage entre l'orientation de la dépanneuse et celle de la camionnette, et qu'il est entré en contact avec lui.

La dépanneuse ne s'est pas arrêtée pour autant, selon Peña, et quelques minutes plus tard, un autre robotaxi Waymo est entré en contact avec la même camionnette qui était remorquée. La dépanneuse s'est arrêtée après le deuxième accident.

Waymo a déclaré avoir contacté la police de Phoenix et le département de la sécurité publique de l'Arizona le jour des accidents, et en avoir parlé à la National Highway Traffic Safety Administration le 15 décembre. L'entreprise et le personnel de la NHTSA ont eu « quatre conversations ultérieures » sur les accidents, avant que Waymo ne décide de rappeler volontairement le logiciel qui était utilisé à l'époque.

Ce rappel pourrait accroître la pression publique sur Waymo, alors que les villes, les citoyens et les agences gouvernementales examinent de près les promesses des flottes de véhicules autonomes. Les robotsaxis font déjà face à des réactions négatives à Los Angeles, notamment de la part du syndicat des Teamsters. Le département californien des véhicules à moteur enquête déjà sur l'accident susmentionné de Waymo avec un cycliste. Le ministère de la Justice et la Securities and Exchange Commission, entre autres, enquêtent sur la manière dont Cruise a géré son accident d'octobre.

La technologie de conduite autonome, loin d'être aussi "sophistiquée" que l'industrie le prétend

D'après de nombreux critiques, les robotaxis de Waymo et de Cruise mettent en danger les autres usagers de la route. Ces critiques estiment que les déclarations selon lesquelles ces véhicules sont plus sûrs que les conducteurs humains sont fausses. Ils citent des exemples pour soutenir leur position, comme celui-ci : après l'incident de Chinatown, les vidéos des robotaxis de Waymo ont proliféré sur la toile. L'une d'elles montrait un camion de pompiers, en route pour une urgence, temporairement coincé derrière un robotaxi de Waymo, qui ne s'était pas complètement arrêté pour laisser passer les pompiers.


Un porte-parole des pompiers a confirmé que le véhicule de Waymo avait partiellement bloqué la route. Certains observateurs ont vu dans cet incident le signe d'un ressentiment croissant à l'égard des voitures autonomes et d'autres technologies d'IA. Missy Cummings, directrice du centre Autonomy and Robotics de l'université George Mason et ancienne conseillère auprès des organismes de réglementation de la sécurité routière aux États-Unis, a affirmé dans une déclaration : « nous voyons les gens atteindre un point d'ébullition à cause d'une technologie dont ils ne veulent pas et qui n'améliore pas leur vie ».

Par contre, Aaron Peskin, président du conseil des superviseurs de San Francisco, estime qu'il ne s'agissait peut-être pas d'un acte anti-technologie, mais plutôt d'un « simple méfait criminel commis par une bande de voyous ». Le sénateur de l'État de Californie Dave Cortese, qui a proposé une loi visant à donner aux autorités locales plus de pouvoir pour réglementer les voitures autonomes, a déclaré que le fait que la voiture ait roulé dans une zone bondée pendant un feu d'artifice soulignait les lacunes de la technologie : « ce qui devient de plus en plus clair, c'est que la technologie des voitures autonomes n'est pas aussi sophistiquée que l'industrie voudrait nous le faire croire ».

Tesla, dont les véhicules électriques embarquent un système avancé d'aide à la conduite (ADAS) appelé Autopilot, fait régulièrement l'objet d'accusations selon lesquelles sa technologie n'est pas sûre et met les utilisateurs en danger. Par exemple, par le passé, plusieurs rapports ont signalé qu'à de nombreuses reprises, des véhicules Tesla pilotés par l'Autopilot ont percuté des voitures de police malgré le fait que leurs gyrophares étaient allumés. Certains critiques, notamment des législateurs, estiment que le déploiement de l'Autopilot est une expérience sur la voie publique qui menace la vie de tous les usagers.

Source : Waymo

Et vous ?

Faites-vous confiance aux voitures sans chauffeur? Accepteriez-vous de monter dans un robotaxi Waymo ou d’une autre marque?
Comment expliquez-vous les deux accidents impliquant les voitures Waymo? Est-ce un problème de logiciel, de réglementation, de comportement humain ou autre?
Quelles sont les mesures que Waymo devrait prendre pour éviter que de tels incidents ne se reproduisent? Pensez-vous que le rappel et la mise à jour du logiciel sont suffisants?
Quel est l’avenir de la mobilité autonome? Quels sont les enjeux économiques, sociaux et environnementaux liés à cette technologie?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Membre expert https://www.developpez.com
Le 01/03/2024 à 13:31
Citation Envoyé par Patrick Ruiz Voir le message
Les voitures autonomes sont-elles vraiment plus sûres que les conducteurs humains, ou est-ce une simple hypothèse ?
Beaucoup de choses se cachent derrière plus sûr:
Oui une voiture autonome ne sera jamais ivre au volant
Oui une voiture autonome ne sera jamais fatigué au volant
Oui une voiture autonome ne sera jamais en train de réfléchir à autre chose qu'à sa conduite
Mais
Non une voiture autonome n'est pas (encore) capable de prendre une décision humainement naturelle dans une situation exceptionnelle
Donc une voiture autonome est peut être statistiquement plus sûre qu'un humain mais il y a des situations où elle ne l'est pas et il n'est, de mon point de vue, pas acceptable qu'une voiture autonome ne soit pas capable d'éviter un accident qu'un conducteur moyen est capable d'éviter.

Donc une voiture autonome n'est pas plus sûre que le chauffeur moyen en situation inhabituelle.

Je suis aussi curieux de savoir comment une voiture réagit si elle conduit dans un environnement qui n'est pas celui de son entrainement.
Par exemple : je ne serais pas surpris qu'une voiture autonome belge n'arrive jamais à quitter le périphérique toulousain quand tout le monde quitte le boulot ou qu'une voiture autonome toulousaine provoque un accident en Belgique parce qu'elle s'impose pendant une tirette (passage de 2 voies à 1 seule)
Selon vous, les voitures autonomes peuvent-elles réduire le nombre d’accidents de la route de manière significative ?
Oui mais elles augmenteront aussi certains types d'accidents.
Les voitures autonomes peuvent-elles être programmées pour prendre des décisions éthiques en cas d’accident ?
L'éthique est une notion culturelle donc si elles étaient capable de le faire elles devraient intégrer, au minimum, un paramètre de localisation.
3  0 
Avatar de _toma_
Membre averti https://www.developpez.com
Le 26/02/2024 à 23:59
A un moment quand une tâche est trop complexe pour être automatisée, faut peut-être se rendre à l'évidence et arrêter d'essayer de l'automatiser, non ?
3  1 
Avatar de _toma_
Membre averti https://www.developpez.com
Le 27/02/2024 à 11:42
L'automatisation serait plus facile sur le ferroviaire
J'ai été conducteur de train à une époque de ma vie.
J'ai fait ma formation il y a presque 20 ans.
Déjà à cette époque, tout dans les locomotives était numérique et il y avait un retour d'info sur énormément de composants de la loco (enregistrement de ces infos dans une "boite noire" pour traitement ultérieur ou traitement temps réel pour provoquer l'arrêt automatique du train en cas de non respect d'une procédure, d'absence de réaction du conducteur, d'excès de vitesse...)
Il y a des balises au sol avec lesquelles le train communique pour connaître la vitesse maximale autorisée sur le tronçon.
Il y a des rails qui guident le train.

Bref, d'un point de vue de l'automatisation, le système est infiniment moins complexe qu'une voiture qui se retrouve sur une route où on peut/doit choisir son chemin et où les autres utilisateurs en font autant.

Quel politicien/PDG ne rêverait pas de se débarrasser des cheminots ?
Si malgré l'apparente simplicité du système (ça roule sur des rails, tout ce qu'il y a à faire c'est freiner ou accélérer) il n'a pas été automatisé, il doit bien y avoir une raison : les choses ne sont peut-être pas aussi simples qu'elles le semblent (et pour les voitures c'est encore pire je pense).
3  1 
Avatar de smarties
Expert confirmé https://www.developpez.com
Le 27/02/2024 à 20:41
Citation Envoyé par _toma_ Voir le message
Bref, d'un point de vue de l'automatisation, le système est infiniment moins complexe qu'une voiture qui se retrouve sur une route où on peut/doit choisir son chemin et où les autres utilisateurs en font autant.

Quel politicien/PDG ne rêverait pas de se débarrasser des cheminots ?
Si malgré l'apparente simplicité du système (ça roule sur des rails, tout ce qu'il y a à faire c'est freiner ou accélérer) il n'a pas été automatisé, il doit bien y avoir une raison : les choses ne sont peut-être pas aussi simples qu'elles le semblent (et pour les voitures c'est encore pire je pense).
Je suis d'accord mais certaines lignes de métro sont automatiques par exemple.
Je pense que le ferroviaire est peu automatisé car cela coûterait très cher de moderniser ces réseaux et probablement que les cheminot s'y opposeraient violemment.
2  0 
Avatar de thierryc
Membre régulier https://www.developpez.com
Le 03/03/2024 à 6:44
Méfions-nous de données type Therac 25.
La démonstration de la sureté des systèmes autonomes ne doit pas reposer sur une comparaison avec l'humain, impossible à reproduire et avec des biais. Par exemple, 1 milliard de km de conduite autonome sur des autoroutes américaines ne veut strictement rien dire. Autre problème : même si les données ont démontré une absence temporaire d'accidentalité sur une version du système, qui peut prédire la même chose après un complément d'apprentissage ou un changement d'architecture (par exemple, la suppression des Lidar sur les Tesla, dramatique)?
Si la génération actuelle d'automates basées sur l"IA n'est pas sûre et ne peut pas le démontrer, que les chercheurs et ingénieurs travaillent sur une nouvelle génération qui, elle, prendrait en compte la sureté fonctionnelle dès le cahier des charges.
2  0 
Avatar de _toma_
Membre averti https://www.developpez.com
Le 27/02/2024 à 22:20
Je suis bien d'accord avec toi ;-).

A noter aussi que pour le métro, le contexte est complètement différent : c'est un endroit où entre deux gares, les voies sont inaccessibles au public (sur les lignes automatisées en tout cas) tout en étant proches et relativement faciles d'accès pour les équipes techniques.

Pour revenir sur les investissements que tu évoques, on peut aussi noter que malgré le fait que les voies soient inaccessibles au public, ça ne suffit pas : tous les quais ont en plus été équipés de cloisons avec portes automatiques pour que le bord du quai ne soit accessible aux usagers que quand il y a un métro à quai.
1  0 
Avatar de Heydrickx
Membre à l'essai https://www.developpez.com
Le 04/03/2024 à 8:06
Les voitures autonomes sont une amélioration prometteuse. Qu'elles soient ou non plus sûres pour l'instant que la conduite par des êtres humains, il est certain qu'elles finiront par le devenir.
Parce que les voitures autonomes vont se diriger méthodiquement, progressivement, constamment vers un mieux au fil des améliorations et du "fine-tuning" prenant en compte de plus en plus de situations. Tandis que l'être humain est changeant. Certains conducteurs sont responsables, d'autres non. Et les conducteurs responsables sont parfois distraits, pressés, fatigués. Pour changer cela il faudrait changer notre nature.

Les questions éthiques pour moi n'ont pas lieu d'être. Il n'est question ici que de chiffres : 1 mort vaut mieux que 5 morts. Qui en fera le moins ? Les voitures autonomes causent peut-être déjà moins d'accidents que les conducteurs humains. Et si cela n'est pas le cas maintenant, cela le sera bientôt. Toujours par rapport aux questions éthiques, je trouve cela absurde de se demander comment l'on programmera une voiture autonome pour résoudre les conflits éthiques. Faut-il qu'elle "dévie de sa course en heurtant une personne âgée si c'est pour éviter un enfant ?" et ce genre de questions. Comme si un être humain, dans un temps où il est déjà trop tard pour freiner et éviter le drame et où tout se passe en une fraction de seconde, allais - lui - avoir le temps de réfléchir pour prendre la meilleure décision éthique. La vérité est que sa réaction sera probablement un réflexe et que la notion d'éthique n'entrera pas davantage en ligne de compte pour lui que pour la voiture autonome.
1  0 
Avatar de Guesset
Expert confirmé https://www.developpez.com
Le 04/03/2024 à 11:04
Bonjour,

« Quiconque s'oppose aux voitures autonomes encourage les décès sur les routes », d’après un journaliste l

L'évolution ira certainement dans le sens de la voiture autonome sans résoudre le problème humain de la responsabilité.

Mais indépendamment du sujet, l'intitulé fait frémir comme tous les diktats pseudo-intellectuels. Celui qui pense différemment doit être condamné ? De plus venant d'un "journaliste" dont la fonction est l'analyse et l'information, ce qui ne saurait intégrer anathème ou fatwa.

Salutations
1  0 
Avatar de TotoParis
Membre expérimenté https://www.developpez.com
Le 07/03/2024 à 22:19
Le vrai scandale des morts impardonnables concerne les armes à feu, la drogue.
1  0 
Avatar de smarties
Expert confirmé https://www.developpez.com
Le 27/02/2024 à 10:45
Citation Envoyé par _toma_ Voir le message
A un moment quand une tâche est trop complexe pour être automatisée, faut peut-être se rendre à l'évidence et arrêter d'essayer de l'automatiser, non ?
Je suis complètement d'accord, si le marquage au sol, les aménagement routiers, les feus, ne se normalisent pas et sont bien présent correctement partout, il y aura toujours des exceptions difficilement traitable par l'IA.

L'automatisation serait plus facile sur le ferroviaire, l'aérien, les transports en commun avec des voies dédiées, ...

Il faut se rendre à l'évidence, l'IA peut être un très bon outil mais il ne peut pas tout faire ou alors il faudra cadrer son environnement pour réduire au maximum les exceptions.
1  1