Dilemme conceptuel : le logiciel qui provoque l’arrêt d’une Waymo lorsqu’un humain se trouve à proximité est le même qui bloque les passagers à l’intérieur lors d’une attaque contre le véhicule autonomeEn janvier, un homme de San Francisco a passé environ six minutes à frapper les vitres d’une Waymo à l’arrêt, à tenter de la soulever du sol et à proférer des menaces de mort à l’encontre des trois passagers à l’intérieur. Selon Doug Fulop, l’un des passagers, qui a rapporté cet incident, la voiture est restée immobile tandis que des passants encourageaient l’agresseur. La voiture n'a finalement pu redémarrer qu'après que l'homme se soit suffisamment éloigné du véhicule pour que ses capteurs ne le détectent plus. Dilemme conceptuel : le logiciel qui provoque l’arrêt d’une Waymo lorsqu’un humain se trouve à proximité est le même qui bloque les passagers à l’intérieur lors d’une attaque contre le véhicule autonome.
Le protocole « Stop-for-humans » de Waymo est au cœur de son bilan en matière de sécurité. Les données de l’entreprise, citées dans des études évaluées par des pairs, montrent une réduction d’environ 90 % des accidents entraînant des blessures graves par rapport aux conducteurs humains sur des distances équivalentes, selon KQED. Ces chiffres sont réels et reflètent la valeur d’un système qui ne conduit jamais en état d’ivresse, n’envoie jamais de SMS et réagit en quelques millisecondes. Mais l'incident de Fulop vient s'ajouter à une liste croissante de cas dans lesquels ce même protocole laisse des passagers en rade — non pas parce que la voiture fonctionne mal, mais parce qu'elle fonctionne exactement comme prévu.
Les rapports y relatifs font état de ce que Waymo a indiqué aux passagers qu'il ne donnerait pas l'ordre à distance au véhicule de démarrer si quelqu'un se trouvait à proximité, et que le logiciel du véhicule ne permettait pas aux passagers de s'installer au volant pour prendre le contrôle du système. La seule option dont disposait Fulop était de rester en ligne avec le service d'assistance de Waymo et d'attendre.
Un Waymo en San Francisco protegió al pasajero Doug Fulop de un atacante que golpeó las ventanas, intentó levantar el vehículo y gritó que quería matarlo por “darle dinero a un robot”. pic.twitter.com/yiu0kiNblG
— Diario฿itcoin (@DiarioBitcoin) March 23, 2026
Cette vulnérabilité n'est pas nouvelle. On observe depuis des années une série d'incidents bien documentés : en 2024, un homme a recouvert les capteurs d'un robotaxi alors que des passagers se trouvaient à l'intérieur et a ainsi paralysé le véhicule ; trois femmes se sont retrouvées coincées tandis que des vandales taguaient leur taxi ; en février 2024, un Waymo à Chinatown a été encerclé, ses vitres brisées, et un feu d'artifice allumé lancé à l'intérieur — bien que ce véhicule, heureusement, fût vide. Dans chaque cas, la réaction de la voiture face à la présence humaine à proximité de sa carrosserie a été la même : s'arrêter et rester immobile.
L'attaque de janvier survient dans un contexte de tensions croissantes entre San Francisco et sa flotte de robotaxis. En décembre 2025, une panne d'électricité à l'échelle de la ville a provoqué l'immobilisation de 1 593 véhicules Waymo pendant au moins deux minutes sur les routes de la ville, selon les données transmises par l'entreprise à la Commission des services publics de Californie. Le service municipal de gestion des urgences a passé 31 appels à la ligne d'urgence de Waymo cet après-midi-là et s'est retrouvé sans cesse en attente. Soixante-quatre véhicules ont dû être déplacés manuellement par des personnes. Lors d'une audience ultérieure à la mairie, la conseillère municipale Jackie Fielder a déclaré sans détour : « L'innovation sans responsabilité, c'est de l'imprudence. »
La question de la responsabilité s’avère complexe dans le cas d'un véhicule sans conducteur. Lorsqu'un véhicule Waymo a effectué un demi-tour illégal à San Bruno en septembre 2025, juste devant un panneau interdisant cette manœuvre, la police locale n'a pas pu dresser de procès-verbal : il n'y avait pas de conducteur humain à verbaliser. Les enquêteurs fédéraux ont ouvert des enquêtes distinctes après que des véhicules Waymo auraient dépassé des bus scolaires à l'arrêt dont les feux de signalisation étaient activés — au moins 19 fois avant un rappel logiciel, avec d'autres incidents par la suite. Un projet de loi de l'État qui aurait donné à San Francisco le pouvoir de limiter le nombre de robotaxis dans ses rues a été rejeté par le corps législatif il y a deux ans.
Source : Seattle Times
Et vous ?
Quel commentaire faites-vous de ce dilemme logiciel ? Quelle amélioration entrevoyez-vous ?
Vous avez lu gratuitement 3 380 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.