IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un conducteur à San Francisco percute une femme, la projette sur la voie occupée par un robotaxi Cruise qui lui roule à son tour dessus et s'immobilise
Après un « freinage agressif », selon Cruise

Le , par Patrick Ruiz

143PARTAGES

9  0 
Les robotaxis Cruise et de façon générale la conduite autonome sont de nouveau au centre de débats après les plaintes des pompiers de San Francisco selon lesquels les robotaxis gênent les équipes sur le terrain et le décès d’un tiers après qu’un robotaxi a fait obstruction à une ambulance. Un conducteur à San Francisco a percuté une femme et l’a projetée sur la voie occupée par un robotaxi Cruise qui lui a roulé dessus avant de s’immobiliser sur son corps. Question au centre de la table : la seconde collision aurait-elle pu être évitée si un conducteur humain était au volant du véhicule Cruise ? Oui, si l’on prend en compte la réponse d’un enseignant en intelligence artificielle au sein d’une université américaine.

Face à face : l’humain et le véhicule dit autonome évalués sur un critère qui est le temps de réponse dans des situations aléatoires. Et à ce propos, l’expert déclare sans détour que le temps de réponse de l’humain dans des situations de ce type est meilleur que celui des véhicules dits autonomes dans leur stade actuel d’évolution. « Le temps de réponse moyen d’un humain est meilleur que celui d’un véhicule dit autonome », souligne-t-il.


L’incident fait suite à une série d’autres qui mettent en scène des véhicules d’autres constructeurs : un robotaxi Cruise prend du béton frais pour une route normale et s’enlise dans la matière visqueuse, un véhicule autonome Tesla avec l’Autopilot enclenché cogne une voiture de police, un véhicule autonome Waymo écrase un chien à San Francisco avec son Advanced Driving System de niveau 4 enclenché, etc. Une liste extensible à souhait et sur la base de laquelle on peut se poser la question de savoir si les véhicules entièrement autonomes sont prêts d’arriver sur les routes. En effet, la Society of Automotive Engineers (SAE) définit 6 niveaux d’automatisation de la conduite. Cette classification permet de se rendre compte du nombre de paramètres à prendre en compte pour l’atteinte du stade de véhicule entièrement autonome :

Niveau 0 (aucune automatisation de la conduite)

La plupart des véhicules en circulation aujourd'hui sont de niveau 0 : ils sont contrôlés manuellement. L'homme assure la « tâche de conduite dynamique », même si des systèmes peuvent être mis en place pour aider le conducteur. Par exemple, le système de freinage d'urgence, qui, techniquement, ne « conduit» pas le véhicule, n'est pas considéré comme une automatisation.

Niveau 1 (assistance au conducteur)

Il s'agit du niveau d'automatisation le plus bas. Le véhicule est équipé d'un seul système automatisé d'aide à la conduite, comme la direction ou l'accélération (régulateur de vitesse). Le régulateur de vitesse adaptatif, qui permet de maintenir le véhicule à une distance de sécurité par rapport à la voiture suivante, relève du niveau 1, car le conducteur humain surveille les autres aspects de la conduite, comme la direction et le freinage.

Niveau 2 (automatisation partielle de la conduite)

Il s'agit des systèmes avancés d'aide à la conduite ou ADAS. Le véhicule peut contrôler à la fois la direction et l'accélération/décélération. Dans ce cas, l'automatisation ne va pas jusqu'à la conduite autonome, car un humain est assis à la place du conducteur et peut prendre le contrôle de la voiture à tout moment. Les systèmes Autopilot de Tesla et Super Cruise de Cadillac (General Motors) sont tous deux qualifiés de niveau 2.

Niveau 3 (Automatisation conditionnelle de la conduite)

Le saut du niveau 2 au niveau 3 est important d'un point de vue technologique, mais subtil, voire négligeable, d'un point de vue humain. Les véhicules de niveau 3 ont des capacités de « détection de l'environnement » et peuvent prendre eux-mêmes des décisions éclairées, comme accélérer pour dépasser un véhicule lent. Mais ils nécessitent toujours une intervention humaine. Le conducteur doit rester vigilant et prêt à prendre le contrôle si le système est incapable d'exécuter la tâche.

Il y a presque deux ans, Audi (Volkswagen) a annoncé que la prochaine génération de la A8 - sa berline phare - serait le premier véhicule de niveau 3 de série au monde. Et ils ont tenu parole. L'Audi A8L 2019 arrive chez les concessionnaires commerciaux cet automne. Elle est équipée du Traffic Jam Pilot, qui combine un scanner lidar avec une fusion de capteurs et une puissance de traitement avancées (plus des redondances intégrées en cas de défaillance d'un composant).

Cependant, pendant qu'Audi développait sa merveille d'ingénierie, le processus réglementaire aux États-Unis est passé d'une orientation fédérale à des mandats d'État par État pour les véhicules autonomes. Ainsi, pour l'instant, la A8L est toujours classée comme un véhicule de niveau 2 aux États-Unis et sera livrée sans le matériel et les logiciels clés nécessaires pour atteindre la fonctionnalité de niveau 3. En Europe, cependant, Audi lancera la A8L de niveau 3 complète avec le Traffic Jam Pilot (d'abord en Allemagne).

Niveau 4 (automatisation poussée de la conduite)

La principale différence entre l'automatisation de niveau 3 et de niveau 4 est que les véhicules de niveau 4 peuvent intervenir si les choses tournent mal ou s'il y a une défaillance du système. En ce sens, ces voitures ne nécessitent pas d'interaction humaine dans la plupart des circonstances. Toutefois, l'homme a toujours la possibilité de passer outre manuellement.

Les véhicules de niveau 4 peuvent fonctionner en mode de conduite autonome. Mais jusqu'à ce que la législation et l'infrastructure évoluent, ils ne peuvent le faire que dans une zone limitée (généralement un environnement urbain où la vitesse de pointe atteint une moyenne de 30 mph). C'est ce qu'on appelle le géofencing. Ainsi, la plupart des véhicules de niveau 4 existants sont destinés au covoiturage.

  • NAVYA, une entreprise française, construit et vend déjà aux États-Unis des navettes et des taxis de niveau 4 qui fonctionnent entièrement à l'électricité et peuvent atteindre une vitesse maximale de 55 mph ;
  • Waymo, la société d'Alphabet, dispose d’un service de taxi à conduite autonome de niveau 4 en Arizona, où elle avait testé des voitures sans conducteur - sans conducteur de sécurité sur le siège - pendant plus d'un an et sur plus de 10 millions de kilomètres ;
  • L'équipementier automobile canadien Magna a développé une technologie (MAX4) pour permettre des capacités de niveau 4 dans des environnements urbains et autoroutiers. Il collabore avec Lyft pour fournir des kits de haute technologie qui transforment les véhicules en voitures à conduite autonome ;
  • olvo et Baidu ont annoncé un partenariat stratégique pour développer conjointement des véhicules électriques de niveau 4 qui serviront le marché des robotaxis en Chine.


Niveau 5 (automatisation complète de la conduite)

Les véhicules de niveau 5 ne nécessitent pas l'attention de l'homme - la "tâche de conduite dynamique" est éliminée. Les voitures de niveau 5 n'auront même pas de volant ni de pédales d'accélération ou de freinage. Elles seront dépourvues de géofencing, capables d'aller partout et de faire tout ce qu'un conducteur humain expérimenté peut faire. Des voitures entièrement autonomes sont en cours d'essai dans plusieurs régions du monde, mais aucune n'est encore disponible pour le grand public.


Le problème de la voiture autonome est lié à celui de l’atteinte du stade d’intelligence artificielle

Les startups de véhicules autonomes ont levé des dizaines de milliards de dollars sur la base des promesses de développer des voitures véritablement autonomes. Néanmoins, les dirigeants et les experts de l'industrie affirment que des superviseurs humains à distance pourraient être nécessaires en permanence pour aider les conducteurs en difficulté sur de nombreuses années encore. Dans une interview sur YouTube, Musk a déclaré que le développement de voitures autonomes était « de loin plus difficile que je ne le pensais au départ ». C’est une sortie qui rejoint celle du PDG de Cruise selon laquelle l’on n’obtiendra pas de véhicules entièrement autonomes même dans des décennies. »

Tesla, Waymo, Cruise, Honda, etc. ont tous promis que 2020 ne passerait pas sans l’atteinte du stade de véhicule autonome de niveau 5. Le fait est que c’est plus difficile que ne l’ont initialement pensé les constructeurs automobiles. Elon Musk résume l’étendue du problème en une phrase : « Pour résoudre le problème de la conduite autonome, il faut en premier résoudre celui de la mise à contribution de l'intelligence artificielle dans le monde réel. »



L’atteinte de l’intelligence artificielle de niveau humain est possible dans une décennie, selon le PDG de Google Deepmind. Rendues à ce stade, les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale (AGI), elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » L’équation de la conduite autonome devrait dans le même coup trouver solution.

Source : Cruise

Et vous ?

Que pensez-vous des avancées en matière de mise sur pied de véhicules autonomes ?
Partagez-vous les avis selon lesquels « on n’obtiendra pas de véhicules véritablement autonomes à 100 %, même dans des décennies ? »

Voir aussi :

L'Autopilote des Tesla plus sûr que la conduite manuelle, d'après une enquête commandée par une société d'assurances
Autopilot : la dernière mise à jour de Tesla oblige à garder les mains sur le volant, par un renforcement du harcèlement des conducteurs
Un hacker lance FreedomEV, un projet open source qui apporte de nouvelles fonctionnalités aux voitures Tesla, dont un mode de confidentialité
La Model 3 de Tesla peut désormais rouler sur les routes européennes, elle obtient le feu vert de la part des autorités de l'UE

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 06/10/2023 à 16:11
Citation Envoyé par Ryu2000 Voir le message
Comme c'est un logiciel il n'y a qu'à corriger les bugs 1 par 1 à chaque fois qu'ils se présentent.
Un scénario a été réalisé, le résultat n'est pas celui attendu, on met à jour le logiciel et voilà.
Yes dès qu'on tue quelqu'un on s'assurre de ne pas reproduire le scénario,
le lendemain on se rends compte qu'un paramètre et ce qui semble pareil est très différent et on retue une autre personne dans la même situation, mais ne vous inquiétez par on a couvert, les hommes et les femmes
Puis un enfant,
puis une personne en fauteuil roulant
puis
Mais, à l'origine, pourquoi on essaye faire cette foutue voiture qui doit buter tout le monde pour qu'elle ne le fasse plus?
Citation Envoyé par Ryu2000 Voir le message
Avec les bons capteurs et le bon logiciel, je pense qu'il est possible qu'un jour les véhicules autonome deviennent beaucoup moins dangereux que les voitures pilotés par des humains.
Parce qu'un logiciel ça ne se déconcentre pas, ça ne se fatigue pas, ça ne s'énerve pas, ça ne s'intoxique pas, ça peut être plus précis et plus rapide qu'un humain.
Citation Envoyé par dans l'article
le temps de réponse de l’humain dans des situations de ce type est meilleur que celui des véhicules dits autonomes
Je travaille dans l'industrie est c'est marrant parce que,
certes le logiciel ne se déconcentre pas mais si lui dit pas mais il n'est concentré que sur ce qu'il ou on lui a définit comme digne d'interet. Tout ce qui est sous controle est controlé mais la machine qui brule a coté est ignorée
certes le logiciel ne se fatigue pas mais si lui dit pas qu'il doit surveiller l'usure phyisique du système il finit par produire des pièces non conformes
un logiciel ne s'intoxique pas? Que sont les virus et les hallucinations d'IA si ce n'est des intoxicaitons numériques?
les opérateurs le plus pret de mon bureau sont des gens bien mieux payés que moi parce qu'ils mettent à mal toutes les machines qui essayent de les concurrencer, les dernières datent d'il y a deux ans, l'anecdote est drole parce qu'ils ont fahi lancer une grève parce qu'on les mettait en conccurence avec des machines jusqu'à ce qu'ils voient les résultats. Non seulement ils sont plus précis que les machines mais ils détectent à l'oeil nu les non conformités bien plus vites qu'une machine de mesure tridim. (oui je critique les cherry picking dans un autre sujet mais il semblerait que pour certaines taches manuelles l'expérience de l'homme dépasse largement les performance des machines - à cout equivalent je suppose)
4  1 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 06/10/2023 à 11:40
Citation Envoyé par Ryu2000 Voir le message
Avec les bons capteurs et le bon logiciel, je pense qu'il est possible qu'un jour les véhicules autonomes deviennent beaucoup moins dangereux que les voitures pilotées par des humains.
Citation Envoyé par Ryu2000 Voir le message
Parce qu'un logiciel ça ne se déconcentre pas, ça ne se fatigue pas, ça ne s'énerve pas, ça ne s'intoxique pas, ça peut être plus précis et plus rapide qu'un humain.
Dans tes rêves...
Quand on voit à quel point la gestion des disques dans une machine Linux équipée de systemd c'est la m...de, ce n'est pas demain la veille qu'on aura des logiciels au top !
Si je démarre une machine virtuelle dès que le host est up n' running, je n'ai pas le même comportement de la MV que si j'avais attendu 10 minutes que (cette cochonnerie de) systemd réveille tout.
Vous imaginez une bagnole qui aurait un comportement différent selon qu'elle sort du garage ou qu'elle a déjà avalé 20 bornes (ou 10. Ou 30. Ou ...) ? Au secours !
3  1 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 07/10/2023 à 9:37
Citation Envoyé par jorgerui Voir le message
Si tout les conducteurs seraient autonome il n'y aurait pu d'accident.
Lecture...
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 10/11/2023 à 10:32
Citation Envoyé par Jade Emy Voir le message
Cruise de General Motors rappelle 950 voitures sans conducteur après qu'un piéton a été traîné dans un accident, afin de corriger leur programmation.
Ils n'ont qu'à embaucher plus d'opérateurs pour les piloter. Oh wait...
1  0 
Avatar de petitours
Membre émérite https://www.developpez.com
Le 15/05/2024 à 13:37
Citation Envoyé par Patrick Ruiz Voir le message

Les voitures autonomes peuvent-ils être plus sûres que celles avec des conducteurs humains ?
Selon vous, les voitures autonomes peuvent-elles réduire le nombre d’accidents de la route de manière significative ?
Bien sur que non puisque dans ce contexte la voiture autonome n'existe pas et n'existera jamais.
Si on demande à une intelligence autonome de garantir la sécurité du conducteur et/ou des autres usagers de la route cette intelligence trouvera vite le principe du E = 1/2mv² et stoppera le véhicule aussitôt.
Dés l'instant où on impose au véhicule de rouler on impose au véhicule de prendre des risques qui sont strictement les même que ceux pris par le conducteur humain.

La seule chose que ça change c'est la responsabilité, le comportement du véhicule devenant le choix et l'arbitrage du fabricant
1  0 
Avatar de petitours
Membre émérite https://www.developpez.com
Le 01/10/2024 à 12:36
Citation Envoyé par Stéphane le calme Voir le message

Que pensez-vous de cette sanction ?
Est elle assez forte ? après elle existe c'est déjà une excellente chose. Là la sanction répond à la question de savoir si l'activité d'une grande boite est plus importante ou pas que la vie des victimes.

Citation Envoyé par Stéphane le calme Voir le message

Qui devrait être tenu responsable en cas d’accident impliquant un véhicule autonome : le fabricant, le développeur du logiciel, ou le propriétaire du véhicule ?
Celui ou celle qui a donné les règles de comportement au véhicule.
Une voiture autonome à 100% a qui on demande d'assurer la sécurité va stopper le véhicule car E=mv² or c'est l'énergie qui cause le danger. Il y a donc forcément des tas de règles qui force la voiture à prendre des risques. Il y a à minima le constructeur et ensuite le propriétaire/utilisateur dans la limite de ce qu'il peut paramétrer.
Le développeur est sous le contrôle du constructeur, il n'a pas à être cité comme responsable.

Citation Envoyé par Stéphane le calme Voir le message

Pensez-vous que les véhicules autonomes peuvent jamais être totalement sûrs, ou y aura-t-il toujours un risque résiduel ?
masse avec de la vitesse, il y aura toujours un risque et pas résiduel mais majeur. une voiture de 2300kg à 130km/h c'est 1.5MJ (c'est énorme), un 35t sera à plus du double dés 50km/h

Citation Envoyé par Stéphane le calme Voir le message

Les réglementations actuelles freinent-elles l’innovation dans le domaine des véhicules autonomes, ou sont-elles nécessaires pour garantir la sécurité publique ?
Elle sont plus que nécessaires, la preuve il y a des tentatives de contournement.

Citation Envoyé par Stéphane le calme Voir le message

Comment les régulateurs peuvent-ils trouver un équilibre entre encourager l’innovation et assurer la sécurité ?
Il n'y a aucun équilibre à trouver, c'est aux constructeurs de démontrer la qualité de leur travail en dehors de la route publique puis sous haute surveillance.

Citation Envoyé par Stéphane le calme Voir le message

Quel impact pensez-vous que l’adoption généralisée des véhicules autonomes aura sur les emplois dans le secteur des transports ?
Mauvais, on a sociétalement pas besoin de la conduite autonome bien au contraire. Les chauffeurs d'aujourd'hui ne seront pas les développeurs/ mainteneurs d'IA de demain.

Citation Envoyé par Stéphane le calme Voir le message

Quelles mesures devraient être prises pour soutenir les travailleurs dont les emplois pourraient être menacés par cette technologie ?
Arrêter de voir comme souhaitable et innovant des choses qui sont juste funs et mauvaises pour la société ?

Citation Envoyé par Stéphane le calme Voir le message

Que faudrait-il pour que vous ayez confiance en un véhicule autonome pour vous transporter en toute sécurité ?
Excellente question. Qu'il ne dépasse pas les 3km/h, parce que je m'inquièterai encore plus pour les autres usagers de la route que de moi même.

Citation Envoyé par Stéphane le calme Voir le message

Comment les entreprises de véhicules autonomes peuvent-elles améliorer la transparence et la communication avec le public pour renforcer la confiance ?
En ne mettant pas sur la route des véhicules en test avec les propriétaires comme bêta testeurs (cf Tesla). Ceci doit se faire avec des protocoles d'essai rigoureux et avec des personnes professionnelles, disponibles et formées pour surveiller l'ia pendant les tests et apprentissages.

Citation Envoyé par Stéphane le calme Voir le message

Quels sont, selon vous, les principaux défis technologiques que les véhicules autonomes doivent encore surmonter ?
Il n'est pas technique il est juridique : comment les constructeurs vont porter la responsabilité pénale et civile. Autrement cela restera des véhicules pas autonomes avec obligation pour le conducteur de rester attentif au volant comme sur les Tesla or là on a le pire des scénarios avec une machine pas capable mais qui absorbe 99.9% de l'attention du conducteur qui sera de fait non attentif quand le 0.1% lui sera demandé.

Citation Envoyé par Stéphane le calme Voir le message

Pensez-vous que les systèmes de conduite autonome devraient être testés plus rigoureusement avant d’être déployés sur les routes publiques ?
Oui, et la pratique de Tesla (test par les utilisateurs) devrait être rigoureusement interdite. Quand on rentre du travail avec une longue journée et sans formation on est pas en capacité de surveiller une IA qui fait 99% du boulot.
1  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 06/10/2023 à 9:46
Le goût sucré qu'a le "progrès" ne fera pas le poids face à l'amertume qu'aura l'humanité quand elle comprendra enfin que cette fuite en avant sans fin dans la reproduction et l'imitation par des machines de ce qu'un humain peut faire dans le monde réel vise uniquement à décarboner la nature du carbone humain

Ce qui me passionne le plus dans cette idéologie du progrès c'est qu'à chaque fois qu'on impose découvre une nouvelle manière de se passer des gens technologie ça crée plus de problème que ça n'en résous. Mais ça passionne les gens ! Comment on peut dire la tête haute que c'est génial de se passer de conducteur mais qu'en revanche il faudra des gens avec un casque de réalité virtuelle enfermés X/heure par jour dans un bureau miteux pour reprendre la main sur des véhicules que le système embarqué ne gérera plus ? A quel moment on peut considérer que cette évolution est souhaitable ?

C'est transposable sur TOUT : l'agriculture, ce que Musk et consorts font dans l'espace, l'industrie...

Je ne suis pas opposés au progrès, mais dans une société qui prétend protéger les gens, la première chose à faire serait de le faire vraiment, pas de créer les conditions d'un retour à la servitude envers la machine dans une société ultra commerciale à la marche ou crève.

C'est vendredi je suis fatigué.
1  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 06/10/2023 à 11:13
Citation Envoyé par Jules34 Voir le message
critiquer la technologie sur ce forum c'est déjà se mettre des bâtons dans les roues
Il me semble que la plupart des membres du forum ne sont pas convaincu par l'IA, les véhicules autonomes, les cryptomonnaies, etc.
Ce n'est pas ça parce que tu travailles dans la technologie que tu dois supporter toutes les nouvelles technologies (au contraire même ).

Citation Envoyé par Jules34 Voir le message
donc parler de surpopulation
Ben en même personne ne peut se dire que ce n'est pas un problème.
Les ressources sont limitées, donc quand il y a trop d'individus c'est la merde.

Il faudrait être fou pour se dire "on va être 10 milliards d'humains, chacun aura sa maison, sa voiture électrique, son PC de bureau, son smartphone, ses panneaux solaires, etc".
Il n'y a pas assez de ressource pour tout le monde.

Bon à la limite ils peuvent se dire "il faut qu'on diminue notre niveau de vie afin de moins consommer de ressource".
Un monde sans véhicule personnel, mais avec des transports publics abordable.
Je ne sais pas si vous avez déjà vu le prix d'un billet de train, mais c'est hors de prix.
C'est scandaleux que ce soit aussi cher.
Je pense que le gouvernement le fait exprès pour justifier la privatisation, on va nous faire la promesse "quand il y aura de la concurrence les tickets seront plus abordable".
2  2 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 12/10/2023 à 15:57
Une vraie intelligence dont les fonctions sont :
1. Ne pas tuer/blesser physiquement des gens (on va écarter la pollution de l'équation)
2. Aller le plus vite possible d'un point A à un point B
n'aurais pas une vitesse maximale de 3km/h et elle ne se baserais probablement pas sur E= mv² mais sur l'obstacle le plus proche (d'où un humain pourrait sortir instantannément) et la distance de freinage du véhicule dans son environnement. Ce qui l'amènerait régulièrement à 3km/h ou à rouler à gauche mais les rues sans obstacles proches ne sont pas rares dans les grandes villes, surtout celles du nord de l'Amérique.

Mais une personne est aussi décédée parce que la voiture a freiné une ambulance qui transportait une personne en état critique.
0  0 
Avatar de petitours
Membre émérite https://www.developpez.com
Le 18/01/2024 à 16:31
Les voitures autonomes sont un défi technique grisant comme l'est L'IA dite générale ou encore les robots humanoïdes, mais c'est aussi comme les autres sujets un truc mauvais pour l'humanité, contraire à tout sens que l'on peut donner à la vie.

Donc tant mieux si un acteur abandonne et que ses malversations soient reconnues. Ça évitera peut être aux politiques en quête de buzz "d'autoriser les voitures autonomes" sans même savoir de quoi ils parlent et sans qu'il n'y ait sur le marché l'ombre d'une voiture autonome.
0  0