IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un propriétaire de Tesla affirme que la technologie de conduite autonome de sa voiture n'a pas détecté un train en marche,
Une vidéo de l'incident montre sa Tesla qui a failli s'écraser contre ledit train

Le , par Patrick Ruiz

16PARTAGES

18  0 
Full Self-Driving (FSD) s’entend conduite entièrement autonome. Full Self-Driving est aussi le nom donné par Tesla à son programme d’essais visant à atteindre la conduite entièrement autonome classée au niveau 5 sur l’échelle de classification de la SAE. L’appellation faisait déjà l’objet de controverses compte tenu des incidents dans lesquels les véhicules du constructeur se sont retrouvés impliqués depuis 2020 – période de lancement de la bêta du mode Full Self-Driving. Elle le sera plus encore avec la récente publication d’une vidéo qui montre une Tesla à deux doigts de se faire écraser par un train parce que la technologie de conduite autonome n’a pas détecté ce dernier.

C’est grâce à l’intervention du propriétaire que le pire ne s’est pas produit. Le conducteur déclare que sa Tesla n'a pas ralenti à l'approche du train et qu'il a freiné et pris la direction de la voiture manuellement, la faisant dévier de la route pour éviter le train.

« Je me suis dit qu'il était impossible qu'il ne voie pas le train. Il est impossible qu'il ne voie pas les feux clignotants. Oui, il y avait du brouillard, mais on pouvait quand même voir les lumières », précise-t-il.


L'accident s'est produit dans la matinée du 8 mai. M. Doty, évaluateur général certifié dans l'Ohio, conduisait à environ 100 km par heure, selon un rapport d'accident de Tesla. La limite de vitesse sur la route était de moins de 90 km par heure, selon Doty et un rapport de police associé à l'accident. Les conducteurs peuvent demander des rapports d'accident à Tesla, qui sont générés à partir des données que les voitures individuelles envoient aux serveurs de Tesla. La vidéo même a été enregistrée par le véhicule accidenté.

Le Full Self-Driving de Tesla était déjà une arnaque bien avant le lancement de la bêta, d’après un testeur

Le premier élément y relatif est que Tesla a vendu le logiciel depuis octobre 2016, lorsque la société a déclaré que toutes les voitures vendues à partir de ce moment-là seraient prêtes à devenir des robotaxis. Elon Musk a promis la même chose le 22 avril 2019, lors du Tesla Autonomy Day. Selon le PDG de Tesla, tous ses véhicules électriques fabriqués à partir de ce jour seraient dotés d'un ordinateur appelé HW 3.0 au lieu du précédent, HW 2.5. Cela ne s'est pas produit. L'entreprise continue de livrer des véhicules équipés du HW 2.5 dans plusieurs pays. En Chine, le gouvernement a exigé que Tesla donne aux clients ce qu'il avait annoncé en remplaçant les mauvais ordinateurs.

Pour tous les autres clients dans le monde, Tesla dit simplement qu'ils recevront le matériel approprié sans frais supplémentaires lorsqu'ils pourront utiliser la FSD. Mais tout le monde ignore quand le logiciel quittera la version bêta. Hughes a déclaré que certains propriétaires doivent en fait payer 1000 dollars ou plus pour obtenir le bon matériel dans leurs voitures. Pour aggraver les choses, Tesla décide qui peut utiliser le FSD. Jusqu'à présent, seules les personnes basées aux États-Unis ont accès au logiciel bêta, mais elles doivent avoir un score spécifique dans une application appelée Safety Score Beta, qui est elle-même en version bêta.

Deuxio, le testeur est d’avis que « le FSD n'est qu'un gadget. » Le pirate a déclaré que, selon son « expérience de l'utilisation sur autoroute, c'est comme apprendre à un adolescent à conduire ». « Vous devez être encore plus concentré et attentif que vous ne le seriez normalement », a-t-il déclaré. Selon lui, cela « finit par être plus épuisant par kilomètre parcouru que de simplement conduire soi-même. » En outre, un autre problème que Hughes n'a toutefois pas mentionné est que le FSD a un modèle de propriété particulièrement bizarre : le logiciel n'appartient pas à la voiture à laquelle il est associé ni aux personnes qui déboursent de l’argent pour s’en approprier.

Plus précisément, si un acheteur du FSD vend la voiture avec le logiciel, il ne peut pas le garder s'il achète une nouvelle Tesla. Le nouveau propriétaire du véhicule ne l'obtient pas non plus : le logiciel disparaît tout simplement. La seule conclusion logique possible est que seul Tesla est propriétaire du FSD. Tout ce que vous payez pour l'acquérir - un abonnement mensuel ou 15 000 dollars - n'est qu'une licence d'utilisation. « Comment pouvez-vous payer pour une fonctionnalité, et votre voiture arrive en EOL (fin de vie) sans jamais y avoir accès ? C'est insensé ! », a déclaré Hughes. Mais le problème va plus loin encore.

Les experts en véhicules autonomes, les défenseurs de la sécurité routière et d'autres critiques classent l'accès au FSD comme un cauchemar en matière de sécurité et veulent. Selon des critiques, ce n'est pas un hasard si les investisseurs de Tesla veulent toujours s'assurer que toutes les références au FSD sont suivies d'un mot qui libère Tesla de toute responsabilité : bêta. Cela signifie que le logiciel n'est pas prêt pour la production : il est encore en phase de test. Ainsi, les experts en sécurité routière affirment que seuls les ingénieurs et les conducteurs formés devraient être autorisés à tester le logiciel pour le moment.


Tesla enchaîne les procès en raison des dégâts qui résultent des défaillances de son système dénommé Full Self-Driving

Tesla doit faire face à un procès intenté par des propriétaires de véhicules sur la question de la conduite autonome. Ils accusent Elon Musk de les avoir induits en erreur en leur faisant croire que leurs véhicules pourraient bientôt être dotés de capacités de conduite autonome.

Tesla Autopilot est un système avancé d'aide à la conduite développé par Tesla qui équivaut à une automatisation partielle du véhicule (automatisation de niveau 2, selon la définition de SAE International). Tesla fournit un "Autopilot de base" sur tous les véhicules, qui comprend le centrage sur la voie et le régulateur de vitesse en fonction du trafic.

Les propriétaires peuvent acheter une mise à niveau vers l'"Enhanced Autopilot" (EA), qui ajoute la navigation semi-autonome sur les routes à accès limité, le stationnement automatique et la possibilité d'appeler la voiture depuis un garage ou une place de parking. Full Self-Driving (FSD) est le nom donné par Tesla à son programme d'essais bêta visant à atteindre la conduite entièrement autonome (SAE Level 5). L'appellation est controversée, car les véhicules fonctionnant sous FSD restent au niveau 2 d'automatisation et ne sont donc pas "entièrement autonomes" et nécessitent une supervision active de la part du conducteur.

L'intention déclarée de l'entreprise est d'offrir une conduite entièrement autonome à l'avenir, tout en reconnaissant que des obstacles techniques et réglementaires doivent être surmontés pour atteindre cet objectif. Depuis 2013, le PDG de Tesla, Elon Musk, a fait à plusieurs reprises des prédictions inexactes selon lesquelles Tesla atteindrait l'autonomie de niveau 5 dans un délai d'un à trois ans.

Un juge américain a rejeté récemment la demande de Tesla de rejeter une plainte accusant le constructeur de voitures électriques d'Elon Musk d'avoir fait croire aux propriétaires que leurs véhicules pourraient bientôt être dotés de capacités de conduite autonome. Le recours collectif proposé à l'échelle nationale accuse Tesla et Musk d'avoir, depuis 2016, faussement annoncé qu'Autopilot et d'autres technologies de conduite autonome étaient fonctionnelles ou "juste au coin de la rue", incitant les conducteurs à payer plus cher pour leurs véhicules.


La juge du district de San Francisco, Rita Lin, a déclaré que les propriétaires pouvaient engager des poursuites pour négligence et fraude, dans la mesure où ils s'étaient fiés aux déclarations de Tesla concernant le matériel des véhicules et leur capacité à conduire d'une côte à l'autre des États-Unis. Sans se prononcer sur le fond, M. Lin a déclaré que "si Tesla voulait faire croire que son matériel était suffisant pour atteindre un niveau d'automatisation élevé ou complet, l'allégation est manifestement suffisamment fausse".

L'affaire a été menée par Thomas LoSavio, un avocat californien à la retraite qui a déclaré avoir payé une prime de 8 000 $ en 2017 pour les capacités de conduite autonome complète (FSD) sur une Tesla Model S, pensant que cela rendrait la conduite plus sûre si ses réflexes se détérioraient à mesure qu'il vieillissait. LoSavio a déclaré qu'il attendait toujours la technologie six ans plus tard, Tesla restant incapable "même de loin" de produire une voiture à conduite entièrement autonome.

L'action en justice vise à obtenir des dommages et intérêts non spécifiés pour les personnes qui, depuis 2016, ont acheté ou loué des véhicules Tesla dotés des fonctions Autopilot, Enhanced Autopilot et Full Self-Driving. Depuis de nombreuses années, Tesla fait l'objet d'enquêtes fédérales visant à déterminer si sa technologie de conduite autonome a pu contribuer à des accidents mortels.

Les procureurs fédéraux examinent séparément si Tesla a commis une fraude en matière de valeurs mobilières ou une fraude électronique en trompant les investisseurs sur les capacités de conduite autonome de ses véhicules, selon trois personnes familières avec l'affaire.

Tesla a déclaré que l'Autopilot permettait aux véhicules de se diriger, d'accélérer et de freiner dans leur voie, et que le Full Self-Driving permettait aux véhicules d'obéir aux feux de signalisation et de changer de voie. Mais l’entreprise a reconnu qu'aucune de ces technologies ne rendait les véhicules autonomes, ni ne dispensait les conducteurs de prêter attention à la route.

Source : Vidéo de l’incident

Et vous ?

Partagez-vous les avis selon lesquels les véhicules Tesla ne sont pas prêts pour rouler sur des routes publiques ?
Quel commentaire faites-vous de la politique publicitaire autour des systèmes d'aide à la conduite de Tesla ?

Voir aussi :

L'Autopilot de Tesla fait l'objet d'une nouvelle enquête visant à vérifier l'efficacité d'une mise à jour publiée après le rappel de plus de 2 millions de véhicules. La NHTSA exprime des doutes

Un juge trouve des preuves que Tesla et Musk étaient au courant du défaut de l'Autopilot. Les déclarations de Musk auraient eu un effet significatif sur la croyance concernant les capacités du produit

Les avocats de Tesla affirment que les déclarations passées d'Elon Musk sur la sécurité de l'Autopilot pourraient n'être que des deepfakes, un juge a déclaré que cet argument est "troublant"

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 28/05/2024 à 10:36
Il y a quand même en sacré paquet de loupé dans cet accident inadminissble même pour du FSD en béta test :
- Le dépassement de la vitesse limite autorisée en étant à 60 mph (96 kmh!) au lieu de 55
- Aller à 100kmh en plein brouillard! surtout sur une route a double sens, pas si large que ça et avec un passage à niveau en approche...
- ne pas identifier le train avec le brouillard, ok, pourquoi pas, par contre les signaux lumineux standardisés dans le pays?

Le plus choquant pour moi est que par simple corrélation avec la carte, la tesla devrait déjà savoir qu'elle va croiser une voie ferrée, c'est une raison suffisante pour ralentir, d'autant plus avec des conditions météos pourries...

Si le FSD passait son permit en France, le Moniteur aurait pilé longtemps avant l'accident.
5  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 30/05/2024 à 8:14
Citation Envoyé par calvaire Voir le message
un simple petit autocollant sur un stop peut fausser les algos de reconnaissance d'image, le fsd serait bien incapable de voir un elephant dans un couloirs si cette elephant n'est pas similaire a ceux de son dataset
Je suis bien d'accord mais le FSD peut il être pertinent s'il ignore ce qu'il ne reconnait pas?
Je ne croit pas, si le vaisseau des Mondo-Shawan (les gros être métallique qui voyagent dans des chrysalides géantes dans le cinquième élément) atterrissait devant ma voiture je m'arrêterais ou j'essayerais d'éviter l'obstacle. Ca tombe sous le sens.
Pourtant le FSD semble ignorer tout obstacle physique qu'il ne reconnait pas, ce qui me semble effarant et très dangereux (cette fois pour le chauffeur mais potentiellement pour d'autres, je penses aux tallbikes, monocycles et autres véhicules atypiques.
Si quelqu'un qui n'a jamais vu d'éléphant en voit un dans un couloir, il va devenir plus prudent face à l'inconnu imposant. Le FSD, lui, l'ignore va s'en rapprocher rapidement. Ca donne peu de durée de vie dans la théorie Darwiniste.
2  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 28/05/2024 à 11:20
c'est de toute façon les limites des réseaux de neurones, le résultat n'est pas garantie.
Une liste de 50 conditions if c'est moche/dur à lire mais c'est du code solide écrit en dur et reproductible.

Un réseau de neurone, le comportement est non prédictible, même bien entrainer sur un cas "simple", le taux d'erreur et de 1% au mieux par exemple.
la reconnaissance d'image et les classifier de ce que j'ai utilisé en python avec la lib Scikit-learn, j'ai toujours pour les projets d'entreprises eux des taux positif au mieux de 90% pour de la reconnaissance d'image et c'est des cas bien plus simple que la conduite autonome qui doit reconnaitre des milliers d’objets sur la route dont le train.

pour peu qu'on utilise les llm avec chatgpt par exemple on voit vite les problèmes, il m'invente des API qui n'existe pas, parfois même m'invente une syntaxe qui n'existe pas...

Et le gros problème c'est que ces algos ne peuvent pas savoir qu'ils ne savent pas pour laisser la main a l'humain, c'est tres difficile de programmer ces algos pour qu'en cas de doute de laisser l'humain reprendre le contrôle. Un simple pixel sur un panneaux peut faire comprendre l'inverse du panneau.
1  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 29/05/2024 à 15:51
Citation Envoyé par calvaire Voir le message
Et le gros problème c'est que ces algos ne peuvent pas savoir qu'ils ne savent pas pour laisser la main a l'humain
Je suis d'accord mais on parle d'un train, donc un ensemble de pixels qui prennent 1/3 du capteur et qui se déplacent tous dans la même direction et à la même vitesse ce qui devrait au moins suggérer qu'il y a quelque chose devant.
Quand tout l'écran bouge c'est soit que tu bouges très fort soit qu'il y a un gros truc devant, dans les deux cas, tu dois déclencher les mesures d'urgences (Mais lesquelles? C'est une autre question)
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 31/05/2024 à 10:27
Citation Envoyé par calvaire Voir le message
et meme avec le lidar, il faut comprendre que l'obstacle (le train) avance et la voiture aussi et calculer que oui il y'a collision si les 2 vecteurs continue d'avancer au même rythme dans 30 secondes...
Dans ce cas, que le train avance ou pas n'a aucune importance, puisqu'il peut-être considéré comme un obstacle fixe. Seul le fait que l'obstacle soit sur le chemin que la voiture emprunte est important. Et il est quand même incroyable que le FSD ne "voit" pas l'obstacle ! Qu'importe s'il le reconnait comme un train, ou le prend pour un mur, une maison ou un troupeau d'éléphants.
1  0 
Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 31/05/2024 à 14:16
Aux USA le seul robot taxi qui arrive à s'en sortir, c'est Waymo, qui est en exploitation dans plusieurs villes aux USA, et Waymo utilise un Lidar, de même que les robots Taxi qui sont déjà utilisés en exploitation en Chine.

Le FSD "surpuissant" promis par Elon Musk et ça sans Lidar on voie bien que c'est du flan, trop risqué, pas assez fiable.

Yes, Elon. Radar is necessary for full self-driving (FSD)
1  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 31/05/2024 à 16:05
Citation Envoyé par calvaire Voir le message
vu que tesla n'a pas de lidar non le fsd n'a peut etre pas vu que c'était un obstacle.
C'est pour ça que je suis contre l'abandon de cette technologie ou d'une autre qui permet de percevoir les surfaces/volumes.
et meme avec le lidar, il faut comprendre que l'obstacle (le train) avance et la voiture aussi et calculer que oui il y'a collision si les 2 vecteurs continue d'avancer au même rythme dans 30 secondes...
Pour un LIDAR il est facile d'identifier si l'objet bouge (dans quelle direction et à quelle vitesse) parce que l'effet Doppler entraine une variation de la fréquence du signal de retour.
Donc en 1s d'analyse on doit être capable d'évaluer si l'obstacle bouge, s'il bouge de façon chaotique ou non, et d'évaluer une surface à laquelle il va se trouver dans, 1s, 10s, 30s etc. (avec une incertitude qui augmente progressivement)
J'espère qu'une Tesla est capable d'évaluer sa trajectoire nominale dans les 2 prochaine minutes (elle a une route, un GPS pour l'aider).
Ce qui donne pas mal d'information sur la probabilité d'impact, sur la gravité de l'impact et sur quelques choix pour empêcher/minimiser cette probabilité et/ou gravité.

Je peux faire un paquet d'hypothèse pour identifier un obstacle sans LIDAR mais pourquoi le faire si un LIDAR le fera toujours mieux et plus vite que tout ce que je vais suggérer via une caméra.
Exemple : Une route ne s'interrompt que dans les cas suivants :
Je suis en haut d'une colline (elle ne s'interrompt pas, je ne vois juste pas la suite)
Je suis dans un virage (elle ne s'interrompt pas, la suite est hors du champs de la caméra)
Il y a un carrefour en T (elle croise une autre route, il y a des indications au sol ou un panneau)
Il y a un truc au milieu de la route (la perspective change soudainement, ou je ne suis dans aucun cas précédents), et par truc j'entends aussi un trou parce que je dois autant l'éviter qu'un camion couché ou qu'un train.

Tout ce que je dit est bien sur caricatural, ce n'est pas un hasard si peu y arrivent.
Mais, face à un enjeu majeure (ce qu'est le FSD pour Tesla), une preuve d'intelligence consiste à faciliter la collecte des données (avec un lidar/sonar par exemple) plus tot que se baser sur un système moins fiable (une caméra).
1  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 29/05/2024 à 16:01
Citation Envoyé par totozor Voir le message
Je suis d'accord mais on parle d'un train, donc un ensemble de pixels qui prennent 1/3 du capteur et qui se déplacent tous dans la même direction et à la même vitesse ce qui devrait au moins suggérer qu'il y a quelque chose devant.
Quand tout l'écran bouge c'est soit que tu bouges très fort soit qu'il y a un gros truc devant, dans les deux cas, tu dois déclencher les mesures d'urgences (Mais lesquelles? C'est une autre question)
un simple petit autocollant sur un stop peut fausser les algos de reconnaissance d'image, le fsd serait bien incapable de voir un elephant dans un couloirs si cette elephant n'est pas similaire a ceux de son dataset
0  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 30/05/2024 à 8:51
Citation Envoyé par totozor Voir le message
Je suis bien d'accord mais le FSD peut il être pertinent s'il ignore ce qu'il ne reconnait pas?
Je ne croit pas, si le vaisseau des Mondo-Shawan (les gros être métallique qui voyagent dans des chrysalides géantes dans le cinquième élément) atterrissait devant ma voiture je m'arrêterais ou j'essayerais d'éviter l'obstacle. Ca tombe sous le sens.
Pourtant le FSD semble ignorer tout obstacle physique qu'il ne reconnait pas, ce qui me semble effarant et très dangereux (cette fois pour le chauffeur mais potentiellement pour d'autres, je penses aux tallbikes, monocycles et autres véhicules atypiques.
Si quelqu'un qui n'a jamais vu d'éléphant en voit un dans un couloir, il va devenir plus prudent face à l'inconnu imposant. Le FSD, lui, l'ignore va s'en rapprocher rapidement. Ca donne peu de durée de vie dans la théorie Darwiniste.
si tu es novice, je t'invite a tester des algos de scikit learn, tu verras que parfois ca ne fonctionne pas, sans comprendre pourquoi.
par exemple le randomforest classifier

même avec un cas simple, si tu l'entraine bien avec un dataset propre il n'a pas un taux de réussite de 100%.
et c'est bien plus basique et "debeugable" qu'un énorme réseau neurone comme doit avoir le fsd.

un exemple ici

Accuracy: 0.885
88% des prédictions du modèle sont correctes.

Precision: 0.578
précision mesure le nombre de vrais positifs (57%)

Recall: 0.0873
c'est le nombre de vrais positifs par rapport au nombre total de cas positifs réels
8% ca veut dire que le modèle manque beaucoup de cas positifs. le modèle ne parvient à identifier correctement que 8.73% des cas.

cette exemple soulève un probleme: pour faire des prédictions justes (88%), ton modèle zap pas mal de cas positif (il en détecte que 8%)...
si tu veux détecter plus de cas positifs, ton modèle risque de perdre en Accuracy

Cette exemple montre toute la complexité et que l'ia c'est pas magique et ce le sera jamais.
Les hallucination de chatgpt sont inévitable par exemple, la seul solution de le réduire c'est de réduire ces options de réponses mais dans ce cas on va perdre en qualité du modèle.
Pour le FSD j'imagine un dilemme similaire, le train il a du bien l’identifier ou la identifier avec autre chose.

Les voitures autonomes au jours d'aujourd'hui je pense devrait etre utilisé uniquement sur autoroute (peut être faut t'il faire des certifications d'autoroute d'ailleurs, certifié "ia firendly") et dans les bouchons ou il suffit juste de suivre la voiture en face.
Une autoroute/national/bout de national certifié aurait des normes a respecter: panneaux a une certaine hauteur et à un certain angle pour éviter qu'ils ne soit pas vu par l'ia, comprendrais uniquement des voix d’acceleration/décelleration comme carrefour (donc feu/stop interdit), n'aurait aucun passage a niveau...etc.

la signalisation devrait peut être même être normalisé au niveau mondial (même couleurs, même forme des panneaux et même police d'écriture), quand je vais en allemagne c'est pas la même police d'écriture, les voitures des secours et polices ne sont pas pareil (couleur différente, bruit sonore différent...) ca n'aide pas l'entrainement des ia tous ca, en suisse les autoroute sont des panneaux vert et les autoroute en bleu...etc.
0  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 31/05/2024 à 8:57
Citation Envoyé par calvaire Voir le message
Cette exemple montre toute la complexité et que l'ia c'est pas magique et ce le sera jamais.
Ca je comprends bien, c'est notamment la raison pour laquelle je penses que Tesla a eu tort de n'utiliser que des caméras.
Les hallucination de chatgpt sont inévitable par exemple, la seul solution de le réduire c'est de réduire ces options de réponses mais dans ce cas on va perdre en qualité du modèle.
Pour le FSD j'imagine un dilemme similaire, le train il a du bien l’identifier ou la identifier avec autre chose.
Et c'est là que je veux en venir, et ce que je vais dire est surement naïf mais tout système de conduite autonome devrait hiérarchiser ses informations :
1. Ce que j'observe est il un obstacle? Oui/Non (il faut différencier une voiture/train/vélo de la pluie/nuage bas/glitch visuel)
2. Si oui, Est ce que je vais ou risque d'entrer en collision avec ? Oui/Non (sa trajectoire croise t-elle la mienne? Sa trajectoire est elle suffisamment proche de la mienne?)
3. Si oui, est ce grave? Oui /Non (Il faut différencier une voiture/train/vélo d'une feuille/papier)
Dans aucune de ces questions j'ai besoin d'identifier si c'est un train ou un vaisseau Mondo-Shawan.
Et dans ces questions il y a une chose cool, plus les choses sont dangereuses (lourdes et rapides) plus leur trajectoire est prévisible. Un objet non identifié qui a une trajectoire chaotique est très probablement inoffensif et sans risque.
Après on peut commencer à identifier les voitures pour se méfier des Audi qui ont plus tendance à violer les priorités que les Kia.
la signalisation devrait peut être même être normalisé au niveau mondial (même couleurs, même forme des panneaux et même police d'écriture), quand je vais en allemagne c'est pas la même police d'écriture, les voitures des secours et polices ne sont pas pareil (couleur différente, bruit sonore différent...) ca n'aide pas l'entrainement des ia tous ca, en suisse les autoroute sont des panneaux vert et les autoroute en bleu...etc.
Ce qui est d'office impossible parce que nous ne mesurons pas tous la vitesse de la même façon.
Ceci dit ma voiture reconnait très bien les panneaux de vitesse en France, Belgique et Allemagne alors qu'ils sont tous plus ou moins différents (en Belgique on précise souvent km après la valeur).
Et je penses que la lecture des panneaux n'est pas suffisante, par exemple quand on arrive en France il y a un panneau assez incompréhensible qui donne les règles de vitesse dans le pays, ce qui permet d'économiser les panneaux ensuite.
Il existe plusieurs tronçon en Belgique qui sont renseignés par mon GPS voiture, Google Maps et Waze comme limité à 90km/h alors qu'ils sont limités à 120km/h si on suit le code de la route donc je suppose qu'il existe une base qui renseigne les vitesses limites.
0  0