IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le rappel du système Autopilot de Tesla, qui concerne 2 millions de voitures, fait désormais l'objet d'un examen fédéral.
La NHTSA a testé le système mis à jour et a encore des questions

Le , par Stéphane le calme

7PARTAGES

7  0 
Le constructeur automobile électrique Tesla est confronté à un nouvel examen minutieux de son système Autopilot, suite à un rappel massif de plus de 2 millions de véhicules en décembre dernier. L’Administration nationale de la sécurité routière (NHTSA) a testé la mise à jour du système et continue de poser des questions sur son efficacité.

En avril 2021, Consumer Reports a déclaré que ses chercheurs ont « facilement » réussi à tromper le système Autopilot de Tesla pour qu'il fonctionne sans personne au volant. Une démonstration qui est intervenue alors que les autorités continuent d'enquêter sur un accident mortel au Texas impliquant une Tesla qui, selon les autorités, n'avait personne sur le siège du conducteur au moment des faits. Ce nouvel accident a soulevé une question sur la sécurité d’Autopilot, le système avancé d'aide à la conduite de la société.


L’enquête de la NHTSA a débuté en août 2021, lorsque plusieurs accidents impliquant des Tesla sous Autopilot ont eu lieu, notamment des collisions avec des véhicules d’intervention d’urgence stationnés. Certains accidents se sont révélés mortels. En juin 2022, l’Office of Defects Investigation (ODI) a élevé cette enquête à un niveau d’analyse technique. Enfin, en décembre 2023, Tesla a été contrainte de rappeler plus de 2 millions de voitures après que l’analyse a révélé des lacunes dans les systèmes de surveillance du conducteur et une conception présentant un potentiel d’utilisation abusive prévisible du système.

Des documents publiés par les régulateurs américains de la sécurité indiquaient que l'entreprise allaient envoyer une mise à jour logicielle pour résoudre les problèmes. Le rappel couvre la quasi-totalité des véhicules vendus par Tesla aux États-Unis et inclut ceux produits entre le 5 octobre 2012 et le 7 décembre 2023. La mise à jour du logiciel comprend des contrôles et des alertes supplémentaires « pour encourager davantage le conducteur à adhérer à sa responsabilité de conduite continue », selon les documents.

Autopilot comprend des fonctions appelées Autosteer et Traffic Aware Cruise Control, Autosteer étant destiné à être utilisé sur les autoroutes à accès limité lorsqu'il ne fonctionne pas avec une fonction plus sophistiquée appelée Autosteer on City Streets. La mise à jour du logiciel est censée limiter l'utilisation d'Autosteer. « Si le conducteur tente d'activer l'Autosteer alors que les conditions ne sont pas réunies pour le faire, la fonction lui signalera qu'elle n'est pas disponible par des alertes visuelles et sonores, et l'Autosteer ne s'activera pas », indiquent les documents de rappel.

Autopilot peut diriger, accélérer et freiner automatiquement dans sa voie, mais il s'agit d'un système d'aide à la conduite et ne peut pas se conduire lui-même, malgré son nom. Des tests indépendants ont révélé que le système de surveillance est facile à tromper, à tel point que des conducteurs ont été pris en flagrant délit de conduite en état d'ébriété ou même assis sur le siège arrière.

Dans son rapport de défaut déposé auprès de l'agence de sécurité, Tesla a déclaré que les contrôles d'Autopilot « pourraient ne pas être suffisants pour empêcher une mauvaise utilisation par le conducteur ».

Tesla précise sur son site internet que le système Autopilot et le système Full Self Driving, plus sophistiqué, ne peuvent pas conduire de manière autonome et sont destinés à aider les conducteurs qui doivent être prêts à intervenir à tout moment. Le système Full Self Driving est actuellement testé par des propriétaires de Tesla sur des routes publiques.


La NHTSA a maintenant clos cette analyse technique, qui a examiné 956 accidents

Après avoir exclu les accidents où l'autre voiture était en tort, où Autopilot ne fonctionnait pas ou où les données étaient insuffisantes pour faire une détermination, elle a trouvé 467 accidents Autopilot qui se répartissent en trois catégories distinctes.

Tout d'abord, 221 étaient des accidents frontaux dans lesquels la Tesla a heurté une voiture ou un obstacle malgré « un temps suffisant pour qu'un conducteur attentif puisse réagir afin d'éviter ou d'atténuer l'accident ». Par ailleurs, 111 accidents Autopilot se sont produits lorsque le système a été désengagé par inadvertance par le conducteur, et les 145 accidents Autopilot restants se sont produits dans des conditions de faible adhérence, par exemple sur une route mouillée.

Le système Autopilot de Tesla a un domaine de conception opérationnelle plus permissif que n'importe quel système d'aide à la conduite comparable qui exige toujours que le conducteur garde les mains sur le volant et les yeux sur la route, et le rapport de la NHTSA ajoute que « Autopilot a invité une plus grande confiance du conducteur via son autorité de contrôle plus élevée et sa facilité d'engagement ».

Le résultat a été des conducteurs désengagés qui ont eu des accidents, et ces accidents « sont souvent graves parce que ni le système ni le conducteur ne réagissent de manière appropriée, ce qui entraîne des résultats différentiels à grande vitesse et des accidents à haute énergie », indique la NHTSA. Tragiquement, au moins 13 personnes ont été tuées à la suite de ces accidents.

La NHTSA a également constaté que le système télématique de Tesla présentait de nombreuses lacunes, malgré la croyance bien ancrée chez de nombreux fans de la marque que le système Autopilot enregistre et télécharge en permanence vers les serveurs de Tesla pour s'améliorer. Au lieu de cela, il n'enregistre un accident que si les airbags se déploient, ce qui, selon les données de la NHTSA, ne se produit que dans 18 % des accidents signalés par la police.

Un rappel qui semble ne pas avoir porté ses fruits

L'agence a également critiqué le marketing de Tesla. « Notamment, le terme “Autopilot” n'implique pas une fonction d'assistance L2 mais suscite plutôt l'idée que les conducteurs n'ont pas le contrôle. Cette terminologie peut amener les conducteurs à croire que l'automatisation a plus de capacités qu'elle n'en a et les inviter à faire trop confiance à l'automatisation », indique la NHTSA.

Mais maintenant, l'ODI de la NHTSA a ouvert une requête de rappel pour évaluer si la correction de décembre a réellement rendu le système plus sûr. À première vue, l'agence n'est pas convaincue que c'est le cas, si l'on en croit les autres accidents d'Autopilot qui se sont produits depuis le rappel et après avoir testé le système mis à jour lui-même.

De manière inquiétante, l'agence écrit que « Tesla a déclaré qu'une partie du remède exige que le propriétaire opte pour le système et permet à un conducteur de l'annuler facilement » et veut savoir pourquoi les mises à jour ultérieures ont résolu des problèmes qui auraient dû être corrigés avec le rappel de décembre.


Les noms Autopilot et Full Self-Driving dont Tesla fait usage donnent aux utilisateurs un faux sentiment de sécurité

Comme la NHTSA et plusieurs autres voix avant elle, un lanceur d'alerte, qui a travaillé chez Tesla, qualifie les voitures équipées d’Autopilot « d’expériences sur la voie publique qui menacent la vie des usagers ». Lukasz Krupski, ancien technicien de Tesla, s’est d’ailleurs vu décerner le prix Blueprint Europe Whistleblowing pour le courage dont il a fait preuve en divulguant une masse de données qui jettent le doute sur la viabilité et la sécurité de la technologie de conduite autonome du constructeur automobile.

Ryan Cooper, éditeur en chef d'un magazine, note par exemple que : « les régulateurs devraient examiner de plus près les fonctions d'assistance à la conduite en général, obligeant les fabricants à prouver qu'ils améliorent réellement la sécurité, plutôt que de faire confiance à la parole d'un oligarque fourbe ».

Il continue en disant que :

« La principale défense de FSD est l'hypothèse technologique utopique selon laquelle, quels que soient ses problèmes, elle ne peut pas être pire que les conducteurs humains. Tesla a affirmé que le taux d'accident FSD est un cinquième de celui des conducteurs humains, et Musk a fait valoir qu'il est donc moralement obligatoire de l'utiliser : "Au point où vous pensez que l'ajout d'autonomie réduit les blessures et la mort, je pense que vous avez une obligation morale de le déployer même si vous allez être poursuivi et blâmé par beaucoup de gens.

« Pourtant, si les propres données de Musk sur l'utilisation du FSD sont exactes, cela ne peut pas être vrai. En avril, il a affirmé qu'il y avait eu 150 millions de miles parcourus avec FSD lors d'un appel à un investisseur, un chiffre raisonnable étant donné que ce ne serait que 375 miles pour chacune des 400 000 voitures dotées de la technologie. En supposant que tous ces accidents impliquaient des FSD - une hypothèse plausible étant donné que les FSD ont été considérablement étendus au cours de la dernière année et que les deux tiers des accidents dans les données se sont produits pendant cette période - cela implique un taux d'accidents mortels de 11,3 décès pour 100 millions de kilomètres parcourus. Le taux global d'accidents mortels pour les voyages en voiture, selon la NHTSA, était de 1,35 décès pour 100 millions de kilomètres parcourus en 2022.

« En d'autres termes, le système FSD de Tesla est probablement de l'ordre de dix fois plus dangereux en matière de conduite que les humains ».

Tesla pour sa part n’en démord pas et continue de se vanter de disposer de la meilleure intelligence artificielle pour la résolution d’un des problèmes du monde réel, à savoir, la conduite automobile.

Sur le terrain par contre, les plaintes se multiplient à l’encontre des véhicules dits autonomes de Tesla et autres Waymo

« Ces engins s’arrêtent souvent devant nos bases et empêchent nos équipes de se rendre sur le terrain pour des interventions. Ils ont constitué des obstacles de diverses manières pour nos équipes et même pour des ambulances », rapporte le chef des pompiers de San Francisco qui rejoint des observateurs selon lesquels « les robotaxis ne sont pas encore prêts à partager les routes avec les humains. »


Source : NHTSA

Et vous ?

La responsabilité des conducteurs : qui devrait être tenu responsable en cas d’accident impliquant un système de conduite automatisée comme l’Autopilot de Tesla ? Le conducteur, le constructeur automobile ou les deux ?
Limites de l’automatisation : quelles sont les limites de la technologie actuelle en matière de conduite automatisée ? Devrions-nous être plus prudents quant à l’adoption de ces systèmes ?
Transparence des données : les constructeurs automobiles devraient-ils être plus transparents sur la collecte et l’utilisation des données de télémétrie ? Comment pouvons-nous garantir que ces données sont utilisées de manière éthique ?
Formation des conducteurs : comment pouvons-nous mieux former les conducteurs à l’utilisation des systèmes d’assistance à la conduite ? Quels sont les éléments essentiels à inclure dans la formation ?
Rôle des régulateurs : quel devrait être le rôle des organismes de réglementation dans la supervision des technologies de conduite automatisée ? Comment peuvent-ils assurer la sécurité tout en favorisant l’innovation ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 30/04/2024 à 20:17
Citation Envoyé par DevCon1234 Voir le message
Pour info, Tesla ne lâche pas ses versions aux utilisateurs comme ça.
Tout à fait, il faut d'abord qu'Elon Musk refasse la vidéo truquée qui montre que le FSD est utile alors qu'en vrai c'est un logiciel de suicide assisté

Citation Envoyé par DevCon1234 Voir le message
Pour info, Tesla ne lâche pas ses versions aux utilisateurs comme ça.
Puis ils diffusent la version aux employés de Tesla(quelques semaines si tout est ok)
C'est ça, et si un employé de Tesla trouve un bug il est viré dans l'heure directement par Elon Musk, même méthode que chez Boeing

Citation Envoyé par DevCon1234 Voir le message
Le problème de l'Europe c'est qu'on veut la perfection, on n'accepte plus aucun risque et par extension, on ne fait rien et on regarde les US et la Chine prendre le large. C'est un problème de mentalité, on le vois très bien dans ce forum.
C'est ça, par exemple en Suisse le système de suicide assisté marche parfaitement, à 100%, alors qu'en France le système de suicide assisté appelé FSD ne te permet de mourir que de façon aléatoire, c'est moins bien.

9  2 
Avatar de totozor
Membre expert https://www.developpez.com
Le 03/05/2024 à 9:30
Citation Envoyé par DevCon1234 Voir le message
Le problème de l'Europe c'est qu'on veut la perfection, on n'accepte plus aucun risque et par extension, on ne fait rien et on regarde les US et la Chine prendre le large. C'est un problème de mentalité, on le vois très bien dans ce forum.
Je suis partiellement d'accord avec ça.
L'Europe et les US n'assument pas les risques de la même façon et la conduite autonome est un bon exemple:
Tesla met un FSD sur la marché qui fonctionne plus ou moins bien, qui vente un système de conduite autonome mais met dans le conditions d'utilisation que le chauffeur doit rester maitre de son véhicule (et donc que Tesla n'est pas responsable en cas d'accident).
Mercedes met plus tard une voiture autonome, qui l'est dans moins de situations, si la voiture avec le système de conduite provoque un accident Mercedes se dit responsable juridiquement (on verra ce qu'il en est au premier cas).

Les Boeing ont une durée de vie définie, en tant que compagnie aérienne tu peux t'en servir ensuite mais à tes risques et périls.
Les Airbus ont une durée de vie définie, en tant que compagnie tu n'as pas le droit de t'en servir ensuite. (Donc quand il passe en entretien de fin de vie direction la casse)

Ca donne en effet un avantage en terme d'innovation au US, mais ça apporte à l'Europe une image de fiabilité qui n'est pas à négliger non plus (ce qui est surement moins bénéfique dans l'informatique que dans l'industrie, je veux bien le reconnaitre).

J'aurais beaucoup moins de problèmes avec le FSD si Tesla était honnête sur son niveau de qualité et sur l'attention nécessaire des chauffeurs.
Mais aujourd'hui ils survendent toujours ce produit.
6  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 03/05/2024 à 16:13
Citation Envoyé par DevCon1234 Voir le message
1er commentaire de qualité et qui critique objectivement le FSD, ça change, merci
Je ne te remercies pas, une partie des commentaires qui ne sont pas de qualité viennent de moi.
Et je penses à la fois ce que je dis dans ce message que dans les précédents.
[...] tout le monde est conscient que ce n'est pas magique, qu'il y a encore des problèmes mais que ça reste le système le plus avancé et bluffant même si il est au niveau 2 réglementaire. Il suffit d'étudier le fonctionnement. Tout est à disposition, encore faut-il un minimum de connaissance en IA pour comprendre mais ça devrait être le cas ici (voir Andrej Karpathy par ex. pour l'IA). Peu de gens se rendent compte des talents qu'il y a dans cette entreprise.
Je n'ai ni les compétences ni le temps de me plonger la dedans.
Il n'empêche que d'un point de vue d'Européen, le FSD est encore au stade de la R&D et donc il ne devrait pas être lancé dans la nature sans supervision. Et ça ne remet pas en cause la compétence des employés de Tesla.
Le système de Mercedes ne sert à rien en pratique, c'est juste de la pub déguisé pour dire qu'ils sont les premiers au niveau 3 et surtout,
[...]
J'étais le 1er critique sur le tout Vision mais force est de constater que ça fonctionne très bien avec une modélisation de l'environnement quasi parfaite.
C'est le problème du FSD il est quasiment beaucoup de choses.
Je suis des personnes qui pensent qu'un système de conduite autonome doit évoluer en permanence parce que le code de la route évolue dans le temps et l'espace et que c'est encore plus le cas des cultures de conduite.
Mais alors peut on se permettre d'un système quasi parfait à un endroit et qui sera inadapté à un autre?
Quand j'étais au canada les smart étaient considérées comme des scooters, juste bonnes à livrer des pizza. Chez nous de voitures de ce gabarit sont courantes.
Au canada les ronds points sont quasi inexistants et remplacés par des carrefours à 4 stops qui on un fonctionnement quantique pour l'européen que je suis.
Donc si les Tesla aime rentrer dans les trottoirs américains comment gèrera-t-elle les notres? Et qu'est ce que je risque si je balade médor pendant qu'une Tesla roule dans le coin?
Et au vue des incidents des Tesla je ne serais pas confiant d'en croiser une pendant que son chauffeur regarde Speed.
Si on est un minimum objectif, il faut avouer que ça à l'air d'être la voie à suivre, malgré tous les bad buzz à chaque accrochage ou accidents, vu les gains de plus en plus nets entre chaque version.
Quel prix est on pret à payer pour cette évolution?
En tant qu'Européen je penses que dégrader ou retirer une vie est trop cher payé.
Je comprends que ceux qui ne voient pas l'utilité de la voiture autonome, ne comprennent pas la révolution mais pour les autres, il faut être clair, le 1er qui maitrise cette techno sera le roi du pétrole, ironique pour des VE
Mais je ne veux pas être le roi du pétrole, je veux juste éviter de me faire faucher par une voiture parce qu'on la fait monter en compétence.
Il faut dissocier ce que dit Musk de la réalité. C'est surtout lui et les médias qui font croire à des choses qui n'existent pas.
sauf que Musk (et feu Jobs) est capable de faire croire à la magie à certains de ses fans ou même du quidam et il faut rester méfiant avec ça parce que quand on voit comment certains sont morts on se rend compte que cette phrase n'est pas exacte.
Si on sort de la fascination ou de la détestation de Musk, de ses déclarations "optimistes", tout le monde est conscient que ce n'est pas magique
6  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 06/05/2024 à 8:36
Citation Envoyé par DevCon1234 Voir le message
La majorité ne savent que mettre des pouces en bas dans ce forum mais très peu argumentent.
Arrêtez de vous focaliser la dessus aussi (je mets au pluriel parce que tu n'es pas la seule à t'en plaindre), perso je ne regarde pas du tout ça.
Plus on perd de temps avec le FSD en Europe, moins l'apprentissage sera pertinent. On est en train de perdre un temps fou sur les US et le Canada sur ce point. Ce n'est qu'en roulant et en analysant les particularités d'un pays qu'on peut avancer (+ les simulations).
Ce temps perdu ne m'inquiète pas du tout.
En plus de la différence de culture industrielle entre l'Europe et l'Amérique du nord, celle automobile est aussi très marquée. Et autant je comprends pourquoi ils veulent avancer dessus autant c'est beaucoup moins urgent pour nous.
Le plus gros problème que je vois est qu'ils vont nous "imposer" un jour leur modèle qui sera inadapté à nos pays mais on devra faire avec parce que maintenant qu'il y a des centaines puis des milliers de voitures on ne voudra pas retirer leur joujou à ses cadres sup en besoin de reconnaissance.
A partir de quand tu estimes que c'est plus acceptable avec que sans ? Si je te dis que dans 6 mois, le FSD est moins accidentogène que la moyenne des humains, tu trouves plus acceptable d'avoir plus de morts du aux humains ? A un moment, c'est bien ce que la régulation acceptera en bloquant, c'est d'accepter d'avoir plus de morts au contraire de ce que tu dis.
Et bien oui, surtout si
1. Le système de conduite autonome (quel qu'il soit) déclenche des accidents qu'une personne ne déclencherait pas
2. Celui qui assume le risque est derrière le volant et pas celui qui se balade sur un trottoir ou à vélo ou ...
Par contre, par un humain, pas de soucis, tu acceptes le risque. Drôle de réflexion.
Quand une personne monte en compétence au volant, il y a un gros panneau bleu au dessus et une personne expérimentée (même pour l'encadrement de débutants) a le contrôle des pédales. Pour moi ça fait une immense différence :
1. Quand je suis sur la route (en voiture ou à vélo) je suis plus prudent (elle risque de freiner brusquement, d'essayer de tourner à un endroit où elle n'a pas le droit d'aller etc)
2. L'apprentissage est encadré par une personne professionnelle dans un cadre précis, l'accompagnateur n'est pas en train de rentrer du boulot.
Le problème est que vous n'avez aucune idée de comment ça fonctionne. Très étonnant sur un forum de dev.
Le problème est que vous semblez n'avoir aucune idée de comment la circulation en ville fonctionne.
Je suis régulièrement à vélo en ville et je brille par mon non respect du code de la route parce que je risque moins ma vie et ma santé en m'adaptant à mon environnement. Je n'ai eu qu'un accident qui aurait pu être grave en 10 ans, parce que je récupère plein d'informations en un regard vers le chauffeur (est-ce qu'il m'a vu? Est ce que nous directions se croisent? Est ce qu'il va respecter ma priorité? etc), avec un pilote auto rien du tout donc il doit être bien plus performant.
Si je te dis que sur le milliard de km déjà fait par le FSD Beta, il y a eu plus d'accidents évités que ceux qui ont été médiatisés, tu ne vas pas me croire même si je te donne les datas n'est-ce pas ? Et là, je ne parle que de la version beta, pas des nouvelles.
Si j'en suis convaincu mais ça n'est pas suffisant pour moi, un piéton sur un trottoir devrait être en sécurité, ce n'est pas le cas quand un voiture se dirige vers un trottoir sans raison.
Les risques d'accidents entre voitures je m'en fous un peu c'est un contrat implicite des conducteurs, c'est une autre histoire pour les usagers fragiles.
6  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 06/05/2024 à 9:22
Citation Envoyé par DevCon1234 Voir le message
Par contre, par un humain, pas de soucis, tu acceptes le risque. Drôle de réflexion.

Le problème est que vous n'avez aucune idée de comment ça fonctionne. Très étonnant sur un forum de dev.
Si je te dis que sur le milliard de km déjà fait par le FSD Beta, il y a eu plus d'accidents évités que ceux qui ont été médiatisés, tu ne vas pas me croire même si je te donne les datas n'est-ce pas ? Et là, je ne parle que de la version beta, pas des nouvelles.
Le problème c'est aussi la législation et la responsabilité.
Si un humain conduisant une voiture percute un piéton, on sait qui est responsable pénalement.
Avec un véhicule soi-disant autonome, on ne sait pas ! Et ce n'est pas acceptable. Pour moi, c'est la société qui a réalisé le logiciel de conduite autonome, mais, Tesla refuse de prendre cette responsabilité. Donc, non, ce n'est pas acceptable.
7  1 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 06/05/2024 à 9:33
Se fichent que ça fonctionne
Ne veulent pas la responsabilité
Se fichent des gens qui fabriquent
Se fichent des conducteurs
Se fichent encore plus des autres usagers de la route
Mentent sur les capacités du truc
Mentent sur les statistiques
Et comme on en a une fois de plus la preuve dans l'actualité de la semaine il se fiche de tous les collaborateurs qui sont à l'origine des succès de la marque

A oui faut enlever les "nt" à toutes les lignes

Soit son truc est autonome et capable et dans ce cas il assume la responsabilité du machin, soit c'est du bricolage expérimental (qui plus est basé que sur des cameras qui ont largement montré leur limites) et dans ce cas il change son nom et ne le mets pas sur le marché OTA à la râche comme un vulgaire codec audio.
7  1 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 06/05/2024 à 8:49
Citation Envoyé par DevCon1234 Voir le message
J'aime beaucoup tous les pouces rouges alors que la majorité ne comprends rien à cette marque et sont complètement largués.
Vous êtes, avec les médias mainstream, une vraie boussole qui indique le sud. Le meilleur indicateur pour savoir quand vendre ou acheter
Tu es exactement le genre de pigeon que j'adore. Tesla, je les ai vendus vers 400 après les avoir acheté autour des 20.
À bon entendeur...
Quant à comprendre une marque, on n'est pas que dans la mode, là. As-tu entendu parler des derniers modèles de Xiaomi, vendus le tiers d'une Tesla équivalente ? Je vois aussi dans la région une quantité égale de Tesla et de MG. Là aussi, les gens qui achètent regardent plus le montant de la facture que "la marque".
Bref. Dépêche-toi d'acheter Tesla, c'est ce que m'a dit ma concierge ce matin !

PS : Media mainstream, nous ? Gamin, va donc te moucher, tu baves !
6  1 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 30/04/2024 à 15:58
Citation Envoyé par DevCon1234 Voir le message
ils savent à peu près comment va fonctionner une version
Le problème de Tesla c'est ça, et c'est pour ça que ce sont les utilisateurs qui testent (et les autres usagers de la route qui sont mis en danger).
Le problème des européens c'est juste qu'ils achètent, toujours en encore plus sans se soucier des conséquences sur leur propre emploi et sur leur environnement et que donc ils achètent chez les chinois qui font des bons produits le moins cher possible, avec un grand sens commercial mais sans se soucier du tout de l'environnement et des gens qui produisent.
5  1 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 29/04/2024 à 21:23
Citation Envoyé par Stéphane le calme Voir le message
La responsabilité des conducteurs : qui devrait être tenu responsable en cas d’accident impliquant un système de conduite automatisée comme l’Autopilot de Tesla ? Le conducteur, le constructeur automobile ou les deux ?
Ceclui qui a décidé le comportement de l'automatisme => le constructeur
Et si le constructeur a laissé la main au conducteur pour régler certains comportements => les 2

Citation Envoyé par Stéphane le calme Voir le message
Formation des conducteurs : comment pouvons-nous mieux former les conducteurs à l’utilisation des systèmes d’assistance à la conduite ? Quels sont les éléments essentiels à inclure dans la formation ?
Si la voiture est autonome il y a rien ni personne à former, le problème chez Tesla aujourd'hui c'est d'utiliser les conducteurs clients comme testeurs, ce qui devrait être la tache de pilotes professionnels attentifs et conscients.
Citation Envoyé par Stéphane le calme Voir le message
Rôle des régulateurs : quel devrait être le rôle des organismes de réglementation dans la supervision des technologies de conduite automatisée ? Comment peuvent-ils assurer la sécurité tout en favorisant l’innovation ?
Comme en aéronautique ou rien est mis en service sans avoir été testé et validé, les autorités de régulations devraient empêcher la mise sur route de trucs bricolés mis à jours OTA vite fait en cas de soucis et laissé dans les mains de clients qu ne sont pas testeurs.
Le régulateur devrait aussi imposer des boites noirs comme en aéronautique avec des protocoles d'enregistrements bien défini pour empêcher l'OTA en cas de pépin.
2  1 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 30/04/2024 à 13:34
Citation Envoyé par totozor Voir le message
Le contraste de dangerosité entre un pneu et un système de conduite est pourtant majeur.
la différence ne me semble pas majeure non
0  0