IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un conducteur Tesla endormi alors que l'Autopilot était enclenché accuse le système d'avoir percuté une voiture de police par l'arrière,
Suggérant une défaillance dans le fonctionnement du logiciel

Le , par Mathis Lucas

40PARTAGES

6  0 
Un conducteur Tesla endormi alors que l'Autopilot était enclenché accuse le système d'avoir percuté une voiture de police par l'arrière
suggérant une défaillance dans le fonctionnement du logiciel

Un nouvel accident soulève des doutes concernant la fiabilité des systèmes conçus par Tesla pour s'assurer que les conducteurs restent attentifs lorsque l'Autopilot est activé. Un conducteur Tesla à Barrington Hills, dans l'Illinois, a été arrêté et inculpé après avoir percuté une voiture de police de South Barrington. Interrogé par la police, il aurait déclaré s'être endormi et que l'Autopilot avait le contrôle au moment de la collision. Les systèmes de surveillance du conducteur auraient dû l'avertir de rester attentif, mais il existe des moyens de les contourner. Le nom Autopilot pousse certains conducteurs à faire aveuglément confiance au système, malgré ses défaillances.

L'Autopilot de Tesla est un système avancé d'aide à la conduite (ADAS) de niveau 2. Il permet à la voiture de se diriger, d’accélérer et de freiner automatiquement dans certaines conditions. Par exemple, la voiture peut suivre sa voie sur l’autoroute, adapter sa vitesse selon le trafic et garder ses distances avec le véhicule qui précède. Toutefois, contrairement à ce que son nom pourrait laisser penser, il ne s'agit pas d'un système de conduite autonome.

L'Autopilot exige que le conducteur reste pleinement attentif, garde les mains sur le volant et soit prêt à prendre le contrôle à tout moment, car le système ne peut pas gérer toutes les situations de la route. Mais dans la réalité, les conducteurs Tesla ont tendance à s'abandonner à l'Autopilot lorsqu'il est enclenché.

Cela semble être le cas du conducteur Tesla de Barrington Hills, du moins selon son récit à la police. Il a déclaré que l'Autopilot était aux commandes lorsque la voiture a percuté l'arrière d'une voiture de police alors qu'ils dormaient. Mais son histoire suscite le scepticisme. Le conducteur utilisait peut-être l'Autopilot à un moment donné, mais quant à savoir si le système était toujours en marche moment de l'impact, c'est une tout autre histoire.

Les fonctions de surveillance du conducteur auraient dû avertir le conducteur, mais il existe des moyens de les contourner. Si la caméra de surveillance du conducteur n'a pas une vue claire des yeux du conducteur, elle revient à la détection du couple du volant, qui peut être contournée à l'aide d'un simple poids.

La police informe que la responsabilité humaine reste primordiale

Si les déclarations du conducteur sont vraies, cela suggère que ce dernier a activement ignoré les avertissements visuels et sonores répétés du système de surveillance lui demandant de rester attentif avant que l'Autpilot ne se désactive finalement, ou qu'il a contourné d'une manière ou d'une autre les fonctions de sécurité. Les conducteurs peuvent échapper aux contrôles de Tesla en couvrant la caméra de l'habitacle lors de l'utilisation d'Autopilot.


Le système émet plusieurs avertissements. Selon Tesla, si le conducteur ignore à plusieurs reprises les invites lui demandant d'exercer une légère pression sur le volant ou de faire attention, le système affiche une série d'avertissements de plus en plus sévères et, si ces avertissements sont ignorés, il se désactive pour le reste du trajet et affiche le message suivant : « Autopilot indisponible pour le trajet actuel. Avertissements ignorés ».

Si le conducteur ne reprend pas le contrôle manuel du volant, la voiture émet un signal sonore continu, active les feux de détresse et ralentit jusqu'à s'arrêter complètement. Selon les experts, une enquête approfondie est nécessaire pour déterminer comment l'Autopilot s'est comporté avant la collision.

Le département de police de Barrington Hills, qui mène l'enquête, a arrêté le conducteur et l'a inculpé de plusieurs infractions. Deux agents se trouvaient dans la voiture de police au moment de l'accident. Heureusement, les responsables du village ont indiqué que les deux agents n'avaient pas subi de blessures graves. Le département de police de South Barrington a partagé quelques images des dommages subis par leur voiture de police.

Le chef adjoint de la police de South Barrington, Adam Puralewski, a rappelé que si les systèmes automatisés ne sont pas illégaux, la responsabilité humaine reste primordiale. « La technologie continue d'évoluer et peut améliorer la sécurité lorsqu'elle est utilisée correctement. Cependant, il est important de rappeler que les conducteurs restent responsables de la conduite sécuritaire de leur véhicule à tout moment », a déclaré Adam Puralewski.

Le système de surveillance des conducteurs de Tesla jugé inefficace

Tout système peut faire l'objet d'abus. Il est difficile de créer un système totalement infaillible. Cependant, on peut se demander si Tesla en fait assez pour prévenir les abus, une préoccupation qui a été soulevée dans plusieurs procès impliquant des accidents liés à l'Autopilot et le système de conduite entièrement autonome de Tesla, Full Self-Driving (FSD). Prétendre que vous « dormiez » n'est pas une défense, c'est un aveu direct de négligence.


Dommages subis par la voiture de police

Dans certains cas, des conducteurs ont affirmé qu'ils pensaient qu'il était raisonnable de ne pas faire attention, car ils croyaient que l'Autopilot empêcherait les accidents. Ce qui est notamment très éloigné de la réalité. Lorsque Tesla vante les mérites de son système en le présentant comme « plus sûr que les humains » sur la base d'un « rapport de sécurité » profondément biaisé, on comprend que certaines personnes puissent se faire une idée erronée.

Citation Envoyé par Critique


Tout système de niveau 2 à peu près compétent devrait : détecter que le conducteur est endormi/ne réagit pas/est distrait ; attirer l'attention du conducteur à l'aide de signaux visuels et sonores, puis le « secouer » pour le réveiller à l'aide de manœuvres de freinage. Si tout cela échoue, immobiliser la voiture en toute sécurité avec les feux de détresse allumés et lancer un appel SOS d'urgence avec la localisation GPS et la description de la situation envoyées aux premiers secours.

Aucun système de niveau 2 ne devrait JAMAIS se désactiver si le conducteur ne réagit pas.

Et même avec le système de niveau 2 désactivé, cet accident ne devrait JAMAIS se produire, car un système de prévention des collisions frontales (totalement indépendant et toujours actif) doit toujours être capable de détecter une voiture devant et de s'arrêter avant de la percuter (au moins jusqu'à une différence de vitesse de 90 km/h, y compris les voitures à l'arrêt, au-delà de laquelle le freinage d'urgence doit être utilisé pour réduire autant que possible la vitesse d'impact).

Tesla est le résultat d'un système conçu pour impressionner et non pour privilégier la sécurité.

En décembre 2023, Tesla avait été contraint de rappeler plus de deux millions de véhicules, car le système censé surveiller l'attention des conducteurs au volant lorsque l'Autopilot est enclenché était défectueux. Cependant, Consumer Reports avait indiqué peu après que « la solution proposée par Tesla était insuffisante » et que les conducteurs pouvaient neutraliser le système et utiliser l'Autopilot de manière abusive, ce qui constitue un risque de sécurité.

Tesla renonce à offrir une conduite autonome sans surveillance

Depuis 2016, Tesla affirmait que tous ses véhicules en production seraient capables d'atteindre une capacité de conduite autonome sans supervision. Le PDG Elon Musk a affirmé que cela se produirait « d'ici la fin » de chaque année depuis 2018. Cependant, près d'une décennie plus tard, il n'en est rien. Alors que l'Autopilot et le Full Self-Driving sont confrontés à de nombreuses défaillances techniques, Tesla décide de renoncer à cette promesse.

En juillet 2025, le PDG de Ford, Jim Farley, a fait part de son scepticisme à l'égard de l'approche de Tesla en matière de conduite autonome. Tesla s'appuie uniquement sur des caméras pour ses fonctions de conduite autonome, tandis que Waymo utilise une combinaison de caméras, de radars et de LiDAR. Invité à comparer les deux systèmes, Jim Farley a souligné les limites du modèle de Tesla et a déclaré que l'approche de Waymo semble « plus logique ».

Aujourd'hui, Tesla a modifié la signification de « conduite entièrement autonome » pour renoncer à sa promesse initiale d'offrir une autonomie sans supervision. L'entreprise a déjà confirmé que tous les véhicules produits entre 2016 et 2023 ne disposent pas du matériel nécessaire pour offrir une conduite autonome comme promise. Cela signifie que Tesla a menti lorsqu'il a promis à ses clients qu'ils pourraient un jour convertir leurs véhicules en « robotaxis ».

Tesla a modifié son discours et ne vend désormais plus que des systèmes « Full Self-Driving (Supervised) » (conduite entièrement autonome sous supervision) à ses clients. Les petits caractères précisent que cela ne rend pas le véhicule « autonome » et ne promet pas cette fonctionnalité. Ainsi, les clients qui achètent le Full Self Driving aujourd'hui n'achètent pas la capacité de conduite autonome sans supervision comme l'ont fait les acheteurs précédents.

Tesla a vendu le pack Full Self-Driving Capability pour un montant pouvant atteindre 15 000 dollars, assurant aux clients que le système évoluerait vers une autonomie totale grâce à des mises à jour en direct. Mais aujourd'hui, l'on est bien loin de la vision initiale. En réalité, le Full Self-Driving est désormais commercialisé comme un simple système avancé d'aide à la conduite (ADAS) sans aucun engagement en matière d'autonomie sans surveillance.

Conduite autonome : l'échec de l'Autopilot et du Full Self-Driving

La conduite autonome est la promesse centrale autour de laquelle Elon Musk a bâti son entreprise. Il est convaincu qu'il s'agit de la prochaine frontière de l'industrie automobile. Tesla n'a jamais livré de véhicule véritablement autonome, mais le milliardaire continue d'affirmer que ses voitures rouleront bientôt sans aucune intervention humaine. En attendant, l'Autopilot, son logiciel d'aide à la conduite, n'est pas vraiment aussi avancé qu'il le prétend.

Les documents contiennent plus de 2 400 plaintes de clients concernant des accélérations involontaires et plus de 1 500 problèmes de freinage, dont 139 cas impliquant un freinage d'urgence sans cause et 383 freinages fantômes déclenchés par de fausses alertes de collision. Plus de 1 000 accidents sont documentés.

Une feuille de calcul distincte sur les incidents liés à l'aide à la conduite, pour lesquels les clients ont soulevé des préoccupations en matière de sécurité, répertorie plus de 3 000 entrées. La plus ancienne date de 2015, la plus récente de mars 2022. Sur cette période, Tesla a livré environ 2,6 millions de véhicules équipés du logiciel Autopilot. La plupart des incidents se sont produits aux États-Unis, mais des plaintes ont été enregistrées en Europe et en Asie.

Les clients ont décrit leurs voitures comme accélérant soudainement ou freinant brusquement. Certains s'en sont sortis avec une frayeur, d'autres ont fini dans des fossés, ont percuté des murs ou sont entrés en collision avec des véhicules venant en sens inverse. « Après avoir déposé mon fils sur le parking de son école, alors que je m'apprêtais à prendre la sortie à droite, la voiture a soudainement fait un bond en avant », peut-on lire dans une plainte.

Les défaillances techniques de l'Autopilot et du Full Self-Driving

Ces dernières années, la NHTSA a recensé plusieurs cas dans lesquels des Tesla ont percuté des véhicules d'urgence à l'arrêt. Dans chacun de ces cas, l'Autopilot s'est désactivé « moins d'une seconde avant l'impact », ce qui laisse beaucoup trop peu de temps au conducteur pour réagir. Les critiques ont averti que ce comportement pourrait permettre à Tesla de faire valoir devant les tribunaux que l'Autopilot n'était pas activé au moment de l'impact.

Le YouTuber Mark Rober, ancien ingénieur à la NASA, a reproduit ce comportement dans une expérience réalisée le 15 mars 2025. Il a simulé une série de situations dangereuses dans lesquelles la Tesla Model Y a obtenu des résultats nettement inférieurs à ceux d'un véhicule concurrent. La Tesla a roulé à plusieurs reprises sur un mannequin d'essai sans freiner. La vidéo est devenue virale, accumulant plus de 14 millions de vues en quelques jours.

L'expérience du YouTuber Mark Rober renforce l'argument selon lequel les systèmes de conduite autonome basés sur le LiDAR sont plus fiables que les systèmes de conduite autonome utilisant uniquement des caméras, comme les systèmes Autopilot et Full Self-Driving de Tesla. La seconde voiture testée par Mark Rober est équipée d'un système de conduite autonome utilisant une combinaison de LiDAR, de caméras et d'autres types de capteurs.

Tesla a décidé de renoncer au LiDAR et de s'appuyer entièrement sur la vision par ordinateur. Selon les critiques, la vision par ordinateur est limitée, ce qui justifierait les défaillances des systèmes Autopilot et Full Self-Driving de Tesla. Le PDG de Tesla, Elon Musk, a qualifié le LiDAR de « béquille », et a déclaré qu'il s'agit d'une « aventure insensée ». Cependant, de nombreux experts de l'industrie automobile ne partagent pas l'avis du PDG de Tesla.

En mars 2025, Tesla a supprimé le terme « Full Self-Driving » du nom de son logiciel de conduite autonome en Chine, le Full Self-Driving ayant déjà été taxé de publicité mensongère pour avoir laissé croire aux consommateurs que les véhicules Tesla étaient entièrement autonomes.

Source : le département de police de Barrington Hills

Et vous ?

Quel est votre avis sur le sujet ?
Selon vous, qui du conducteur ou de l'Autopilot est responsable de cet accident ?

Voir aussi

Tesla modifie la signification du terme « Full Self-Driving » et renonce à sa promesse d'offrir une conduite autonome sans surveillance, les problèmes techniques persistent et le logiciel rebute les clients

Autopilot : Tesla a déclaré ne pas disposer des données clés relatives à un accident mortel, puis un hacker les a trouvées. L'entreprise nie les avoir cachées, mais est condamnée à verser 243 Mns $

Quand la technologie oublie le bon sens : avec l'abandon des poignées mécaniques par Tesla, les accidents peuvent se transformer en courses mortelles contre la montre
Vous avez lu gratuitement 1 873 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 29/10/2025 à 14:14
C'est quand même dingue que tu fasses le chien de garde comme ça.
T'as combien d'actions Tesla ?

Ça fait 5 ans que Tesla est accusé de publicité mensongère à cause d'arguments commerciaux fallacieux dont les appellations "Full self driving" ou "Autopilot".
https://duckduckgo.com/?t=lm&q=%22fu...ensong%C3%A8re
https://duckduckgo.com/?t=lm&q=%22au...ensong%C3%A8re

Tu cites uniquement les parties qui t'intéressent dans l'article.
Les systèmes de surveillance du conducteur auraient dû l'avertir de rester attentif, mais il existe des moyens de les contourner. Le nom Autopilot pousse certains conducteurs à faire aveuglément confiance au système, malgré ses défaillances.
10  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 29/10/2025 à 16:31
Citation Envoyé par Ryu2000 Voir le message
Vous êtes d'une extrême mauvaise foie.
Personnellement, mon foie se porte à merveille. Mais, pour la mauvaise foi (sans "e"), je pense que tu es imbattable. (Tu vois, les mots ont de l'importance)

Citation Envoyé par Ryu2000 Voir le message
Est-ce que depuis 1912 les avions décollent, volent, atterrissent tout seul sans aucune intervention humaine ?
Heu, les avions ne sont pas à destination du grand public, il me semble. N'est pas pilote de ligne qui veut.

Citation Envoyé par Ryu2000 Voir le message
Puisque des gens ont du mal à comprendre le truc, Tesla aurait pu changer le nom.
Ha ben oui ! Mais du coup, "programme mal foutu que vous payer beaucoup trop cher", il parait que c'est moins vendeur...

Citation Envoyé par Ryu2000 Voir le message
Mais d'un autre côté "Auto Pilot" ça n'a jamais voulu dire que ça permettait au véhicule de se piloter tout seul...
Heu ! Ben si, justement. "Pilote automatique", ça signifie clairement que ça fait le job tout seul. En plus, c'est pas comme si Musk n'a rien fait pour faire croire que c'était une voiture autonome.

Citation Envoyé par Ryu2000 Voir le message
Des gens me saoulent avec les mots et les définitions...
Oui, c'est chiant que les mots aient un sens. On n'est pas dans kamoulox, là.

Citation Envoyé par Ryu2000 Voir le message
Regardez ça :
Programmation de jeu 2D : Le morpion, Sixième partie

Est-ce que quelqu'un dit "l'algorithme Min-Max ce n'est pas une intelligence artificielle" ?
Ben non ! Ça ne pose problème à personne.
Il y a plein de personne qui disent que ce n'est pas de l'intelligence artificielle. Et, accessoirement, je ne pense pas que le programme du Morpion risque de provoquer un accident mortel !

Citation Envoyé par Ryu2000 Voir le message
Plein de gens disent que les nouveaux trucs ne sont pas des intelligences artificielle parce qu'il n'y a rien d’intelligent, mais personne n'a jamais dit qu'il devait y avoir de l’intelligence dans l’intelligence artificielle. C'est juste une expression.
Ben, si justement. Plein de monde disent et répètent qu'il n'y a pas d'intelligence dans leurs modèles d'IA. La propagande fait qu'on ne les entend pas, mais ça n'empêche pas que des gens le disent.

Citation Envoyé par Ryu2000 Voir le message
Mais qu'est-ce que tu viens me faire chier avec le RN ?
Ben, vu tous tes posts qui ne parlent que du RN, je pense que c'est ta marotte.

Citation Envoyé par Ryu2000 Voir le message
C'est l'UPR que j'aime bien.
Ha oui, mais bon, je ne parle pas de ce qui n'existe pas.
8  0 
Avatar de DevTroglodyte
Membre extrêmement actif https://www.developpez.com
Le 30/10/2025 à 16:11
Citation Envoyé par Ryu2000 Voir le message
Ben non, le responsable de l'accident c'est forcément le conducteur, il est interdit de laisser la voiture se conduire toute seule.
Elle ne peut pas être tenu responsable, puisque c'est écrit qu'elle ne peut pas se conduire toute seule.

Il faudrait vraiment le faire exprès pour ne pas comprendre que le FSD est une aide à la conduite...
C'est écrit !
Full Self-Driving (Supervised)
Dans ton lien, quasi tout est fait pour faire croire au conducteur moyen que la voiture peut conduire seule sans qu'il n'ait à superviser (c'est pas la petite astérisque à peine visible qui va l'inciter à aller chercher les détails). Toute la com de Tesla sur cette saleté est basée sur le fait de faire croire que la bagnole se conduit seule, depuis le nom du système... Ce qu'ils oublient de dire, enfin, disent tout bas pour ne pas qu'on l'entende, c'est qu'elle ne conduit seule qu'en environnement controlé, et que dans la vie réelle si tu veux l'utiliser, va falloir la surveiller... Et vu l'énergie que ça demande, c'est plus safe de conduire soi-même, moins couteux en stress et en vies humaines. Et je pense en énergie du conducteur, aussi, mais j'avoue ne pas avoir cherché sur ce point si des études existent.
8  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 29/10/2025 à 15:59


Citation Envoyé par r0d Voir le message
C'est juste un admirateur inconditionnel de Musk. ¯\_(ツ)_/¯
C'était couru d'avance, je me demande même comment certains ont pu y croire, de plus juste avec des caméras. Le LiDar aide un peu, la combinaison des 2 pourrait donner de meilleurs résultats, peut-être. Mais ça fait 10 ans qu'il promet que "c'est pour l'année" prochaine. Là, l'aveu vient de tomber, il n'y aura pas de Niveau 5 chez Tesla (et chez les autres non plus, même si certains font mieux).

Va-t-il rembourser les pauvres "pré-acheteurs" qui ont payé 15000$ pour rien ?

C'est facile de faire le kèkè dans une "key-notes" devant des fans, c'est autre chose de construire une voiture (déjà que les porte de son cyber-truck-machin tombent toutes seules), dont le "design" n'a pas ou presque évolué en 10 ans (là où un vrai constructeur renouvelle sa gamme minimum tous les 2 ans). "Design" déjà quelconque à la base, construit pour certaines dans une chaine de production installée à la va vite sous une tonnelle (ça fait trop sérieux), électrique (ce dont pas grand monde ne veut réellement), trop chère.

Il me semble avoir vu que les ventes étaient en chute libre, mais son CA veut lui donner une rémunération de 56$ milliards, chercher l'erreur.

Enfin, ce n'est que mon avis, chacun fait et pense ce qu'il veut.

BàV et Peace & Love.
6  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 29/10/2025 à 18:36
Est-ce que depuis 1912 les avions décollent, volent, atterrissent tout seul sans aucune intervention humaine ?

C’est assez différent d’une voiture… les routes sont entrée dans un plan de vol sur le FMS, ensuite, c’est guidage GPS (facile, la tolérance est plutôt d’un mille pour la route d’un avion), mais le pilote doit intervenir pour respecter les consignes du contrôle aérien qui anticipe les risques de collision… et en dernier recours, le système TCAS détecte une collision possible et alerte le pilote pour lui dire de monter ou descendre. (Ce qui suffit à éviter une collision. En voiture, il y a moins de degré de liberté… les voies d’à côté peuvent être occupées, et le freinage nécessite une bonne anticipation, et donc une bonne perception de la situation. Un TCAS est pas mal aidé car les positions des autres avions sont échangés par transponder. De même l’atterrissage est assisté par des balises ILS en entrée de piste. Globalement, un pilote automatique sur aéronef est bien plus simple qu’en voiture : précision du GPS largement suffisante, assistance radio diverses… et malgré cela, l’humain est dans la boucle.
6  0 
Avatar de ALT
Membre émérite https://www.developpez.com
Le 30/10/2025 à 11:16
Citation Envoyé par Ryu2000 Voir le message
Les candidats LO et NPA ne font pas mieux et personne ne les embête !
L'UPR n'est pas connu parce que les médias n'en parlent jamais et quand ils sont obligé de le faire ils sont méprisants et essaient de piéger le candidat.

Ce n'est pas gentil de s'en prendre aux petits.
Autant je comprend qu'on puisse s'en prendre à Macron, mais je ne comprend pas qu'on attaque l'UPR, ce n'est pas comme si le parti était au porte du pouvoir.
Si tu demandes à un électeur moyen (donc un gars de 73 ans) si il connaît l'UPR il va te répondre que non.

L'UPR devrait être respecté au moins autant que le NPA. Les médias sont sympa avec le NPA.

Voilà, donc il n'y a aucun problème !

Bon après ils auraient pu modifier le nom "Full Self-Driving (Supervised)" ça aurait évité des attaques inutiles.

Ce n'est pas pertinent.
"Auto Pilote" ne veut pas dire que ça se conduit tout seul.
Que ça puisse tuer des gens ou pas, ça ne change rien.
De fait, bien que n'ayant pas encore 73 balais, je ne connais pas l'UPR. Comme beaucoup d'autres partis : il y en a beaucoup trop, désormais, chaque candidat créant le sien.
Et oui, les médias adorent ce qui est de gauche. Donc ils tapent sur les autres.

Si « auto pilot » ne signifie pas « pilote automatique » , que signifie-t-il ?

Enfin pour apporter quelques précisions sur le pilote automatique des avions, certains le trouvent plus facile que celui d'un véhicule terrestre. Sur certains points, je suis d'accord : pas de piéton qui traverse brutalement, pas de cycliste qui louvoie & j'en passe. Néanmoins, je tiens à signaler que le pilote automatique aéronautique est vraiment automatique & que le pilote n'est là que pour gérer les imprévus (fréquents), contrôler que tout se passe bien, via des listes de contrôle (les fameuses check-lists) à chaque étape... Autrement dit, quand tout se passe bien (vol régulier, donc hors opérations au sol [ roulage & décollage] ou en approche [avant atterrissage]), le pilote est tranquille. Même le TCAS fonctionne tout seul pour éviter les collisions ! En théorie, d'ailleurs, le pilote pourrait être totalement inutile, si les systèmes embarqués étaient réellement capables de gérer tous les incidents. À la grande différence de l'aide à la conduite automobile, abusivement appelée pilote automatique, qui nécessite toujours un conducteur très attentif. Surtout quand ces « aides » se plantent souvent.
6  0 
Avatar de shenron666
Expert confirmé https://www.developpez.com
Le 30/10/2025 à 18:53
Citation Envoyé par Ryu2000 Voir le message
Vous êtes d'une extrême mauvaise foie.
faux, j'ai fait une échographie récemment et le médecin m'a dit que mon foie se porte très bien
pour ce qui est de la mauvaise foi, c'est l'hôpital qui se fou de la charité et du luc de l'infirmière avec le beurre et l'argent du beurre des crémières hospitalisées
je pense qu'on tient un WR

Citation Envoyé par Ryu2000 Voir le message
Ça fait des années qu'on que Tesla sous-entend que l'Auto Pilot ne veut pas dire que la voiture peut se conduire toute seule.
fixed

Citation Envoyé par Ryu2000 Voir le message
Si vous voulez être chiant sur les mots, il y a 2 guerres qui valent le coup :
- Numérique (digital ça veut dire autre chose en Français)
- Chiffrer (crypter ça n'existe pas en Français)
ce ne sont pas des guerres, ça s'appelle des faux amis
celui qui m'agace le plus : library(en) => librairie bibliothèque(fr)
et c'est on ne peux plus hors sujet

Citation Envoyé par Ryu2000 Voir le message
Est-ce que depuis 1912 les avions décollent, volent, atterrissent tout seul sans aucune intervention humaine ?
les avions n'évoluent pas dans un espace en 2 dimensions
et les normes sont plus strictes... sauf pour Boeing

Citation Envoyé par Ryu2000 Voir le message
Ce système a empêché beaucoup d'accidents.
source ?

Citation Envoyé par Ryu2000 Voir le message
Et par définition l'auto pilote est une aide à la conduite.
C'est écrit dans l'article :
sauf que Tesla a vendu l'auto-pilot comme un pilote automatique
devant un tribunal l'article ne fait pas foi
Musk en a fait la promotion a outrance en montrant la voiture "capable" d'aller se garer elle-même ou de venir chercher son propriétaire là où il attend son véhicule ?

que dire du "Tesla Cybercab" ? sans pédales et sans volant ? que c'est écrit dans l'article qu'il n'est qu'une aide à rentrer (peut-être) chez soi ?
https://embarque.developpez.com/actu...Tesla-en-2025/
https://embarque.developpez.com/actu...ns-a-distance/

non clairement Tesla (Musk) a sur-vendu en décembre 2015 un truc qui devait arriver pour 2018 et qui reste aujourd'hui plus que perfectible car il a causé la mort de nombreuses personnes et a mis en danger des vies humaines à de nombreuses reprises
5  0 
Avatar de DevTroglodyte
Membre extrêmement actif https://www.developpez.com
Le 30/10/2025 à 11:44
Citation Envoyé par Ryu2000 Voir le message
Ce que t'as mis en gras l'auto pilote de Tesla peut le faire en beaucoup mieux.
Justement non. Comme dit plus haut, l'autopilot de Tesla n'arrive pas à gérer tous les évènements qu'il rencontre sur la route sans supervision humaine sinon ça fini en accident. Il a moins de capteurs à disposition, est dans un espace beaucoup plus "agité" que ce qu'un navire ou un avion peut rencontrer (on n'est pas en pilote auto quand on est en roulage sur taxiways il me semble alors qu'en vol où on a moins de risque de percuter un piéton, si), et je crois qu'en plus les pilotes auto des bateaux et des avions sont quand même supervisés par des humains "au cas où" même si c'est moins utiles que sur route (on a toujours 2 pilotes dans un avion de ligne pour info, ça leur permet de se reposer à tour de role)

Au passage, l'autopilot de Tesla ne se base que sur des caméras, pas sur des capteurs diversifiés, ce qui le handicape encore plus. Même un humain ne se base pas que sur la vue.
5  1 
Avatar de r0d
Expert éminent https://www.developpez.com
Le 29/10/2025 à 15:07
Citation Envoyé par _toma_ Voir le message
C'est quand même dingue que tu fasses le chien de garde comme ça.
T'as combien d'actions Tesla ?
C'est juste un admirateur inconditionnel de Musk. ¯\_(ツ)_/¯
4  1 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 30/10/2025 à 8:32
Citation Envoyé par Ryu2000 Voir le message
Pas d'après le dictionnaire, pas d'après Wikipédia, pas d'après le système qu'il y a dans les avions.
Oui, mais, comme je l'ai dit, les avions ne sont pas pilotés par M. Toutlemonde, il y a une formation.
Quand on te vend un véhicule avec un programme de pilote automatique à 15000$ que l'on appelle "Full Self Driving" (Conduite Autonome Complète en français), il est légitime de s'attendre à un vrai "Auto Pilote".
Surtout que le proprio de la boite affirme depuis des années que ses véhicules rouleront tout seul dans quelques mois. Bon, c'est vrai qu'il faut reconnaitre qu'il n'a pas tord : C'est toujours dans quelques mois...

Citation Envoyé par Ryu2000 Voir le message
L'histoire des accidents mortel ce n'est pas pertinent. Mortel ou pas ça ne change rien, ce n'est pas ça le sujet.
L'important c'est que ça fait des décennies qu'on appelle des algorithmes "IA" et tout le monde était d'accord avec ça.
On pouvait faire l'amalgame bot/IA.
Ben quand même. Si on me vend un jeu de morpion avec IA mais qu'il n'y a pas d'IA, ça va pas me tuer.
Si on me vend un véhicule "à la conduite entièrement autonome" et qu'elle m'envoie dans un arbre à 100km/h, c'est quand même un peu plus grave.

Citation Envoyé par Ryu2000 Voir le message
C'est totalement faux, le sens littéral ne correspond pas forcément au sens réel :
- Souris d'ordinateur
- Cheval de Troie
- Cloud
- Mémoire vive
- Virus informatique
- Bug informatique
- Boîte noire

Il n'y a pas de souris, il n'y a pas de cheval, il n'y a pas nuage, la mémoire n'est pas vivante, il n'y a pas d'être vivant microscopique, il n'y a pas d'insecte, elle est orange vif dans un avion !
C'est intéressant ce que tu donnes comme exemple, car justement, ça prouve exactement le contraire de ce que tu veux dire. Les mots ont un sens, et c'est ce que tu mets en évidence.
Par exemple : Souris d'ordinateur. Tu dis qu'il n'y a pas de souris. Certes, il n'y a pas d'animal, mais à l'origine, le petit appareil avait une apparence de souris, c'est pour cela qu'on lui a donné ce nom. Et personne ne va confondre une souris (animal) avec une souris (appareil de pointage informatique).
Ensuite, Cheval de Troie. Là encore, à l'origine, il y a un cheval. Pas un animal, mais une représentation de l'animal. Je ne vais pas te faire l'affront de te rappeler l'origine de cette expression.
"Cloud" c'est nuage. En effet, dans ce cas le terme est peut-être mal choisi. Mais, c'est un sens littéral qui signifie "ailleurs" "lointain" et avec une notion d'inaccessible de non concret (il est impossible d'attraper un nuage).

Pour "Mémoire vive" tu dis. "La mémoire n'est pas vivante". Tu montres que tu ne sais pas faire la différence entre "vive" et "vivante". Ce sont deux mots différents qui ont des significations différentes.

Pour les deux autres, il faut se référer à l'histoire. Je te laisse chercher, ça ne te fera pas de mal, et pendant que tu essaies de comprendre, au moins tu ne raconteras pas de conneries sur ce forum...

Citation Envoyé par Ryu2000 Voir le message
Il y a déjà eu un candidat UPR lors d'une élection présidentielle.
Oui, je m'en souviens. Quelle blague !
3  0