IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'Autopilot de Tesla fait l'objet d'une nouvelle enquête visant à vérifier l'efficacité d'une mise à jour publiée après le rappel de plus de 2 millions de véhicules,
La NHTSA exprime des doutes

Le , par Mathis Lucas

9PARTAGES

5  1 
Les autorités américaines ont annoncé avoir ouvert une nouvelle enquête sur le système d'aide à la conduite Autopilot de Tesla. Cette enquête vise à déterminer si l'entreprise a apporté des correctifs adéquats aux défaillances techniques de l'Autopilot qui ont entraîné le rappel de plus de deux millions de véhicules Tesla en décembre dernier. L'agence fédérale NHTSA (National Highway Traffic Safety Administration) affirme qu'elle a ouvert l'enquête après avoir relevé des préoccupations liées à des accidents survenus après que les véhicules ont eu la mise à jour logicielle du rappel installée. Il s'agit d'un nouveau coup dur pour Tesla qui est dans une phase descente.

Tesla et la NHTSA ont annoncé un "rappel de sécurité" de tous les véhicules Tesla équipés de l'Autopilot en Amérique du Nord en décembre dernier. Cela représente une flotte gigantesque de plus de 2 millions de véhicules et le rappel visait à corriger un système défectueux censé s'assurer que les conducteurs sont attentifs lorsqu'ils utilisent l'Autopilot. Le rappel marquait la conclusion d'une enquête pluriannuelle de la NHTSA sur les crashs des véhicules Tesla en mode Autopilot contre des véhicules d'urgence en stationnement ou arrêtés sur l'autoroute. Le "correctif" du rappel a été publié via une mise à jour logicielle en direct.


Parmi les autres conclusions de l'enquête, la NHTSA avait constaté que le nom "Autopilot" peut "amener les conducteurs à croire que l'automatisation a des capacités plus importantes qu'elle ne l'est". L'agence fédérale avait également constaté que l'Autopilot de Tesla peut décourager les conducteurs de prendre le contrôle manuel du véhicule par rapport à d'autres systèmes de conduite automatisée, car cela désactive l'aide au centrage dans la voie Autosteer. Mais Tesla a indiqué qu'il n'était pas d'accord avec l'allégation de la NHTSA selon laquelle une surveillance inappropriée du conducteur était à l'origine de ces cas d'accidents.

La plus haute responsable de la NHTSA à l'époque, Ann Carlson, a déclaré en décembre que la sonde de l'agence avait déterminé qu'il fallait en faire plus pour s'assurer que les conducteurs sont engagés lorsque l'Autopilot est en cours d'utilisation. « L'une des choses que nous avons déterminées est que les conducteurs ne sont pas toujours attentifs lorsque ce système est en marche », a déclaré Carlson. La NHTSA a ajouté en décembre qu'elle avait constaté que l'Autopilot de Tesla peut fournir des contrôles inadéquats d'engagement et d'utilisation du conducteur pouvant conduire à une mauvaise utilisation prévisible.

L'entreprise a toutefois accepté d'ajouter davantage d'avertissements et d'alertes lorsque les conducteurs utilisent les fonctions de l'Autopilot, d'où le rappel. Cependant environ six mois plus tard, la NHTSA semble avoir des doutes sur l'efficacité de la mise à jour publiée dans le cadre du rappel après que de nouveaux accidents ont été signalés et que l'agence a été informée de certaines préoccupations concernant les correctifs. En raison de ces préoccupations, la NHTSA a décidé d'ouvrir une nouvelle enquête sur l'Autopilot pour déterminer si les correctifs sont adéquats. Voici un extrait de la déclaration de la NHTSA :

Citation Envoyé par NHTSA

Tesla a introduit le rappel 23V838 pour répondre aux préoccupations concernant le système Autopilot examiné dans l'EA22002. Après le déploiement du remède dans le rappel 23V838, l'ODI [Office of Defects Investigation] a identifié des préoccupations en raison d'accidents survenus après le déploiement de la mesure corrective et des résultats des tests préliminaires de la NHTSA sur les véhicules qui ont bénéficié de la mise à jour.

De plus, Tesla a déclaré qu'une partie de la mesure corrective exigeait que le propriétaire choisisse de l'appliquer et permettait au conducteur de l'annuler facilement. Tesla a également déployé des mises à jour non correctives pour résoudre des problèmes qui semblent liés aux préoccupations de l'ODI dans le cadre de l'EA22002.

Cette enquête examinera pourquoi ces mises à jour n'ont pas fait partie du rappel ou n'ont pas été déterminées pour remédier à un défaut qui pose un risque déraisonnable pour la sécurité.
La NHTSA affirme que l'enquête concerne tous les véhicules Tesla équipés de l'Autopilot produits entre 2012 et 2024 - y compris le Cybertruck, qui fait déjà l'objet d'un rappel en raison de pédales d'accélération défectueuses. Cela représente une flotte d'un peu plus de 2 millions de véhicules Amérique du Nord. Selon certains analystes, le rappel initial a toujours été perçu comme un compromis. Le fait que Tesla ne soit pas d'accord avec les conclusions de la NHTSA et que le rappel proprement dit consiste principalement en une légère augmentation des alertes a donné l'impression d'un compromis important de part et d'autre.


Aujourd'hui, il semble que la NHTSA veuille aller plus loin. Par ailleurs, ce n'est pas la première fois que cette mise à jour logicielle est examinée de près. Missy Cummings, experte en robotique et ancienne conseillère principale en sécurité de la NHTSA, avait déclaré que le correctif était "très vague" peu après son annonce et qu'il ne serait probablement pas aussi solide que la NHTSA le souhaiterait. De plus, les tests effectués par les experts en sécurité de Consumer Report ont révélé que la mise à jour ne va pas assez loin pour empêcher les mauvaises utilisations ou s'attaquer aux causes profondes de l'inattention du conducteur.

En février, Consumer Reports a déclaré que ses tests de la mise à jour du rappel de l'Autopilot de Tesla ont révélé que les changements ne répondaient pas de manière adéquate à de nombreux problèmes de sécurité soulevés par la NHTSA et a exhorté l'agence à exiger de Tesla qu'il prenne des mesures plus strictes, affirmant que "le rappel de l'entreprise s'attaque à des inconvénients mineurs plutôt que de résoudre les vrais problèmes". Mais les problèmes de Tesla ne s'arrêtent pas là ; l'entreprise est confrontée à des dizaines d'enquêtes.

Séparément, depuis 2016, la NHTSA a ouvert plus de 40 enquêtes spéciales sur les accidents de Tesla dans des cas où des systèmes de conduite tels que l'Autopilot étaient soupçonnés d'être utilisés, avec 23 décès liés aux accidents signalés à ce jour. Tesla a révélé en octobre que le département américain de la Justice (DOJ) avait émis des citations à comparaître concernant son système de conduite autonome intégrale (Full Self-Driving - FSD) et l'Autopilot. En outre, il a été rapporté en 2022 que Tesla faisait l'objet d'une enquête criminelle.

En février 2023, Tesla a rappelé plus de 362 000 véhicules américains pour mettre à jour son logiciel FSD Beta après que la NHTSA a déclaré que les véhicules ne respectaient pas suffisamment les lois sur la sécurité routière et pouvaient provoquer des accidents. Il convient de noter que le logiciel FSD coûte 8 000 dollars et est toujours dans une phase bêta.

Source : document de la NHTSA (PDF)

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la nouvelle enquête qui vise l'Autopilot de Tesla ?
Que pensez-vous des raisons à l'origine de l'ouverture de la nouvelle enquête de la NHTSA ?

Voir aussi

Tesla rappelle plus de 2 millions de véhicules pour réparer un système de surveillance défectueux d'Autopilot, soit quasiment tous les véhicules vendus au USA, encore un désastre pour Elon Musk

Tesla annonce un rappel massif de tous les Cybertruck pour pédales d'accélérateur défectueuses, vous n'avez même plus besoin d'activer l'Autopilot pour avoir un accident

Cybertruck de Tesla : Freinages brusques et inattendus avec Autopilot activé, code d'erreur empêchant la recharge, les propriétaires accusent Tesla d'avoir précipité la sortie du véhicule

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 30/04/2024 à 20:17
Citation Envoyé par DevCon1234 Voir le message
Pour info, Tesla ne lâche pas ses versions aux utilisateurs comme ça.
Tout à fait, il faut d'abord qu'Elon Musk refasse la vidéo truquée qui montre que le FSD est utile alors qu'en vrai c'est un logiciel de suicide assisté

Citation Envoyé par DevCon1234 Voir le message
Pour info, Tesla ne lâche pas ses versions aux utilisateurs comme ça.
Puis ils diffusent la version aux employés de Tesla(quelques semaines si tout est ok)
C'est ça, et si un employé de Tesla trouve un bug il est viré dans l'heure directement par Elon Musk, même méthode que chez Boeing

Citation Envoyé par DevCon1234 Voir le message
Le problème de l'Europe c'est qu'on veut la perfection, on n'accepte plus aucun risque et par extension, on ne fait rien et on regarde les US et la Chine prendre le large. C'est un problème de mentalité, on le vois très bien dans ce forum.
C'est ça, par exemple en Suisse le système de suicide assisté marche parfaitement, à 100%, alors qu'en France le système de suicide assisté appelé FSD ne te permet de mourir que de façon aléatoire, c'est moins bien.

9  2 
Avatar de totozor
Membre expert https://www.developpez.com
Le 03/05/2024 à 9:30
Citation Envoyé par DevCon1234 Voir le message
Le problème de l'Europe c'est qu'on veut la perfection, on n'accepte plus aucun risque et par extension, on ne fait rien et on regarde les US et la Chine prendre le large. C'est un problème de mentalité, on le vois très bien dans ce forum.
Je suis partiellement d'accord avec ça.
L'Europe et les US n'assument pas les risques de la même façon et la conduite autonome est un bon exemple:
Tesla met un FSD sur la marché qui fonctionne plus ou moins bien, qui vente un système de conduite autonome mais met dans le conditions d'utilisation que le chauffeur doit rester maitre de son véhicule (et donc que Tesla n'est pas responsable en cas d'accident).
Mercedes met plus tard une voiture autonome, qui l'est dans moins de situations, si la voiture avec le système de conduite provoque un accident Mercedes se dit responsable juridiquement (on verra ce qu'il en est au premier cas).

Les Boeing ont une durée de vie définie, en tant que compagnie aérienne tu peux t'en servir ensuite mais à tes risques et périls.
Les Airbus ont une durée de vie définie, en tant que compagnie tu n'as pas le droit de t'en servir ensuite. (Donc quand il passe en entretien de fin de vie direction la casse)

Ca donne en effet un avantage en terme d'innovation au US, mais ça apporte à l'Europe une image de fiabilité qui n'est pas à négliger non plus (ce qui est surement moins bénéfique dans l'informatique que dans l'industrie, je veux bien le reconnaitre).

J'aurais beaucoup moins de problèmes avec le FSD si Tesla était honnête sur son niveau de qualité et sur l'attention nécessaire des chauffeurs.
Mais aujourd'hui ils survendent toujours ce produit.
6  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 03/05/2024 à 16:13
Citation Envoyé par DevCon1234 Voir le message
1er commentaire de qualité et qui critique objectivement le FSD, ça change, merci
Je ne te remercies pas, une partie des commentaires qui ne sont pas de qualité viennent de moi.
Et je penses à la fois ce que je dis dans ce message que dans les précédents.
[...] tout le monde est conscient que ce n'est pas magique, qu'il y a encore des problèmes mais que ça reste le système le plus avancé et bluffant même si il est au niveau 2 réglementaire. Il suffit d'étudier le fonctionnement. Tout est à disposition, encore faut-il un minimum de connaissance en IA pour comprendre mais ça devrait être le cas ici (voir Andrej Karpathy par ex. pour l'IA). Peu de gens se rendent compte des talents qu'il y a dans cette entreprise.
Je n'ai ni les compétences ni le temps de me plonger la dedans.
Il n'empêche que d'un point de vue d'Européen, le FSD est encore au stade de la R&D et donc il ne devrait pas être lancé dans la nature sans supervision. Et ça ne remet pas en cause la compétence des employés de Tesla.
Le système de Mercedes ne sert à rien en pratique, c'est juste de la pub déguisé pour dire qu'ils sont les premiers au niveau 3 et surtout,
[...]
J'étais le 1er critique sur le tout Vision mais force est de constater que ça fonctionne très bien avec une modélisation de l'environnement quasi parfaite.
C'est le problème du FSD il est quasiment beaucoup de choses.
Je suis des personnes qui pensent qu'un système de conduite autonome doit évoluer en permanence parce que le code de la route évolue dans le temps et l'espace et que c'est encore plus le cas des cultures de conduite.
Mais alors peut on se permettre d'un système quasi parfait à un endroit et qui sera inadapté à un autre?
Quand j'étais au canada les smart étaient considérées comme des scooters, juste bonnes à livrer des pizza. Chez nous de voitures de ce gabarit sont courantes.
Au canada les ronds points sont quasi inexistants et remplacés par des carrefours à 4 stops qui on un fonctionnement quantique pour l'européen que je suis.
Donc si les Tesla aime rentrer dans les trottoirs américains comment gèrera-t-elle les notres? Et qu'est ce que je risque si je balade médor pendant qu'une Tesla roule dans le coin?
Et au vue des incidents des Tesla je ne serais pas confiant d'en croiser une pendant que son chauffeur regarde Speed.
Si on est un minimum objectif, il faut avouer que ça à l'air d'être la voie à suivre, malgré tous les bad buzz à chaque accrochage ou accidents, vu les gains de plus en plus nets entre chaque version.
Quel prix est on pret à payer pour cette évolution?
En tant qu'Européen je penses que dégrader ou retirer une vie est trop cher payé.
Je comprends que ceux qui ne voient pas l'utilité de la voiture autonome, ne comprennent pas la révolution mais pour les autres, il faut être clair, le 1er qui maitrise cette techno sera le roi du pétrole, ironique pour des VE
Mais je ne veux pas être le roi du pétrole, je veux juste éviter de me faire faucher par une voiture parce qu'on la fait monter en compétence.
Il faut dissocier ce que dit Musk de la réalité. C'est surtout lui et les médias qui font croire à des choses qui n'existent pas.
sauf que Musk (et feu Jobs) est capable de faire croire à la magie à certains de ses fans ou même du quidam et il faut rester méfiant avec ça parce que quand on voit comment certains sont morts on se rend compte que cette phrase n'est pas exacte.
Si on sort de la fascination ou de la détestation de Musk, de ses déclarations "optimistes", tout le monde est conscient que ce n'est pas magique
6  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 06/05/2024 à 8:36
Citation Envoyé par DevCon1234 Voir le message
La majorité ne savent que mettre des pouces en bas dans ce forum mais très peu argumentent.
Arrêtez de vous focaliser la dessus aussi (je mets au pluriel parce que tu n'es pas la seule à t'en plaindre), perso je ne regarde pas du tout ça.
Plus on perd de temps avec le FSD en Europe, moins l'apprentissage sera pertinent. On est en train de perdre un temps fou sur les US et le Canada sur ce point. Ce n'est qu'en roulant et en analysant les particularités d'un pays qu'on peut avancer (+ les simulations).
Ce temps perdu ne m'inquiète pas du tout.
En plus de la différence de culture industrielle entre l'Europe et l'Amérique du nord, celle automobile est aussi très marquée. Et autant je comprends pourquoi ils veulent avancer dessus autant c'est beaucoup moins urgent pour nous.
Le plus gros problème que je vois est qu'ils vont nous "imposer" un jour leur modèle qui sera inadapté à nos pays mais on devra faire avec parce que maintenant qu'il y a des centaines puis des milliers de voitures on ne voudra pas retirer leur joujou à ses cadres sup en besoin de reconnaissance.
A partir de quand tu estimes que c'est plus acceptable avec que sans ? Si je te dis que dans 6 mois, le FSD est moins accidentogène que la moyenne des humains, tu trouves plus acceptable d'avoir plus de morts du aux humains ? A un moment, c'est bien ce que la régulation acceptera en bloquant, c'est d'accepter d'avoir plus de morts au contraire de ce que tu dis.
Et bien oui, surtout si
1. Le système de conduite autonome (quel qu'il soit) déclenche des accidents qu'une personne ne déclencherait pas
2. Celui qui assume le risque est derrière le volant et pas celui qui se balade sur un trottoir ou à vélo ou ...
Par contre, par un humain, pas de soucis, tu acceptes le risque. Drôle de réflexion.
Quand une personne monte en compétence au volant, il y a un gros panneau bleu au dessus et une personne expérimentée (même pour l'encadrement de débutants) a le contrôle des pédales. Pour moi ça fait une immense différence :
1. Quand je suis sur la route (en voiture ou à vélo) je suis plus prudent (elle risque de freiner brusquement, d'essayer de tourner à un endroit où elle n'a pas le droit d'aller etc)
2. L'apprentissage est encadré par une personne professionnelle dans un cadre précis, l'accompagnateur n'est pas en train de rentrer du boulot.
Le problème est que vous n'avez aucune idée de comment ça fonctionne. Très étonnant sur un forum de dev.
Le problème est que vous semblez n'avoir aucune idée de comment la circulation en ville fonctionne.
Je suis régulièrement à vélo en ville et je brille par mon non respect du code de la route parce que je risque moins ma vie et ma santé en m'adaptant à mon environnement. Je n'ai eu qu'un accident qui aurait pu être grave en 10 ans, parce que je récupère plein d'informations en un regard vers le chauffeur (est-ce qu'il m'a vu? Est ce que nous directions se croisent? Est ce qu'il va respecter ma priorité? etc), avec un pilote auto rien du tout donc il doit être bien plus performant.
Si je te dis que sur le milliard de km déjà fait par le FSD Beta, il y a eu plus d'accidents évités que ceux qui ont été médiatisés, tu ne vas pas me croire même si je te donne les datas n'est-ce pas ? Et là, je ne parle que de la version beta, pas des nouvelles.
Si j'en suis convaincu mais ça n'est pas suffisant pour moi, un piéton sur un trottoir devrait être en sécurité, ce n'est pas le cas quand un voiture se dirige vers un trottoir sans raison.
Les risques d'accidents entre voitures je m'en fous un peu c'est un contrat implicite des conducteurs, c'est une autre histoire pour les usagers fragiles.
6  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 06/05/2024 à 9:22
Citation Envoyé par DevCon1234 Voir le message
Par contre, par un humain, pas de soucis, tu acceptes le risque. Drôle de réflexion.

Le problème est que vous n'avez aucune idée de comment ça fonctionne. Très étonnant sur un forum de dev.
Si je te dis que sur le milliard de km déjà fait par le FSD Beta, il y a eu plus d'accidents évités que ceux qui ont été médiatisés, tu ne vas pas me croire même si je te donne les datas n'est-ce pas ? Et là, je ne parle que de la version beta, pas des nouvelles.
Le problème c'est aussi la législation et la responsabilité.
Si un humain conduisant une voiture percute un piéton, on sait qui est responsable pénalement.
Avec un véhicule soi-disant autonome, on ne sait pas ! Et ce n'est pas acceptable. Pour moi, c'est la société qui a réalisé le logiciel de conduite autonome, mais, Tesla refuse de prendre cette responsabilité. Donc, non, ce n'est pas acceptable.
7  1 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 06/05/2024 à 9:33
Se fichent que ça fonctionne
Ne veulent pas la responsabilité
Se fichent des gens qui fabriquent
Se fichent des conducteurs
Se fichent encore plus des autres usagers de la route
Mentent sur les capacités du truc
Mentent sur les statistiques
Et comme on en a une fois de plus la preuve dans l'actualité de la semaine il se fiche de tous les collaborateurs qui sont à l'origine des succès de la marque

A oui faut enlever les "nt" à toutes les lignes

Soit son truc est autonome et capable et dans ce cas il assume la responsabilité du machin, soit c'est du bricolage expérimental (qui plus est basé que sur des cameras qui ont largement montré leur limites) et dans ce cas il change son nom et ne le mets pas sur le marché OTA à la râche comme un vulgaire codec audio.
7  1 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 06/05/2024 à 8:49
Citation Envoyé par DevCon1234 Voir le message
J'aime beaucoup tous les pouces rouges alors que la majorité ne comprends rien à cette marque et sont complètement largués.
Vous êtes, avec les médias mainstream, une vraie boussole qui indique le sud. Le meilleur indicateur pour savoir quand vendre ou acheter
Tu es exactement le genre de pigeon que j'adore. Tesla, je les ai vendus vers 400 après les avoir acheté autour des 20.
À bon entendeur...
Quant à comprendre une marque, on n'est pas que dans la mode, là. As-tu entendu parler des derniers modèles de Xiaomi, vendus le tiers d'une Tesla équivalente ? Je vois aussi dans la région une quantité égale de Tesla et de MG. Là aussi, les gens qui achètent regardent plus le montant de la facture que "la marque".
Bref. Dépêche-toi d'acheter Tesla, c'est ce que m'a dit ma concierge ce matin !

PS : Media mainstream, nous ? Gamin, va donc te moucher, tu baves !
6  1 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 28/05/2024 à 10:36
Il y a quand même en sacré paquet de loupé dans cet accident inadminissble même pour du FSD en béta test :
- Le dépassement de la vitesse limite autorisée en étant à 60 mph (96 kmh!) au lieu de 55
- Aller à 100kmh en plein brouillard! surtout sur une route a double sens, pas si large que ça et avec un passage à niveau en approche...
- ne pas identifier le train avec le brouillard, ok, pourquoi pas, par contre les signaux lumineux standardisés dans le pays?

Le plus choquant pour moi est que par simple corrélation avec la carte, la tesla devrait déjà savoir qu'elle va croiser une voie ferrée, c'est une raison suffisante pour ralentir, d'autant plus avec des conditions météos pourries...

Si le FSD passait son permit en France, le Moniteur aurait pilé longtemps avant l'accident.
5  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 30/04/2024 à 15:58
Citation Envoyé par DevCon1234 Voir le message
ils savent à peu près comment va fonctionner une version
Le problème de Tesla c'est ça, et c'est pour ça que ce sont les utilisateurs qui testent (et les autres usagers de la route qui sont mis en danger).
Le problème des européens c'est juste qu'ils achètent, toujours en encore plus sans se soucier des conséquences sur leur propre emploi et sur leur environnement et que donc ils achètent chez les chinois qui font des bons produits le moins cher possible, avec un grand sens commercial mais sans se soucier du tout de l'environnement et des gens qui produisent.
5  1 
Avatar de totozor
Membre expert https://www.developpez.com
Le 30/05/2024 à 8:14
Citation Envoyé par calvaire Voir le message
un simple petit autocollant sur un stop peut fausser les algos de reconnaissance d'image, le fsd serait bien incapable de voir un elephant dans un couloirs si cette elephant n'est pas similaire a ceux de son dataset
Je suis bien d'accord mais le FSD peut il être pertinent s'il ignore ce qu'il ne reconnait pas?
Je ne croit pas, si le vaisseau des Mondo-Shawan (les gros être métallique qui voyagent dans des chrysalides géantes dans le cinquième élément) atterrissait devant ma voiture je m'arrêterais ou j'essayerais d'éviter l'obstacle. Ca tombe sous le sens.
Pourtant le FSD semble ignorer tout obstacle physique qu'il ne reconnait pas, ce qui me semble effarant et très dangereux (cette fois pour le chauffeur mais potentiellement pour d'autres, je penses aux tallbikes, monocycles et autres véhicules atypiques.
Si quelqu'un qui n'a jamais vu d'éléphant en voit un dans un couloir, il va devenir plus prudent face à l'inconnu imposant. Le FSD, lui, l'ignore va s'en rapprocher rapidement. Ca donne peu de durée de vie dans la théorie Darwiniste.
2  0