IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le Full Self-Driving de Tesla commet des "erreurs occasionnelles dangereuses" : lors d'un test sur plus de 1600 kilomètres, les conducteurs ont dû intervenir plus de 75 fois alors que le FSD était actif

Le , par Jade Emy

37PARTAGES

6  0 
Le Full Self-Driving de Tesla commet des "erreurs occasionnelles dangereuses" : lors d'un test sur plus de 1600 kilomètres, les conducteurs ont dû intervenir plus de 75 fois alors que le FSD était actif.

Le système avancé d'aide à la conduite entièrement autonome supervisé (Full Self-Driving supervised) de Tesla a été testé sur plus de 1600 kilomètres par AMCI, un cabinet de recherche automobile indépendant. Au cours du processus d'examen, les conducteurs ont dû intervenir plus de 75 fois. Le système Full Self-Driving (FSD) supervisé peut fonctionner parfaitement des dizaines de fois dans le même scénario, jusqu'à ce qu'il se dérègle de manière inattendue et nécessite l'intervention du conducteur.

Tesla et son PDG au franc-parler, Elon Musk, promettent depuis longtemps des voitures autonomes, mais nous n'en sommes pas encore là. Bien que les deux systèmes avancés d'aide à la conduite (ADAS) disponibles s'appellent Autopilot et Full Self-Driving (Supervised), ils ne sont toujours pas classés comme des systèmes de niveau 3 sur le tableau des niveaux d'autonomie de conduite de la SAE, ce qui signifie que le conducteur doit toujours être attentif et prêt à reprendre le contrôle à tout moment.

En 2023, les statistiques de la NHTSA sur le bilan d'Autopilot et du Full Self-Driving de Tesla inquiétaient. Entre juillet 2021 et le 15 mai 2022, le système Autopilot de Tesla était à l'origine trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés. Sur le marché américain, les données de l'agence américaine énuméraient au moins 17 incidents mortels, dont 11 depuis mai 2023, et cinq blessés graves. Au total, le nombre de décès liés à Tesla au 12 juin 2023 dans le monde est de 393. Le nombre de décès directement associés au logiciel Autopilot est de 33.

Si le FSD peut fonctionner parfaitement dans la majorité des situations, ce rapport montre qu'il peut parfois "manquer sa cible", et ce sont ces erreurs occasionnelles qui peuvent devenir dangereuses. C'est ce qu'a également conclu AMCI Testing, un cabinet de recherche indépendant, après avoir récemment testé le FSD de Tesla sur plus de 1 600 kilomètres de rues urbaines, de routes rurales à deux voies, de routes de montagne et d'autoroutes. L'entreprise a utilisé une Tesla Model 3 Performance 2024 équipée du matériel le plus récent du constructeur automobile et exécutant les dernières itérations logicielles, 12.5.1 et 12.5.3.


Au cours des essais, les conducteurs d'AMCI ont dû intervenir plus de 75 fois alors que le FSD était actif, soit en moyenne une fois tous les 21 kilomètres. Dans un cas, la Tesla Model 3 a grillé un feu rouge en ville pendant la nuit alors que les caméras avaient clairement détecté les feux. Dans une autre situation où la fonction FSD (Supervised) était activée sur une route rurale sinueuse, la voiture a franchi une double ligne jaune et s'est retrouvée dans le trafic venant en sens inverse, obligeant le conducteur à reprendre la main. Une autre mésaventure notable s'est produite en ville lorsque le véhicule électrique s'est arrêté alors que le feu était vert et que les voitures qui le précédaient accéléraient.

Voici comment Guy Mangiamele, directeur des essais de l'AMCI, résume la situation : "Ce qui est le plus déconcertant et le plus imprévisible, c'est que vous pouvez voir la FSD négocier avec succès un scénario spécifique à plusieurs reprises - souvent sur le même tronçon de route ou à la même intersection - pour la voir échouer de manière inexplicable la fois suivante".

"Avec tous les systèmes de conduite augmentée mains libres, et plus encore avec les véhicules autonomes sans conducteur, la confiance entre la technologie et le public est compacte", a déclaré David Stokols, PDG de la société mère d'AMCI Testing, AMCI Global. "S'approcher de l'infaillibilité, mais ne pas y parvenir, crée un problème de complaisance insidieux et dangereux pour l'opérateur, comme le prouvent les résultats des tests", a-t-il ajouté.


Ce n'est pas la première fois que les tests indépendants révèlent les "erreurs occasionnelles dangereuses" des systèmes ADAS de Tesla. Geoffrey Fowler, un chroniqueur technologique, a également partagé ses inquiétudes après avoir testé la mise à jour du logiciel Autopilot de Tesla, déployée lors du plus grand rappel de l'histoire de l'entreprise. Geoffrey Fowler a constaté que la Tesla Model Y, après la mise à jour, continue de prendre des initiatives risquées, telles que franchir des panneaux d'arrêt sans ralentir. Il souligne : "En testant le système de rappel Autopilot de Tesla, j'ai un sentiment d'insécurité persistant que vous devriez partager "

Plus que la défaillance du système en lui-même, l'approche marketing du constructeur automobile est également susceptible d'inciter les conducteurs à ne pas en tenir compte, ce qui conduit aux multiples désastres sur les routes. Tesla définit son système Autopilot d' "ensemble de fonctionnalités d'assistance conducteur destinées à rendre la conduite plus sûre et sereine et qui ne sont en aucun cas conçues pour rendre le véhicule entièrement autonome ou pour remplacer le conducteur". Pourtant les véhicules Tesla intègrent la possibilité au conducteur de jouer ou de visionner des contenus vidéo pendant que la voiture est en mouvement. Cela renforce la confusion autour du terme Autopilot et est encore plus susceptible d’amener les conducteurs à penser que le véhicule est entièrement autonome.


Source : AMCI

Et vous ?

Pensez-vous que ces tests sont crédibles ou pertinents ?
Quel est votre avis sur le sujet ?

Voir aussi :

Tesla n'offre plus le logiciel Full Self-Driving à la vente, mais plutôt une version dite supervisée, d'après une mise à jour de ses CGU qui cache un aveu de publicité mensongère

Une étude indique que les véhicules autonomes sont plus sûrs, sauf à l'aube, au crépuscule ou dans les virages. Le risque d'accident est cinq fois plus élevé que celui des humains en cas de faible luminosité

General Motors envisagerait de mettre fin au développement de son nouveau système de conduite autonome Ultra Cruise. Ce dernier était censé rivaliser avec le logiciel Full Self-Driving de Tesla

Voiture autonome : une étude montre que les systèmes semi-autonomes n'améliorent pas la sécurité routière, bien que certains les considèrent sécuritaires
Vous avez lu gratuitement 1 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Gluups
Membre expert https://www.developpez.com
Le 25/02/2025 à 16:00
Citation Envoyé par Mathis Lucas Voir le message
Mais la réalité a eu du mal à le rattraper. Tesla soutient toujours que son logiciel Full Self-Driving exige que les conducteurs soient engagés et prêts à prendre le contrôle à tout moment. Dans la pratique, les conducteurs comme Jonathan Challinger se déconnectent souvent lors que le système est activé.
Ah oui, compter sur l'autonomie totale d'un système dont le constructeur dit de se tenir sur ses gardes, c'est un peu comme se croire protégé en acceptant de participer massivement à des essais cliniques sur quelque chose qui modifie votre génome ... Tant de risque pour si peu de résultats, pourquoi ?

Au fil des ans, les logiciels Autopilot et le Full Self-Driving de Tesla ont été liés des centaines
d'accidents, dont certains étaient mortels, et ont été impliqués dans un grand nombre de poursuites judiciaires. Certains reprochent à Tesla de distribuer un logiciel en version bêta utilisable sur les routes publiques.
Finalement, appeler ce logiciel "Full Self Driving", amène à se demander ce qu'on entend au juste par là, puisque ce logiciel a été recalé très largement à l'examen du permis de conduire. Si je dois déléguer la conduite de ma voiture à quelqu'un, j'aime autant que ça ne soit pas un gamin qui n'a pas eu son permis.

En matière de conduite automatisée, il est facile de se représenter que les coûts ne sont pas du tout du même ordre entre un "proof of concept" (après tout le procès concerne les États Unis) et un produit abouti et fiable. Les termes de communication sont donc forcément au cœur du débat.

Les procédures qui ont abouti à autoriser la circulation sur la voie publique doivent probablement aussi être revues.
5  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 25/02/2025 à 16:35
Tout-à-fait. Que la pub fasse rêver et donne envie d'en savoir plus, normal, c'est son boulot.

Qu'on signe sans lire, c'est une autre affaire.

L'enseignement de l'esprit critique dans le pays peut aussi faire l'objet de questions, auxquelles le tribunal n'a pas forcément pour mission de répondre.

Le procès risque de s'orienter vers une question sur le droit de faire rêver sur quelque chose de pas vraiment abouti (ce que je n'invente pas puisque c'est Tesla qui l'a dit).

Voilà qui est susceptible de nous rappeler qu'il faut d'abord lire les petits caractères, et ensuite seulement reprendre la lecture au début.

Se faire une idée d'ensemble, et reprendre la lecture le lendemain.
4  0 
Avatar de AaâÂäÄàAaâÂäÄàAaâÂäÄ
Membre expérimenté https://www.developpez.com
Le 25/02/2025 à 17:58
Citation Envoyé par Gluups Voir le message
Qu'on signe sans lire, c'est une autre affaire.
Quand tu achètes une voiture, tu lis réellement l'entiereté des pages et de tout ce à quoi tu consens ?
Entre le crédit, l'application sur le cell, les formulaires sur le consentement à l'utilisation de tes données, la propriété du véhicule, les documents officiels... tu en as pour des heures à tout lire !
Et le pire, sans vraiment d'alternative si tu refuses les conditions.
4  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 26/02/2025 à 7:31
Citation Envoyé par Ryu2000 Voir le message
Personne ne lit les conditions d'utilisation et ce genre de textes.
C'est beaucoup trop chiant et long. Il faudrait être juriste pour supporter ça.
Non seulement pour supporter mais aussi pour comprendre. Certaines formulations relèvent du jargon juridique et sont peu/pas compréhensible pour le quidam.
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 10/03/2025 à 9:49
Citation Envoyé par Mathis Lucas Voir le message
Steve Wozniak a raconté l'histoire de sa femme, qui a été arrêtée après avoir omis de signaler un virage alors qu'elle conduisait une Tesla. L'informaticien raconte : « le policier n'avait jamais vu ce volant à étrier. Lorsque vous tournez déjà, vous ne trouvez pas les boutons du clignotant ». Mais le comble a été atteint lorsque le policier a demandé les informations relatives à l'assurance, que la plupart des conducteurs conservent généralement dans la boîte à gants.

« C'est une nouvelle Tesla, avec un nouveau logiciel, et il n'y a pas de bouton pour la boîte à gants. Il faut chercher dans les menus jusqu'à ce que l'on trouve la boîte à gants par hasard, c'est horrible », a expliqué Steve Wozniak. Ses critiques font écho aux mises en garde de plusieurs études sur le sujet.
Effectivement ce n'est pas top.
Les contrôles physiques sont plus simple, plus rapide, plus sécurisant.
4  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 19/03/2025 à 14:01
Au contraire, je trouve que c'est pédagogique. En dehors des initiés, personne ne sait ce qu'est un lidar.

Certes, les paysages à la tex avery sont rares (attention aux fresques murales !), mais ça illustre qu'un système basé sur la vision pâtit des limites de la vision.

Leur système ne sera-t-il pas handicapé la nuit, dans le brouillard, face à un obstacle sombre (ex un piéton habillé en noir), là où un lidar aurait fait l'affaire ?
4  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 13/12/2024 à 0:53
Tesla n'a jamais dit que l'autopilot était meilleur que l'humain.
Le conducteur doit toujours conduire, c'est lui le responsable, l'autopilot n'est qu'une petite aide.
Il vend un produit sous l'appellation "Full Self Driving". En français il me semble que ça pourrait donner un truc du genre "Conduite Entièrement Automatisée". Et tu payes un abonnement spécifiquement pour cette option.
Et même l'appellation Autopilot est complètement trompeuse.

Je veux pas chercher d'excuse à la meuf qui met son chat dans le micro-ondes mais faut pas oublier que 90% des gens sont des analphabètes technologiques.
3  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 26/02/2025 à 9:20
Citation Envoyé par Ryu2000 Voir le message
Ils utilisent le style juridique, pour éviter toute ambiguité, l'objectif c'est d'être clair et de minimiser les interprétations floues.
Non, leur but n'est pas d'être compréhensible par le quidam moyen, mais de se protéger au maximum en cas de problème avec leurs produits.
3  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 27/09/2024 à 15:45


Citation Envoyé par Jade Emy Voir le message
Le Full Self-Driving de Tesla commet des "erreurs occasionnelles dangereuses" : lors d'un test sur plus de 1600 kilomètres, les conducteurs ont dû intervenir plus de 75 fois alors que le FSD était actif.

Le système avancé d'aide à la conduite entièrement autonome supervisé (Full Self-Driving supervised) de Tesla a été testé sur plus de 1600 kilomètres par AMCI, un cabinet de recherche automobile indépendant. Au cours du processus d'examen, les conducteurs ont dû intervenir plus de 75 fois. Le système Full Self-Driving (FSD) supervisé peut fonctionner parfaitement des dizaines de fois dans le même scénario, jusqu'à ce qu'il se dérègle de manière inattendue et nécessite l'intervention du conducteur.
1600 / 75 = 21,333... Il me semble que celà remet en cause une "idée reçue" qu'on ne pouvait pas contredire sous peine d'excommunication , comme quoi il y aura moins d'accidents fait par les "voitures autonomes" que celles conduite par un humain.

Citation Envoyé par Jade Emy Voir le message
Tesla et son PDG au franc-parler, Elon Musk
A ce niveau là, on ne peut pas dire que c'est du franc-parler. C'est plutôt de mensonge éhonté qu'il faudrait parler.

Citation Envoyé par Jade Emy Voir le message
promettent depuis longtemps des voitures autonomes, mais nous n'en sommes pas encore là. Bien que les deux systèmes avancés d'aide à la conduite (ADAS) disponibles s'appellent Autopilot et Full Self-Driving (Supervised), ils ne sont toujours pas classés comme des systèmes de niveau 3 sur le tableau des niveaux d'autonomie de conduite de la SAE, ce qui signifie que le conducteur doit toujours être attentif et prêt à reprendre le contrôle à tout moment.
Pour être plus précis, AUCUNE avançée significative n'a été faite par Tesla, depuis longtemps (Pratiquement 10 ans). Ah si, on peut jouer à des jeux vidéo dans une Tesla maintenant. Waouw, ça c'est de bombe.

Citation Envoyé par Jade Emy Voir le message
Si le FSD peut fonctionner parfaitement dans la majorité des situations, ce rapport montre qu'il peut parfois "manquer sa cible", et ce sont ces erreurs occasionnelles qui peuvent devenir dangereuses. C'est ce qu'a également conclu AMCI Testing, un cabinet de recherche indépendant, après avoir récemment testé le FSD de Tesla sur plus de 1 600 kilomètres de rues urbaines, de routes rurales à deux voies, de routes de montagne et d'autoroutes. L'entreprise a utilisé une Tesla Model 3 Performance 2024 équipée du matériel le plus récent du constructeur automobile et exécutant les dernières itérations logicielles, 12.5.1 et 12.5.3.
Heu, je ne veux pas remettre en doute le paragraphe ci-dessus écrit par Jade Emy, mais quant même, il faut dire les choses clairement :

  • Si le FSD peut fonctionner parfaitement dans la majorité des situations, c'est tout simplement le contraire: Le FSD ne fonctionne "parfaitement" que dans une minorité de situations. C'est à dire sur autoroute avec des belles lignes bien blanches, je mets le "parfaitement" entre des guillemets, car il faut retirer l'entrée et la sortie de ces autoroutes.
  • ce rapport montre qu'il peut parfois (tout les 21km et parfois ne vont pas très bien ensemble), "manquer sa cible" se planter royalement, et ce sont ces erreurs occasionnelles (encore une fois, tous les 21km, je ne vois pas très bien le lien avec le mot "occasionnelles"), qui peuvent devenir dangereuses mortels.


Citation Envoyé par Jade Emy Voir le message
Au cours des essais, les conducteurs d'AMCI ont dû intervenir plus de 75 fois alors que le FSD était actif, soit en moyenne une fois tous les 21 kilomètres. Dans un cas, la Tesla Model 3 a grillé un feu rouge en ville pendant la nuit alors que les caméras avaient clairement détecté les feux. Dans une autre situation où la fonction FSD (Supervised) était activée sur une route rurale sinueuse, la voiture a franchi une double ligne jaune et s'est retrouvée dans le trafic venant en sens inverse, obligeant le conducteur à reprendre la main. Une autre mésaventure notable s'est produite en ville lorsque le véhicule électrique s'est arrêté alors que le feu était vert et que les voitures qui le précédaient accéléraient.
Oh, que ça, de petits incidents sans importance donc. Des broutilles quoi. Rien de bien méchant.

Citation Envoyé par Jade Emy Voir le message
Voici comment Guy Mangiamele, directeur des essais de l'AMCI, résume la situation : "Ce qui est le plus déconcertant et le plus imprévisible, c'est que vous pouvez voir la FSD négocier avec succès un scénario spécifique à plusieurs reprises - souvent sur le même tronçon de route ou à la même intersection - pour la voir échouer de manière inexplicable la fois suivante".
C'est le plus inquiètant, car cela veut dire que pour une même situation, on a un résultat différent.
Comment expliquer ce phènomène ?
Est-il possible de savoir Pourquoi ce phénomène ?

Parce que si je freine avec une voiture normale, elle freine.

Citation Envoyé par Jade Emy Voir le message
"Avec tous les systèmes de conduite augmentée mains libres, et plus encore avec les véhicules autonomes sans conducteur, la confiance entre la technologie et le public est compacte", a déclaré David Stokols, PDG de la société mère d'AMCI Testing, AMCI Global. "S'approcher de l'infaillibilité, mais ne pas y parvenir, crée un problème de complaisance insidieux et dangereux pour l'opérateur, comme le prouvent les résultats des tests", a-t-il ajouté.
Quant je lis: S'approcher de l'infaillibilité, j'ai mal au yeux. On parle ici d'une bagnole autonome de niveau 2 (à peine), on est très loin de l'infaillibilité. C'est une tournure de phrase faite pour minimiser les problèmes.

Citation Envoyé par Jade Emy Voir le message
Ce n'est pas la première fois que les tests indépendants révèlent les "erreurs occasionnelles dangereuses" des systèmes ADAS de Tesla.
Pourrait on de temps en temps, parler franchement et dire la simple vérité ? Parce que ces "erreurs occasionnelles dangereuses" se produisent tout les 21km. C'est la 3ème fois dans le même article qu'on est dans le mensonge pure et simple. Ah, ce stade, ce n'est plus une erreur, c'est une volonté de faire passer des vessives pour des lanternes...

Moi ? Je n'ai pas envie d'en lire plus, il y a déjà bien assez d'âneries et de contradictions dans ce que j'ai lu jusqu'ici. Et je m'excuse d'avance, mon intention n'est pas de blâmer Jade Emy. Je fais des erreurs, nous faisons tous des erreurs, mais là, j'ai comme l'impression que l'article est une simple recopie (ou retransmission), faite sans recul, et sans réelle analyse de l'article en question.

Je comprend bien qu'il faut alimenter le site, et je suis content généralement de la manière dont les choses se passent, mais pas avec ce genre d'article.

BàV et Peace & Love.
2  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 30/09/2024 à 14:30
Citation Envoyé par Jade Emy Voir le message
Au cours des essais, les conducteurs d'AMCI ont dû intervenir plus de 75 fois alors que le FSD était actif, soit en moyenne une fois tous les 21 kilomètres. Dans un cas, la Tesla Model 3 a grillé un feu rouge en ville pendant la nuit alors que les caméras avaient clairement détecté les feux. Dans une autre situation où la fonction FSD (Supervised) était activée sur une route rurale sinueuse, la voiture a franchi une double ligne jaune et s'est retrouvée dans le trafic venant en sens inverse, obligeant le conducteur à reprendre la main. Une autre mésaventure notable s'est produite en ville lorsque le véhicule électrique s'est arrêté alors que le feu était vert et que les voitures qui le précédaient accéléraient.
Je crois que je l'ai déjà écrit dans un autre post mais même un enfant de cinq sait qu'on doit s'arrêter au feu rouge.
C'est la plus élémentaire des règles.
Je ne comprend pas qu'on puisse autoriser le commerce d'engins aussi dangereux.

Citation Envoyé par Jade Emy Voir le message
Ce n'est pas la première fois que les tests indépendants révèlent les "erreurs occasionnelles dangereuses" des systèmes ADAS de Tesla. Geoffrey Fowler, un chroniqueur technologique, a également partagé ses inquiétudes après avoir testé la mise à jour du logiciel Autopilot de Tesla, déployée lors du plus grand rappel de l'histoire de l'entreprise. Geoffrey Fowler a constaté que la Tesla Model Y, après la mise à jour, continue de prendre des initiatives risquées, telles que franchir des panneaux d'arrêt sans ralentir. Il souligne : "En testant le système de rappel Autopilot de Tesla, j'ai un sentiment d'insécurité persistant que vous devriez partager "
Cela fait 10 ans que le problème existe et que personne ne fait rien.
Quand on est bourré de fric comme Musk, c'est apparemment facile acheter/corrompre les bonnes personnes.

Citation Envoyé par Jade Emy Voir le message
Plus que la défaillance du système en lui-même, l'approche marketing du constructeur automobile est également susceptible d'inciter les conducteurs à ne pas en tenir compte, ce qui conduit aux multiples désastres sur les routes. Tesla définit son système Autopilot d' "ensemble de fonctionnalités d'assistance conducteur destinées à rendre la conduite plus sûre et sereine et qui ne sont en aucun cas conçues pour rendre le véhicule entièrement autonome ou pour remplacer le conducteur". Pourtant les véhicules Tesla intègrent la possibilité au conducteur de jouer ou de visionner des contenus vidéo pendant que la voiture est en mouvement. Cela renforce la confusion autour du terme Autopilot et est encore plus susceptible d’amener les conducteurs à penser que le véhicule est entièrement autonome.
.
C'est de la tromperie, purement et simplement.
Cette publicité mensongère fait malheureusement beaucoup de victimes.

Citation Envoyé par Jade Emy Voir le message
En 2023, les statistiques de la NHTSA sur le bilan d'Autopilot et du Full Self-Driving de Tesla inquiétaient. Entre juillet 2021 et le 15 mai 2022, le système Autopilot de Tesla était à l'origine trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés. Sur le marché américain, les données de l'agence américaine énuméraient au moins 17 incidents mortels, dont 11 depuis mai 2023, et cinq blessés graves. Au total, le nombre de décès liés à Tesla au 12 juin 2023 dans le monde est de 393. Le nombre de décès directement associés au logiciel Autopilot est de 33
.
Encore une fois, quand on voit le nombre de morts provoqué par Tesla et son système, on se demande pourquoi il est toujours autorisé, et même comment il a pu être autorisé au départ.
Et comme déjà évoqué, cela fait 10 ans que ça dure.
Je ne sais pas comment fait Musk pour dormir tranquille quand on voit le nombre morts qu'il a sur la conscience.
2  0