Tesla : quand l’Autopilot ignore un bus scolaire et fauche des enfants

Des mannequins fauchés, un test répété, un nom de géant automobile sur la sellette. Une démonstration glaçante pose la question qui dérange : peut-on vraiment faire confiance à l’intelligence artificielle au volant ?

Paolo Garoscio
By Paolo Garoscio Published on 16 juin 2025 11h23
electrique-ventes-voitures-renault-tesla-hybride
Tesla : quand l’Autopilot ignore un bus scolaire et fauche des enfants - © Economie Matin
20%Tesla a perdu près de 20% de valeur en Bourse depuis le début de l'année 2025.

Le 15 juin 2025, Tesla s’est retrouvé au cœur d’une nouvelle controverse majeure. À Austin (Texas), une démonstration publique a mis à mal la sécurité de son système de conduite autonome. L’incident soulève une problématique centrale : malgré ses promesses, la Full Self-Driving (FSD) de Tesla reste-t-elle défaillante dans des situations critiques ?

Tesla : Un test de sécurité, plusieurs mannequins fauchés

À l’initiative du Dawn Project, soutenu par les groupes Tesla Takedown et ResistAustin, une série de tests a été menée sur la voie publique dans la ville texane. Le protocole : une voiture Tesla Model Y, équipée du système Full Self-Driving (Supervised), est confrontée à un bus scolaire à l’arrêt, feux clignotants activés. À proximité, des mannequins de taille enfant simulant une traversée.

Le résultat est sans appel : huit passages, huit collisions. À chaque fois, la voiture a ignoré les panneaux d’arrêt et percuté les mannequins. Un comportement qui heurte autant la morale que les normes de sécurité les plus élémentaires.

Selon l’article de Jackson Chen, publié sur Engadget le 15 juin 2025, « la Tesla Model Y a traversé les feux clignotants du bus scolaire et a percuté des mannequins de taille enfant ». Le logiciel n’a corrigé aucune de ses trajectoires, démontrant une absence totale de réaction contextuelle.

Tesla FSD : supervision humaine, responsabilités brouillées

Le système mis en cause porte le nom de Full Self-Driving (Supervised). Officiellement, il « nécessite un conducteur pleinement attentif » et affiche « une série d’avertissements croissants exigeant une réponse humaine ». Tesla précise que « ne pas suivre ces instructions peut provoquer des dommages, des blessures graves voire la mort », rappelle Engadget. Mais ce rappel à la vigilance suffit-il à exonérer la technologie ? À l’heure où Tesla annonce le lancement du Cybercab, sa navette robotisée, ces défaillances viennent perturber la chronologie.

Ce n’est en effet pas la première fois que Tesla est mise en cause. En avril 2024, une Model S utilisant la FSD a été impliquée dans un accident mortel avec un motard dans l’État de Washington. Et le Dawn Project, qui mène ces tests publics, est dirigé par Dan O’Dowd, également PDG d’un concurrent dans le secteur de la conduite autonome. Malgré ce possible conflit d’intérêts, les critiques formulées par ces activistes sont désormais appuyées par des faits tangibles : le système FSD ne reconnaît pas correctement les signaux d’arrêt de bus scolaire.

Dans un tweet daté du 15 juin, Elon Musk déclare : « Nous sommes hyper paranoïaques sur la sécurité, la date peut donc changer ». Il précise par ailleurs que « la première Tesla qui se conduira elle-même de l’usine jusqu’au domicile d’un client est prévue pour le 28 juin ».

Cybercab : un risque d’erreur pour le lancement du robotaxi de Tesla ?

Ce test choque d’autant plus que les enjeux sont désormais publics. Le Cybercab, le premier robotaxi de Tesla, doit être lancé à Austin le 22 juin 2025, soit quelques jours à peine après cette démonstration ratée. Les associations engagées accusent le constructeur de minimiser les limites de son intelligence artificielle, notamment en matière de détection d’obstacles liés aux enfants et véhicules scolaires. Les données montrent que le système FSD n’a jamais identifié les arrêts de bus comme un danger prioritaire

Tesla fait face à une tempête prévisible. Ce test, quoique organisé par des opposants déclarés, met en lumière un problème concret de reconnaissance contextuelle, doublé d’un manque de réaction automatisée. À moins d’une refonte majeure de ses algorithmes, le constructeur pourrait voir sa stratégie de déploiement autonome remise en cause.

Paolo Garoscio

Rédacteur en chef adjoint. Après son Master de Philosophie, il s'est tourné vers la communication et le journalisme. Il rejoint l'équipe d'EconomieMatin en 2013.   Suivez-le sur Twitter : @PaoloGaroscio

No comment on «Tesla : quand l’Autopilot ignore un bus scolaire et fauche des enfants»

Leave a comment

* Required fields