Un milliardaire réprimande le pilote automatique de Tesla

Nouvelles

MaisonMaison / Nouvelles / Un milliardaire réprimande le pilote automatique de Tesla

Jul 11, 2023

Un milliardaire réprimande le pilote automatique de Tesla

Hier, lors d'un événement diffusé en direct, Dan O'Dowd, milliardaire en logiciels et critique véhément des technologies de conduite autonome de Tesla Motors, a débattu de Ross Gerber, un banquier d'investissement qui soutient le projet.

Hier, lors d'un événement diffusé en direct, Dan O'Dowd, milliardaire en logiciels et critique véhément des technologies prétendument autonomes de Tesla Motors, a débattu de Ross Gerber, un banquier d'investissement qui soutient l'entreprise. Le véritable défi est survenu après leur conversation, lorsque les deux hommes sont montés à bord d'une Tesla Model S et ont testé son logiciel Full Self-Driving (FSD), une technologie de conduite prétendument autonome ou quasi-autonome qui représente le haut de gamme de sa suite de commandes de conduite. fonctionnalités d'assistance que la société appelle Autopilot et Advanced Autopilot. L'examen minutieux du FSD qu'O'Dowd exerce sur le fabricant de véhicules électriques n'est que le dernier d'une série de coups récents, notamment un procès d'actionnaires de Tesla concernant des promesses exagérées du FSD, des allégations internes de falsification dans les événements promotionnels du FSD et une récente fuite de données de l'entreprise. cela comprend des milliers de plaintes de clients FSD.

Lors de l'événement diffusé en direct hier, O'Dowd a déclaré que le FSD ne faisait pas ce que son nom l'impliquait et que ce qu'il faisait était suffisamment grave pour mettre des vies en danger. Gerber n'était pas d'accord. Il l'a plutôt comparé à un élève conducteur, et l'être humain au volant à un moniteur d'auto-école.

Ross Gerber, au volant, et Dan O'Dowd, au fusil de chasse, regardent une Tesla Model S, exécutant le logiciel Full Self Driving, passer devant un panneau d'arrêt. Le projet Dawn

Lors des tests, Gerber prenait le volant, O'Dowd conduisait un fusil de chasse, et ils conduisaient autour de Santa Barbara, en Californie, ou étaient conduits, si vous voulez, avec l'aide de Gerber. Dans une vidéo publiée en ligne par l'équipe, ils ont couvert des routes, des autoroutes à plusieurs voies, une zone de passage avec des piétons. À un moment donné, ils ont croisé un camion de pompiers, que le logiciel de la voiture a pris pour un simple camion : un bug, mais personne n'a été mis en danger. Souvent, la voiture s’arrêtait brusquement, plus fort qu’un conducteur humain ne l’aurait fait. Et une fois, il y a eu un panneau stop.

En d’autres termes, vous ne voulez pas vous endormir pendant que FSD conduit. Et si vous écoutez O'Dowd, vous ne voulez pas du tout de FSD dans votre voiture.

O'Dowd dit qu'il aime les voitures Tesla, mais pas leurs logiciels. Il note qu’il a acheté une Tesla Roadster en 2010, alors qu’elle était encore le seul véhicule électrique du marché, et qu’il n’a conduit aucune autre voiture à ce jour. Il a acheté à sa femme une Tesla Model S en 2012, et elle ne conduit toujours rien d'autre.

« Nous avons signalé des dizaines de bugs, et soit ils ne peuvent pas, soit ne veulent pas les corriger. Si c'est « ne le fera pas », c'est criminel ; si c’est « je ne peux pas », ce n’est pas beaucoup mieux. —Dan O'Dowd, le projet Dawn

Il avait entendu parler du système de conduite autonome de l'entreprise, initialement connu sous le nom d'AutoPilot, au cours de ses premières années, mais il ne l'avait jamais utilisé. Son Roadster ne pouvait pas exécuter le logiciel. Il ne s'en est rendu compte que lorsqu'il a appris que le logiciel avait été impliqué dans des accidents. En 2021, il a lancé le Dawn Project, une organisation à but non lucratif, pour enquêter, et celui-ci a découvert de nombreux bugs dans le logiciel. Dowd a publié les résultats, diffusant une annonce dans le New York Times et une publicité pendant le Super Bowl. Il a même imaginé une campagne sur un seul thème pour le Sénat américain.

Il est en partie offensé par ce qu'il considère comme l'utilisation de logiciels peu fiables dans des applications critiques. Mais notons bien que sa propre entreprise est spécialisée dans la fiabilité des logiciels, et que cela lui donne intérêt à faire connaître le sujet.

Nous avons rencontré O'Dowd à la mi-juin, alors qu'il se préparait pour la diffusion en direct.

IEEE Spectrum : Qu'est-ce qui vous a poussé à démarrer ?

Le projet Dawn de Dan O'Dowd a découvert une série de bugs dans le logiciel Full Self-Driving de Tesla.

Dan O'Dowd : Fin 2020, ils [Tesla Motors] ont créé un site bêta, ont invité 100 fans de Tesla et leur ont dit de l'essayer. Et ils l’ont fait, et cela a fait beaucoup de très mauvaises choses ; il a allumé des feux rouges. Mais plutôt que de résoudre les problèmes, Tesla a étendu le test à 1 000 personnes. Et maintenant, beaucoup de gens l'avaient, et ils ont installé des caméras dans les voitures et l'ont mis en ligne. Les résultats ont été tout simplement terribles : il a essayé de s'enfoncer dans les murs, dans les fossés. En 2021, vers le milieu de l’année, j’ai pensé qu’il ne devrait pas être sur le marché.

C'est à ce moment-là que vous avez fondé le Dawn Project. Pouvez-vous donner un exemple de ce que ses recherches ont découvert ?