Une nouvelle étude souligne le comportement effrayant des conducteurs dans des voitures supposées plus sûres

Bien qu'il ne fasse littéralement passer qu'un panneau à message variable indiquant par intermittence "Envoyer des SMS au volant est … (pause) … 23 fois plus dangereux" placé juste avant l'une des manœuvres locales les plus dangereuses connues sous le nom de Rochester Curve, la société est devenue plus intelligente quant à l'importance de la vieux cliché du « les yeux sur la route, les mains sur le volant, l'esprit sur la conduite ».

Ou alors nous pensions…

A nouvelle étude de l'Insurance Institute for Highway Safety (IIHS) des personnes qui possédaient des véhicules dotés de fonctions avancées d'aide à la conduite ont constaté que "... de grands pourcentages d'utilisateurs (53 % des Super Cruise [de GM], 42 % des pilotes automatiques de [Tesla] et 12 % des ProPILOT Assist de [Nissan]) ont indiqué qu'ils étaient à l'aise avec le traitement leurs systèmes comme étant autonomes. Les voitures autonomes ne sont actuellement pas disponibles pour les consommateurs, malgré le marketing trompeur de certains fabricants. Les trois systèmes susmentionnés ont ce qu'on appelle une "automatisation partielle". Le conducteur dans la chair doit encore accomplir de nombreuses tâches de conduite routinières puisque ces systèmes sont pas prêt à être lancé de manière omniprésente.

Dans ce sens, l'étude rapporte que les utilisateurs de Super Cruise et de pilote automatique étaient plus susceptibles de s'engager dans des activités où ils retiraient leurs mains du volant et leurs yeux de la route. En fait, environ 50 % de Super Cruise et 42 % d'Autopilot "... les utilisateurs ont déclaré avoir déclenché un" verrouillage "de la technologie à un moment donné, ce qui se produit lorsqu'un conducteur ne répond pas aux avertissements d'attention." Jusqu'à présent, tous les systèmes grand public nécessitent la supervision active du conducteur.

Une raison possible : certains constructeurs ont été très libéraux dans leurs déclarations publiques de marketing et de dirigeants, ce qui a essentiellement encouragé les conducteurs à considérer le système comme autonome. Et cela a conduit certains propriétaires de voitures, comme Param Sharma de San Francisco, à être enregistrés sur l'autoroute en tant que passager arrière sans aucun humain sur le siège avant. Raj Mathai, un présentateur de nouvelles de KNTV (NBC) à San Francisco, a décrit à juste titre un tel comportement comme "... très illégal".

Les découvertes de l'étude remettent en question si la rigueur technique de base (par exemple, l'examen de la sécurité de la fonctionnalité prévue, alias SOTIF) a été correctement complétée pour ces conceptions, et si le public comprend la différence entre les systèmes avancés d'aide à la conduite (ADAS) et autonomes. "Les systèmes d'automatisation partielle peuvent rendre les longs trajets moins pénibles, mais rien ne prouve qu'ils rendent la conduite plus sûre", déclare le président de l'IIHS, David Harkey. "En fait, le contraire peut être le cas si les systèmes manquent de garanties adéquates."

Tel que rapporté par l' New York Times en juin, la National Highway Traffic Safety Administration (NHTSA) a mis à niveau… « son évaluation préliminaire du pilote automatique en une analyse technique [qui]… examinera si le pilote automatique ne parvient pas à empêcher les conducteurs de détourner leur attention de la route et de s'engager dans d'autres comportements prévisibles et risqués. lors de l'utilisation du système.

Pendant ce temps, huit petites semaines plus tard Tesla a publié une autre version bêta de son logiciel qu'elle a testée avec seulement 1000 XNUMX utilisateurs (chanceux ?) en raison de " de nombreuses modifications majeures du code".

Peut-être que le panneau à message variable devrait avertir les conducteurs de bien plus que l'envoi de SMS.

Source : https://www.forbes.com/sites/stevetengler/2022/10/25/new-study-points-out-scary-driver-behavior-in-supposedly-safer-cars/