Tras el impacto contra un árbol, el vehículo quedó envuelto en llamas. Los bomberos necesitaron varias horas para apagar el incendio. (Foto: YouTube)
Tras el impacto contra un árbol, el vehículo quedó envuelto en llamas. Los bomberos necesitaron varias horas para apagar el incendio. (Foto: YouTube)

Las autoridades federales investigan el accidente que el sábado causó la muerte a dos personas en el condado de Harris (Texas, Estados Unidos) cuando el vehículo que ocupaban, un Tesla Model S de 2019 que no llevaba a nadie al volante, se empotró a alta velocidad contra un árbol.

Según las autoridades locales, nadie conducía el automóvil, que cuenta con un sistema de ayuda a la conducción denominado Autopilot. Los dos fallecidos, de 59 y 69 años de edad, ocupaban el asiento del copiloto y un asiento trasero.

Tras el impacto, el vehículo quedó envuelto en llamas. Los bomberos necesitaron varias horas para apagar el incendio.

El Consejo Nacional de Seguridad en el Transporte (NTSB, en inglés), dedicado a la investigación de accidentes en el sistema de transporte del país, señaló este lunes en Twitter que había enviado dos investigadores a Harris para que estudien el accidente.

“La investigación de NTSB se concentrará en la operación del vehículo y el incendio posterior al impacto”, añadió la agencia federal.

Tesla ha sido criticada tanto por la confusión que pueden provocar los nombres de sus sistemas de ayuda a la conducción como por la forma en que está comercializando esos sistemas.

Los sistemas de Tesla se denominan Autopilot, Full Self-Driving (FSD, Auto-Condución Total) y FSD beta.

En 2019, el Instituto para la Seguridad en la Carretera de Estados Unidos (IIHS, en inglés) señaló en un informe que el término Autopilot “indica a los conductores que pueden despistarse” ya que, a su juicio, “parece prometer más de lo debido” sobre el grado de atención que se debe prestar a la conducción.

Aunque en sus manuales Tesla indica que Autopilot y FSD deben ser utilizados con la supervisión activa de los conductores, el 48% de las personas encuestadas por IIHS dijo que el Autopilot permite conducir sin tener las manos en el volante.

Parte de esa percepción errónea puede proceder de las declaraciones públicas del consejero delegado de la compañía, Elon Musk, quien en el pasado ha publicitado las capacidades de Autopilot al declarar que “no se necesitará conducir la mayor parte del tiempo a menos que se quiera hacerlo” gracias a las mejoras que el sistema está experimentando.

Tesla también ha sido criticada por poner a disposición de sus clientes versiones de los sistemas de ayuda a la conducción que no están totalmente preparados para su comercialización.

Precisamente, el consejero delegado de Ford, Jim Farley, criticó la semana pasada de forma velada el Autopilot de Tesla por esto, lo que provocó la reacción de Musk.

Farley aprovechó la publicación de un video que presenta las capacidades de Blue Cruise, el sistema de ayuda a la conducción de Ford, para lanzar una puya a Tesla al escribir en Twitter: “¡BlueCruise! Lo hemos probado en el mundo real para que no lo tengan que hacer nuestros clientes”.

El tuit de Farley fue interpretado por muchos seguidores de Tesla como una referencia a su sistema Autopilot.

No es la primera vez que vehículos de Tesla han estado implicados en accidentes mortales cuando el Autopilot estaba activado.

En mayo de 2019, NTSB reveló que el Autopilot de un Tesla Model 3 que se estrelló en marzo de ese año en Florida, causando la muerte a su conductor, estaba activado en el momento del accidente.

NTSB dijo entonces que el Autopilot no detectó las manos del conductor en el volante en los últimos ocho segundos y que no realizó maniobras evasivas para evitar el choque contra un camión, cuando el Model 3 circulaba a 109 kilómetros por hora en una zona donde el límite era de 88,5 kilómetros por hora.

Además del accidente de Florida, los vehículos de Tesla con el Autopilot activado han sufrido otros dos accidentes mortales en Estados Unidos.

Fuente: EFE

TE PUEDE INTERESAR: