Momento de infarto: el propietario de un Tesla casi choca contra un TREN en movimiento en modo de ‘conducción autónoma’ (¡y dice que no era la primera vez!)

A tesla El propietario culpa a la función de conducción autónoma total de su vehículo por virar hacia un tren que se aproxima antes de poder intervenir.

Craig Doty II, de OhioEstaba conduciendo por una carretera por la noche a principios de este mes cuando las imágenes de la cámara del tablero mostraron que su Tesla se acercaba rápidamente a un tren que pasaba sin signos de desacelerar.

Afirmó que su vehículo estaba en Modo de conducción totalmente autónoma (FSD) en ese momento y no redujo la velocidad a pesar de que el tren cruzó la calle, pero no especificó la marca ni el modelo del vagón.

En el vídeo, el conductor parece haberse visto obligado a intervenir girando a la derecha a través de la señal del cruce ferroviario y deteniéndose a pocos metros del tren en movimiento.

Tesla se ha enfrentado a numerosas demandas de propietarios que afirmaron que la función FSD o piloto automático les provocó un accidente porque no se detuvo ante otro vehículo o se desvió hacia un objeto, cobrándose en algunos casos la vida de los conductores involucrados.

El conductor de Tesla afirmó que su vehículo estaba en modo de conducción totalmente autónoma (FSD), pero no redujo la velocidad cuando se acercó a un tren que cruzaba la calle. En el vídeo, el conductor supuestamente se vio obligado a desviarse de la carretera para evitar chocar con el tren. En la foto: el vehículo Tesla después de la casi colisión.

En abril de 2024, los sistemas de piloto automático de los modelos Tesla Y, X, S y 3 estaban involucrado en un total de 17 muertes y 736 accidentes desde 2019, según la Administración Nacional de Seguridad del Tráfico en Carreteras (NHTSA).

doty reportado El problema en el sitio web de Tesla Motors Club, diciendo que ha sido propietario del automóvil durante menos de un año, pero «en los últimos seis meses, ha intentado dos veces conducir directamente hacia un tren que pasaba mientras estaba en modo FSD».

Según los informes, había intentado denunciar el incidente y encontrar casos similares al suyo, pero no encontró un abogado que aceptara su caso porque no sufrió lesiones importantes, sólo dolores de espalda y un hematoma, dijo Doty.

DailyMail.com se ha puesto en contacto con Tesla y Doty para solicitar comentarios.

tesla precauciones Los conductores se oponen al uso del sistema FSD en condiciones de poca luz o malas condiciones climáticas como lluvia, nieve, luz solar directa y niebla, que pueden «degradar significativamente el rendimiento».

Esto se debe a que las condiciones interfieren con el funcionamiento de los sensores del Tesla, que incluyen sensores ultrasónicos que utilizan ondas sonoras de alta frecuencia para rebotar en los objetos cercanos.

También utiliza sistemas de radar que producen bajas frecuencias de luz para determinar si hay un coche cerca y cámaras de 360 ​​grados.

Estos sistemas recopilan colectivamente datos sobre el área circundante, incluidas las condiciones de la carretera, el tráfico y los objetos cercanos, pero en condiciones de baja visibilidad, los sistemas no pueden detectar con precisión las condiciones a su alrededor.

Craig Doty II informó que era propietario de su vehículo Tesla desde hacía menos de un año, pero que la función de conducción autónoma total ya había provocado casi dos accidentes. En la imagen: El Tesla se acerca al tren pero no reduce la velocidad ni se detiene.

Tesla se enfrenta a numerosas demandas de propietarios que afirmaron que la función FSD o Autopilot provocó su accidente. En la imagen: el coche de Craig Doty II se sale de la carretera para evitar el tren.

Cuando se le preguntó por qué había seguido usando el sistema FSD después de la primera casi colisión, Doty dijo que confiaba en que funcionaría correctamente porque no había tenido ningún otro problema durante un tiempo.

«Después de usar el sistema FSD por un tiempo, uno tiende a confiar en que funcionará correctamente, de manera muy similar a como lo haría con el control de crucero adaptativo», dijo.

«Das por sentado que el vehículo reducirá la velocidad cuando te acercas a un coche más lento que va delante, hasta que no lo hace, y de repente te ves obligado a tomar el control.

«Esta complacencia puede aumentar con el tiempo debido a que el sistema normalmente funciona como se espera, lo que hace que incidentes como este sean particularmente preocupantes».

El manual de Tesla hace advertir a los conductores en contra de confiar únicamente en la función FSD, diciendo que deben mantener las manos en el volante en todo momento, «ser conscientes de las condiciones de la carretera y del tráfico circundante, prestar atención a los peatones y ciclistas, y estar siempre preparados para tomar medidas inmediatas».

El sistema de piloto automático de Tesla ha sido acusado de provocar un Accidente de fuego que mató a un hombre en Colorado mientras conducía a casa desde el campo de golf, según una demanda presentada el 3 de mayo.

La familia de Hans Von Ohain afirmó que era usando el sistema de piloto automático del Tesla Model 3 2021 el 16 de mayo de 2022, cuando giró bruscamente hacia la derecha fuera de la carreterapero Erik Rossiter, que iba como pasajero, dijo que el conductor estaba muy ebrio en el momento del accidente.

Ohain intentó recuperar el control del vehículo pero no pudo y murió cuando el coche chocó contra un árbol y estalló en llamas.

Un informe de la autopsia reveló más tarde que tenía tres veces el límite legal de alcohol en su organismo cuando murió.

Un hombre de Florida también murió en 2019 cuando el piloto automático del Tesla Model 3 no frenó cuando un camión giró hacia la carretera, lo que provocó que el automóvil se deslizara debajo del remolque; el hombre murió instantáneamente.

En octubre del año pasado, Tesla ganó su primera demanda por acusaciones de que la función de piloto automático provocó la muerte de un hombre de Los Ángeles cuando el Model 3 Se salió de la carretera y chocó contra una palmera antes de estallar en llamas..

La NHTSA investigó los accidentes. asociado con la función de piloto automático y dijo que un «sistema débil de participación del conductor» contribuyó a los accidentes automovilísticos.

La función de piloto automático «provocó un mal uso previsible y accidentes evitables», según la NHTSA informe dijo, añadiendo que el sistema no «garantiza suficientemente la atención del conductor y su uso adecuado».

Tesla emitió una actualización de software inalámbrica en diciembre para dos millones de vehículos en los EE. UU. que se suponía mejoraría el piloto automático de los sistemas FSD del vehículo, pero la NHTSA ahora ha sugerido que la actualización probablemente no fue suficiente a la luz de más accidentes.

Elon Musk no ha comentado sobre el informe de la NHTSA, pero anteriormente promocionó la eficacia de los sistemas de conducción autónoma de Tesla, afirmando en un informe de 2021. correo en X, las personas que utilizaron la función de piloto automático tenían 10 veces menos probabilidades de sufrir un accidente que el vehículo promedio.

‘La gente está muriendo debido a una confianza errónea en las capacidades del piloto automático de Tesla. Incluso medidas simples podrían mejorar la seguridad», afirmó Philip Koopman, investigador de seguridad automotriz y profesor de ingeniería informática en la Universidad Carnegie Mellon. CNBC.

«Tesla podría restringir automáticamente el uso del piloto automático a las carreteras previstas en función de los datos del mapa que ya se encuentran en el vehículo», continuó.

‘Tesla podría Mejorar el monitoreo para que los conductores no puedan quedarse absortos en sus teléfonos celulares mientras el piloto automático está en uso.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *