coches eléctricos

El Tesla Model S accidentado en California llevaba el Autopilot conectado, pero la culpa es del conductor. ¿Por qué?

A principios del pasado año saltaba a las portadas de muchos medios otro accidente de un Tesla Model S que chocó contra un camión de bomberos en California, y que según el propietario se ha producido mientras el coche funcionaba con el Autopilot conectado. Una combinación realmente jugosa para la prensa que se lanzó a acusar al sistema de Tesla del incidente que por suerte se saldó sin daños personales.

Ahora la Junta Nacional de Seguridad del Transporte de Estados Unidos (NTSB) ha publicado las conclusiones de su investigación para la que ha usado tanto los datos recopilados en el lugar del accidente, como los datos proporcionados por Tesla relativos al vehículo.

La conclusión es que el efectivamente, el sistema Autopilot estaba conectado durante el momento del impacto. Pero al mismo tiempo ha desvelado el mal uso que ha realizado este propietario que según los datos disponibles, no estaba prestando atención a la carretera tal como indican las normativas.

Según el informe: «Los datos del accidente muestran que, durante la mayor parte del tiempo en que el piloto automático estuvo activo, el conductor no tenía las manos en el volante. En el segmento final previo al accidente, el conductor retiró las manos del volante durante 12 minutos y 57 segundos. Se emitió una alerta de «colocar las manos en el volante» cuatro veces en el segmento final. Inmediatamente después de cada alerta, el conductor colocó sus manos en el volante. La última alerta se dio alrededor de 9 minutos en el segmento. El conductor colocó sus manos sobre el volante por última vez en este segmento. Cuando ocurrió el choque, el conductor no tenía las manos en el volante.»

Y es precisamente esta última parte la más importante, y es que en las propias condiciones del sistema se indica que Autopilot no es un sistema de conducción autónoma, y necesita una supervisión activa del conductor. Algo que como vemos la investigación deja bien claro que no se ha cumplido por parte del conductor.

Es más, en la investigación de la propia marca, que como siempre hay que coger con cierta cautela al ser parte implicada, indica que testigos del suceso han afirmado que el conductor no sólo no llevaba las manos en el volante, sino que tampoco prestaba atención a la carretera ya que estaba usando un teléfono móvil durante el suceso. También han asegurado que el conductor tenía una taza de café y un bollo a su lado. Factores que han podido influir en su pérdida de atención que le llevó a embestir a un gran camión rojo de bomberos en una autovía de seis carriles.

La conclusión es que el sistema Autopilot permite mejorar de forma notable la seguridad en carretera, pero no es un sistema infalible ni mucho menos un sistema de conducción autónoma. Necesita una supervisión constante por parte del conductor que debe prestar plena atención a lo que sucede en la carretera.

Y es que los datos que maneja la agencia encargada de la seguridad en la carretera (NHTSA) son aplastantes a favor del Autopilot. Según su último informe, en Estados Unidos se produce un accidente cada 701.674 kilómetros entre todos los vehículos en circulación. Por su parte los Tesla con el Autopilot conectado tienen una media de un accidente por cada 4,62 millones de kilómetros.

Una diferencia más que notable pero que como vemos en este caso, no significa que no se pueda tener un accidente con el sistema conectado. Algo que nos debe recordar que no se puede ni mirar ese Whatsapp que nos ha entrado, ni contestar a un mensaje en las redes sociales ya que el resultado puede ser fatal.

Relacionadas | El último informe de seguridad de Tesla señala que se producen menos accidentes con el Autopilot conectado

´Fuente | NTBS

Ver comentarios

    • Efectivamente, es simplemente un asistente, especialmente las versiones iniciales, pero con llamarlo autopilot la gente pensaba que era algo más que un mero asistente.

      En mi opinión no es culpa del usuario, al menos no exclusivamente, la culpa es también de Tesla, JAMÁS debería haber permitido que uno de sus coches se pueda manejar sin tocar el volante, sin prestar atención, hasta que no se tenga conducción nivel 3 o hasta nivel 4 no se debería permitir que un conductor no tenga las manos en el volante.... si lo permites es tu culpa como marca, por mucho que le digas que sean buenos y no estén sin prestar atención.

      • Ningún sistema de los actuales, lo permite, al cabo de X segundos, tras varios avisos, se desconecta o detiene el vehículo.
        Te lo puedo decir porque lo he probado en un Propilot de Nissan y tras varias advertencias, pone las luces de avería, reduce la velocidad y acaba deteniendo el vehículo. Lo cual me parece, dicho sea de paso, un garantía de seguridad impresionante por si algún día me da un jamacuco o me pasa algo al volante.
        La responsabilidad SIEMPRE es del conductor, lo demás excusas.

        • ¿Y cómo es que dice el artículo que en la última aleta fue 9 minutos antes? No segundos, minutos....

          • Ahí falta información. O lo "hackeo" de algún modo, hay vídeos de genet que pone una botella de agua, o sino no me lo explico. Ningún Tesla que funcione correctamente te deja conducir 19min. sin poner las manos en el volante.

        • Salvo que no lo hizo, le avisó durante minutos pero no le llegó a parar, por ello es culpa de Tesla

          • Entiendo que Tesla ha hecho las cosas según normativa. Si la ley te lo permite o no te lo prohibe. Si no fuera legal ya lo habrían retirado y/o sancionado.
            Yo lo veo de la siguiente forma: el tio es un sobrado que pasa de prestar atención a la conducción, aunque el coche de avisos, le da lo mismo su seguridad y la de los demás. Tesla podría haber sido más restrictiva y si detecta que durante 30 segundos las manos no están en el volante, poner las luces de emergencia y parar el vehículo. Pero también son responsables las autoridades, por permitir que se puedan hacer ciertas cosas, es decir, un asistente a la conducción demasiado laxo.

  • Vamos a ver si entendí bien.
    El Autopilot es una ayuda a la conducción, de consecuencia debes tener las manos en el volante, hasta ahí todo bien.
    La pregunta, ¿Porqué no se desconecto y sonó una fuerte alarma (no un pitido de alerta, una alarma) durante esos 12 minutos?
    Ya sé que va sonando un pitido cada tanto para que toques el volante, pero digo yo, tan difícil es que si nota que no pone las manos, ¿No se vuelva a conectar?
    Lo digo porque es lo que Tesla dice, pero luego el sistema no hace.
    Es evidente que la sola acción de poner las manos en el volante no es suficiente.
    Lo digo porque es una polémica desde el principio.
    Ya lo de haberlo llamado "Pilot Assist", para no confundir a la gente lo dejamos para otro día.
    Y lo del café y el bollo... Por favor, estamos en EEUU, los coches tienen más posavasos que asientos, ¿Para que los ponen, entonces?
    Ahora bien, está claro que la culpa es del conductor por fiarse del Autopilot, pero ¿Dió Tesla una explicación del porqué no detectó el camión los sensores?
    Cuando fue el accidente, hace un par de años, con el Model S que pasó debajo de un camión, hubo una explicación de porqué los sensores no detectaron al camión (y por eso debe estar alerta el conductor) que tenía sentido, pero aquí, que fue distinto ¿Se sabe algo más?

    • Veremos si dan mas información.

      La gente tendemos a saltarnos las cosas, pero no por ello la responsabilidad no la tiene que tener el fabricante, pero tengo una duda, si tenía puesto un "hack" de poner las manos para que no le molestase... no se menciona.

      Luego también está en las actualizaciones. Tesla las va sacando y tu como usuario lo actualizas, claramente puedes rechazar incluso revocar alguna serie de actualizaciones. Ahora bien... también sabemos que Tesla puede forzar a una actualización y mas si es al autopilot.

      Hay muchos detalles que no se han dado para arrojar mas luz.... de todas maneras siempre lo digo, tienes un sistema pero tienes que ser responsable.

  • Vale que el conductor no estaba atento y no tenía las manos en el volante ... la culpa es suya ...

    ... ¿pero Tesla que opina al respecto de que el autopilot no viera un camión de bomberos? ... se supone que es capaz de frenar para evitar una colisión por alcance en una autopista con tráfico como se ha visto en algunos videos ... esa parte si ha fallado, en mi opinión un porcentaje del accidente si es culpa del coche ...

    Estaría bien conocer más detalles, si el coche llegó a frenar antes minimizando el impacto o si simplemente envistió al camión de bomberos sin frenar ... si el camión estaba parado o en marcha ... si estaba parado igual esa versión de autopilot no calcula bien los tiempos de frenado en función de la velocidad del otro vehículo e igual frenó pero sin espacio suficiente como para detenerse por completo ... etc ...

    • Efectivamente no se dice si el coche ha frenado o no. Eso lo aseguran algunos. Entiendo que por autovía, impactar contra un camión parado si no frenas te matas. Y el conductor ha salido sin una herida y por su propio pie. Algo que nos indica que o el coche ha frenado, o circulaba a baja velocidad.

      • El mal llamado autopilot debiera haber parado, es evidente que ha fallado, lo cual no quita que la responsabilidad sea del conductor.

  • En mi opinión es mucho más peligroso conducir teniendo que corregir un extraño del coche que conducir de forma manual.

  • Para hablar de esto primero hay que conducir un Tesla con el Autopilot y saber cuales son sus límites. Las estadísticas están ahí para demostrar que es mucho mas seguro, pero evidentemente no infalible. El Autopilot funciona y funciona realmente bien si se sabe utilizar. Yo llevo casi 50.000Km en el mío y lo conecto en el 90% de los trayectos. Lo que no se de donde saca el articulo lo de los 12 minutos sin tocar el volante, porque te avisa a los 20 segundos y si tras tres avisos de pocos segundo no pones la mano se desconecta parando el coche y no lo puedes activar hasta el próximo trayecto.
    Este accidente concreto no sé como pudo pasar, pero si el coche iba rápido y el camión iba muy despacio y cambio repentinamente de carril muy cera posiblemente no le dio tiempo a frenar. Es solo una suposición.

    • El camión estaba parado atendiendo un accidente en la mano contraria.
      Y lo ponen de barrera para evitar males mayores...

    • Probablemente "hackeo" el sistema con el truco de la botella de agua o similar. No me extrañaría que incluso se venda algún gadget por internet y como hay gente "pa tó"

  • El problema es como el Tesla no freno automaticamente el coche al ver un camion de bomberos en su carril.
    La frenada automatica debe producirde este el conductor pendiente o no.

    • A mi lo que me llama la atención es que salió vivo.
      Y que el coche no vea un camión ....

  • Todo sistema que puede ser conectado desconectado y por tanto trampeado por el usuario es el caso de Autopilot EA un error y se producirá ahora y siempre si no se modifica por ejemplo si se activa al arrancar hasta que no se pare el coche y pasen por ejemplo 3 minutos no se pueda desactivar

  • Hay un tema que nadie comenta, y puede aclarar el motivo por el cual el coche no ha frenado automáticamente para evitar el accidente. Cuando conduces con el autopilot activado, puedes acelerar y frenar en momentos puntuales sin que el sistema se desactive (se desactiva si corriges la dirección con el volante, pero no lo hace si pisas el acelerador o el freno). Si el conductor tiene el acelerador pisado cuando el autopilot está activado, el coche no frenará automáticamente. De hecho, te sale una advertencia de ello en la pantalla.

  • A mi forma de verlo es culpa de Tesla. El vehiculo se accidentó con un camión. El conductor no se sabe si iba atento o no, pero llevar un café, no veo que sea motivo, hablar por tlf lo habrían sabido y en el informe no parece decir nada. El sistema deja poner las manos de vez y el conductor cuando se lo pedía el sistema lo hacía sino el coche se para. En este caso mal por Tesla, quien se fía ahora del autopilot, sabiendo que si tienes un accidente Tesla se va a lavar las manos si o si.

    • La responsabilidad de la conducción del vehiculo incluyendo el Autopilot es del conductor.
      Pero hoy en día es más fácil darle a aceptar a todo antes que leer un contrato donde especifica que el conductor tiene que estar en todo momento atento a la carretera aunque esté al autopilot encendido.
      Pero los fanboys no sabemos nada y eso lo sabemos desde el día 0 en que salió con sus avisos en el momento de encender por primera vez el mismo.

      Para todo lo demás, como si estaba echando una siesta.
      La culpa es del conductor siempre que hay un accidente de alcance en todos los códigos de circulación incluido en los EEUU.

Artículos recientes

Tesla y su Giga Press crean tendencia: cada vez más fabricantes quieren producir automóviles a partir de grandes piezas de fundición

El Model Y es probablemente la apuesta más ambiciosa de Tesla hasta el momento, más…

hace 2 horas

El Volkswagen ID.5 ya tiene precio en España: desde 48.980 euros

A pesar de que el primer modelo de la familia ID. (la nueva gama de…

hace 4 horas

La energía solar más la eólica permiten al sur de Australia lograr un 135% de producción renovable

La tardía aunque decidida apuesta de Australia por las energías renovables y el respaldo por…

hace 6 horas

El precio de las baterías baja hasta los 132 dólares el kWh, pero podría frenarse su caída por el coste de los materiales

El coste de producción de las baterías de litio para el coche eléctrico se ha…

hace 7 horas

Toyota se centrará en reducir el precio de sus coches eléctricos en lugar de en incrementar su autonomía

Durante los últimos años, Toyota ha sido uno de los fabricantes más reacios a apostar…

hace 9 horas

Primeras imágenes oficiales del BMW i7 durante sus test de invierno

BMW ha compartido las primeras imágenes oficiales del i7, su nueva berlina de representación eléctrica.…

hace 10 horas