¿Quieres estar informado diariamente con las últimas novedades del mundo del motor?

Ahora no Permitir

Defensores de Tesla insisten en que sus coches no atropellan a niños. Youtube borra vídeos, Tesla calla, y la NHTSA pide sensatez

¿Son los coches de Tesla un peligro público? Hay quien lo dice, y bien alto. Es más, hay una campaña que pide a las autoridades de Estados Unidos que prohiba el asistente a la conducción FSD hasta que se demuestre que no va a atropellar niños. Sí, el mismo FSD que va a subir de precio a 15.000 dólares. Para entender la polémica, tenemos que ir hacia atrás.

A principios de enero se celebró la feria Consumer Electronics Show (CES) de Las Vegas, donde se llevó a cabo una demostración del sistema Proactive Safety LiDAR de la empresa especialista Luminar frente al Tesla Vision basado únicamente en cámaras de vídeo. El vehículo con LiDAR frena automáticamente al pasar por delante un dummy que simula a un niño en la carretera, mientras que un Tesla Model Y sin LiDAR embiste al muñeco simulado con distintos conductores con las manos en el volante.

Hay varios vídeos de esta prueba, filmados de día y de noche, desde el exterior y desde dentro del Tesla. En uno de los vídeos publicados en Twitter, Taylor Ogan (@TaylogOgan) recriminó a Elon Musk sus palabras sobre el sistema LiDAR, basado en láser, que rehusó implantar en los Tesla: «Elon Musk piensa que los vehículos que usan LiDAR para detectar objetos son tontos, completamente estúpidos, una tontería… pero sus coches fallan al detectar niños en mitad de la carretera».

Imágenes que valen más de 1.000 palabras

El vídeo adjunto al trino lo subió Patrick Moorhead (@PatrickMoorhead), analista tecnológico de Moor Insights & Strategy -además de CEO y fundador de la misma-. Este señor subió más vídeos de la prueba de Luminar, cuyo vehículo de pruebas -un Lexus RX modificado- no embiste al muñeco simulado ni de frente, ni al aparecer justo al esquivar un vehículo simulado. Pero podemos ver al Tesla darle al muñeco una y otra vez, incluso cuando el mismo Patrick es el que conduce el coche.

En el vídeo resumen de la feria que subió la empresa Luminar a su perfil de Youtube, que dura apenas 2 minutos y medio, podemos ver cómo un conductor de prueba (un voluntario), conduciendo el Tesla con las manos en el volante, se lleva por delante al muñeco, pero sin tener el sistema FSD activado. No se hace una mención específica al fabricante, sino al conductor cree que como su coche tiene cinco estrellas… patata. El momento preciso es el siguiente:

Con anterioridad a este vídeo, Luminar subió otro el 2 de septiembre demostrando el Proactive Safety LiDAR en sus instalaciones. También se usa un Lexus RX para las pruebas, y en vez de un Tesla Model Y, vemos a un Model X, que es más grande y dispone del radar frontal. Dentro del Tesla se oye un pitido de advertencia, el coche percibir, percibe algo, pero embiste al dummy. Por cierto, es un muñeco adulto.

Luminar recibió una importante inversión de Mercedes-Benz, anunciándose el 20 de enero la colaboración entre ambas compañías

Otro vídeo del CES volvió a hacerse viral hace unos días, el 9 de agosto, pero con mucha más repercusión fuera de los medios especializados de motor. Aparentemente, el detonante fue un tuit con este mensaje: «Estamos en 2022, y los Tesla siguen sin detenerse ante los niños», también subido por Taylor Ogan. Este tuit apareció apenas una hora y unos minutos después de que Dan O’Dowd hiciese pública en Twitter su campaña contra el sistema FSD.

Una de las respuestas principales a la polémica vino del conocido propietario de un Tesla e inversor Whole Mars Catalog (@WholeMarsBlog), Omar Qazi, con 134.000 seguidores: «un trozo de cartón no es un niño», y argumentó que los trozos de cartón pueden inducir frenadas fantasma con posible colisión por alcance como resultado. El señor Qazi tiene acciones de Tesla, por lo que tiene un conflicto de intereses.

Si nos volvemos a fijar en los vídeos de las pruebas de Luminar, aparentemente son dummys como los empleados en las pruebas homologadas de sistemas de frenada automática, no simples trozos de cartón; Taylor Ogan se lo recordó en una de las respuetas: «¿Esto parece a un trozo de cartón?». Pese a todo, Omar Qazi lanzó a sus seguidores de la bahía de San Francisco un reto, que si confiarían en poner a sus hijos delante de su Tesla Model 3 equipado con FSD. Ojo, esto ya implica delegar más en el propio vehículo para detectar el obstáculo y frenar, ya que con FSD el conductor puede quitar las manos del volante.

Reviralización estival y resurgimiento de la polémica

Dicho, y hecho, se han visto vídeos de padres que han hecho la prueba con sus propios hijos. No hay ningún atropello (y menos mal), lo cual se usa como contraargumento. Por lo menos, dos de estos vídeos han sido retirados de Youtube por incumplir una de las reglas de uso, que es subir vídeos con menores de edad haciendo algo peligroso.

Cuenta la leyenda que el ballestero Guillermo Tell estaba tan seguro de su puntería que disparó a 100 pasos de distancia una ballesta, apuntando a una manzana sobre la cabeza de su hijo. En realidad, fue obligado a hacerlo por un malvado gobernador para demostrar su inocencia. Su ballesta tenía dos flechas, la segunda era por si fallaba el disparo de la primera y hería a su hijo, para tirarla contra el gobernador.

De esta historia podemos sacar una moraleja, y es que por muy seguro que pueda estar alguien de algo, siguen existiendo riesgos. De hecho, la propia Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) emitió un comunicado para la CNBC plagado de sentido común con este mensaje: «puede ser muy peligroso para cualquiera tratar de hacer pruebas de tecnologías de vehículos por su cuenta».

En este tuit de Omar Qazi, subido el 14 de agosto, vemos pruebas exitosas de frenado ante niños, tanto andando como quietos, llevados a cabo por parte de particulares. Eso sí, lo hacen a una velocidad muy inferior (menos de 12 km/h) a la que se hicieron las pruebas de Luminar; son padres, y no son imbéciles. Se enlaza a uno de los vídeos retirados de Youtube, pero es posible ver -todavía- el mismo vídeo en Twitter, que dura 10 minutos. ¿Habría ocurrido lo mismo -nada- a 40 km/h?

Se da la circunstancia de que Youtube es una empresa de la división Alphabet de Google, y que a su vez es propietaria de Waymo. Para los que no conozcan a Waymo, es una empresa tecnológica que está desarollando taxis autónomos, así que en cierto modo podemos encontrar un conflicto de intereses, a pesar de que las políticas de Youtube efectivamente dicen eso acerca de poner menores en peligro, y la han aplicado en este caso tras una revisión manual.

Y por si toda esta polémica no era suficiente, prácticamente a la vez -9 de agosto- emergió una campaña impulsada por Dan O’Dowd, que llevaba semanas preparándose, en la que solicita al más alto nivel que el sistema FSD de Tesla se prohíba mientras existan dudas sobre su efectividad al detectar niños. La NHTSA sería la responsable de hacerlo, pero de momento no ha hecho tal petición al fabricante de coches eléctricos. Eso sí, se investiga el Autopilot tras algunas colisiones contra vehículos de emergencia detenidos con los rotativos puestos.

«The Dawn Project», la campaña de Dan O’Dowd contra el FSD de Tesla

Dan O’Dowd era un candidato al Senado de Estados Unidos por California, y también CEO de Green Hills Software. Se presenta a sí mismo como ingeniero especializado en seguridad. Define al sistema FSD de Tesla como «el peor sistema comercial que he visto». Proporciona un número de teléfono para que el Congreso de Estados Unidos retire este sistema. Por cierto, se refiere a la versión Beta 10.12.2, probada en junio.

Tengamos en cuenta que un circuito cerrado no está cartografiado por la red neuronal. En las pruebas realizadas, a una velocidad de 40 km/h, en tres intentos el maniquí es atropellado sin que el vehículo decelere por su cuenta. Funcionase o no el sistema FSD, el frenado automático tendría que haber actuado igualmente, salvo que fuese desactivado. Por cierto, el maniquí parece vestido de forma muy similar a un cono.

Anteriomente O’Dowd subió un recopilatorio de fallos del sistemas FSD subidos a Internet por distintos probadores de la Beta -no está liberado al público todavía-, y llamó a la campaña «Inseguro a cualquier velocidad». Toma su nombre de un conocido libro de los años 60 escrito por Ralph Nader, que entre otras cosas recriminó a General Motors que el Chevrolet Corvair era un auténtico peligro público.

Dan O’Dowd tiene una cruzada personal contra Tesla y el sistema FSD, no lo ha disimulado en modo alguno

La campaña ha recibido una fuerte contestación por parte de los defensores del fabricante, ya que él mismo no lo ha hecho, tampoco el señor Elon Musk; ambos guardan silencio. El principal argumento contra la campaña es que, aparentemente, el sistema FSD no está activado durante dichas pruebas, como denunció Electrek, y creen que el conductor acelera para evitar que el frenado automático del coche evite el atropello del dummy. El conductor lo negó en un comunicado.

En su defensa, Dan O’Dowd explicó que los datos en los que se basa su campaña pueden descargarse de su página Web, y está preparado para repetir las pruebas delante de medios de comunicación o los organismos reguladores de Estados Unidos. Críticos con la campaña argumentan que los resultados publicados no con coherentes con el vídeo corto que se aireó en redes sociales y televisión.

Todos los Tesla tienen frenado automático de serie

De acuerdo a la normativa, cualquier Tesla incorpora de fábrica el sistema de frenado automático (AEB) elemental, que funciona independientemente de que se use Autopilot, Autopilot mejorado o FSD, está siempre activo, a menos que se desactive. En los vídeos de EuroNCAP de 2019 podemos ver el sistema en acción, y no solamente evita la colisión contra un vehículo en movimiento, también evita el atropello de peatones (niños incluidos).

No obstante, el vehículo usado en esas pruebas sí usó radar frontal, sistema que dejó de equiparse en los Model 3/Y de producción estadounidense a partir de primavera de 2021. El sistema Tesla Vision delega toda la detección de obstáculos en la trayectoria del coche en cámaras de vídeo y la interpretación que hace una red neuronal de las imágenes.

Tanto los radares como los LiDAR son más eficaces detectando los objetos, y sus lecturas pueden complementar perfectamente los sistemas de visión artificial. Tesla se empeña en decirle «no» al LiDAR, mientras buena parte de otros fabricantes confían en él, tanto occidentales (Cadillac, Lucid, Volkswagen, Volvo…) como orientales (BAIC, GAC, NIO, XPeng…).

Fotograma de la campaña «The Dawn Project»

¿A quién tenemos que creer?

Si eliminamos lo imposible, lo que quede, por absurdo que sea, nos llevará a la verdad. Los Tesla han superado las mismas pruebas de homologación que vehículos de la competencia respecto a sus sistemas de frenado automático, que son obligatorios. El sistema FSD no ha superado pruebas oficiales y sigue en una fase beta -un producto a medias entre terminado y apto para usarse abiertamente- para más de 100.000 conductores con un historial de conducción muy seguro. El sistema FSD se actualiza con cierta frecuencia y va mejorando.

Como en todo sistema de Nivel 2 SAE de asistencia, el conductor es el último responsable de lo que ocurra, ya que debe permanecer atento a la carretera

No sabemos si el equipo de Dan O’Dowd ha manipulado conscientemente sus pruebas, o si ha cometido errores metodológicos, pero sería interesante repetir esas pruebas independientemente por un organismo como el TÜV alemán. Tesla está equivocándose al mantenerse en silencio.

No obstante, las pruebas amateurs que se han presentado en contra, aparte de no seguir metodologías estandarizadas ni ser especialmente rigurosas, se hacen a baja velocidad y no deben tomarse como la palabra de dios. Les faltaba la segunda flecha de Guillermo Tell, hacerlo a 40 km/h (y menos mal que no lo han hecho). Un potencial sacrificio de un hijo por cuestión de fe no es un romántico pasaje bíblico como el de Abraham, rozaría el fanatismo.

La página Tesla Deaths tiene un recopilatorio de noticias en las que se hace referencia a accidentes en los que coches de Tesla se han visto implicados, estuviesen al volante humanos o una IA. El número de peatones o ciclistas que han resultado muertos parece totalmente dentro de lo normal (incluso por debajo) considerando que más de 3 millones de estos vehículos circulan por el mundo y que más de 100.000 usan el sistema FSD en fase Beta.

¿Son un peligro público? A tenor de los datos, no.

Compártelo: Compartir en WhatsApp Compartir en Menéame