
El robotaxi de Tesla acumula accidentes a un ritmo alarmante incluso con supervisión humana
Tesla lo ha apostado todo por la conducción autónoma y la robótica, pero sus propios datos del rendimiento de la flota de taxis autónomos son más que preocupantes con una tasa de incidentes muy superior a lo esperado.

El programa de taxis autónomos de Tesla no ha empezado precisamente con buen pie. Los propios datos de la marca, combinados con los registros oficiales de accidentes de la NHTSA en Estados Unidos, dibujan un panorama bastante más preocupante de lo que Tesla suele admitir. Y lo más llamativo: sus coches autónomos están teniendo muchos más accidentes que los conductores humanos, incluso contando con un supervisor de seguridad dentro de cada vehículo.
Según los informes de accidentes recogidos por la NHTSA, recogidos por Electrek, Tesla ha declarado 9 accidentes relacionados con su flota de robotaxi en Austin, Texas, entre julio y noviembre de 2025. El listado es el siguiente:
- Noviembre de 2025: colisión al girar a la derecha
- Octubre de 2025: incidente a 29 km/h
- Septiembre de 2025: atropello de un animal a 43 km/h
- Septiembre de 2025: colisión con un ciclista
- Septiembre de 2025: golpe trasero al maniobrar marcha atrás a 10 km/h
- Septiembre de 2025: impacto contra un objeto fijo en un aparcamiento
- Julio de 2025: colisión con un SUV en una zona de obras
- Julio de 2025: impacto contra un objeto fijo con herida leve a 13 km/h
- Julio de 2025: colisión al girar a la derecha con un SUV
Según el propio informe de resultados del cuarto trimestre de 2025 de Tesla, la flota de robotaxi había recorrido unos 800.000 kilómetros hasta noviembre de ese año. Esto supone, de media, un accidente cada 88.000 kilómetros.
Para ponerlo en contexto, los conductores humanos en Estados Unidos registran aproximadamente un accidente con informe policial cada 800.000 kilómetros, según datos de la NHTSA. Es decir, los robotaxi de Tesla chocan unas 9 veces más que un conductor medio.
Incluso si se tienen en cuenta los accidentes que no llegan a constar en informes policiales —lo que reduce la media humana a unos 320.000 kilómetros por accidente—, los datos de Tesla siguen siendo claramente peores.
El problema del supervisor de seguridad

Hay un detalle que hace que estos números sean todavía más difíciles de justificar: todos los robotaxi de Tesla circulaban con un supervisor humano dentro del coche.
No hablamos de coches totalmente autónomos sin respaldo. Hay una persona sentada en el asiento cuya única función es intervenir si algo va mal. Y aun así, la tasa de accidentes sigue siendo casi un orden de magnitud peor que la de un conductor normal circulando solo.
La comparación con Waymo resulta inevitable. La empresa de Alphabet opera coches autónomos totalmente sin conductor, sin supervisor ni respaldo humano, y ha acumulado más de 40.000.000 de kilómetros con una tasa de accidentes claramente inferior a la media humana.
Un problema serio de transparencia

Más allá de los números, hay algo incluso más preocupante: la absoluta falta de transparencia por parte de Tesla.
En la base de datos de la NHTSA, todas y cada una de las descripciones de los accidentes de Tesla están censuradas con la misma frase: “[REDACTED, MAY CONTAIN CONFIDENTIAL BUSINESS INFORMATION]”.
Sabemos que un robotaxi de Tesla chocó con un ciclista, pero no sabemos cómo. Sabemos que uno provocó una herida leve, pero no sabemos en qué circunstancias. Sabemos que atropelló a un animal a 43 km/h, pero no hay más detalles.

Mientras tanto, empresas como Waymo o Zoox publican descripciones completas y detalladas de cada incidente. Un ejemplo real de Waymo en el mismo conjunto de datos explica paso a paso qué ocurrió, qué detectó el sistema y por qué el accidente fue inevitable.
Es muy posible que Tesla no sea responsable directa de algunos de estos accidentes, pero el problema es que no hay forma de saberlo. Y esa opacidad es una decisión consciente de la propia empresa.
Un buen ejemplo de cómo deberían hacerse las cosas ocurrió recientemente en Santa Mónica, California, cuando un coche autónomo de Waymo atropelló a un niño en una zona escolar. El titular era demoledor, pero la empresa publicó todos los datos: el niño salió corriendo de detrás de un SUV, el sistema lo detectó de inmediato y, aunque no pudo evitar el impacto, redujo la velocidad de 27 km/h a menos de 10 km/h, evitando daños graves. El niño resultó ileso.
Waymo incluso afirmó que sus simulaciones muestran que un conductor humano habría reaccionado más tarde y habría impactado al doble de velocidad.
Opinión

Los datos conocidos probablemente solo muestran la punta del iceberg. Es más que posible que las estadísticas, ofrecidas por el fabricante, no recojan ni de lejos todas las intervenciones de las personas que van tras el volante, que son precisamente las que evitan accidentes antes de que ocurran.
Si ya con un humano vigilando el sistema el robotaxi de Tesla presenta peores cifras que un conductor medio, imaginar su funcionamiento sin esa red de seguridad resulta, como mínimo, optimista. Además, se insiste en que muchos incidentes leves —golpes contra bordillos, vallas o elementos fijos en aparcamientos— difícilmente se informan, lo que podría estar maquillando aún más una realidad incómoda para la marca.
También aparece con fuerza otra crítica recurrente: el sistema da una falsa sensación de seguridad. Es evidente que el FSD transmite ser lo suficientemente bueno como para convencer al conductor de que funciona, pero no lo bastante fiable como para dejarlo solo, algo que ningún actuario aceptaría sin supervisión.
A esto se suma el debate sobre la comparativa con conductores humanos, el tipo de vías recorridas y la falta de datos desglosados por entornos urbanos densos. Pero incluso con esas matizaciones, muchos coinciden en que si un coche necesita actualizaciones constantes, supervisión humana y aun así registra un accidente cada pocos miles de kilómetros, el problema no es de percepción, sino de madurez tecnológica.
En ese contexto, más que discutir titulares o supuestos sesgos, la sensación general es que todavía se está muy lejos de poder hablar de conducción autónoma segura en condiciones reales por mucho que Elon Musk lleva años anunciándolo "a finales de este año".


