Elon Musk recibe un capote del CEO de XPeng: el LiDAR no es tan importante -perceptualmente- como las cámaras de vídeo

Una de las medidas más polémicas de Tesla de este año fue dejar de equipar el radar frontal a los Model 3 y Model Y americanos, delegando su función en cámaras de vídeo y el procesamiento de imágenes con redes neuronales. Ni siquiera a la NHTSA de Estados Unidos le hizo gracia aquello de delegar tanto en cámaras como forma de percibir el mundo exterior, lo que el fabricante californiano llama Tesla Vision.

Bajo el punto de vista del CEO de Tesla, Elon Musk, dado que los conductores humanos nos guiamos fundamentalmente con lo que percibimos con la vista, los ordenadores o computadores también pueden hacerlo. No obstante, todos estamos de acuerdo en que hay cosas que no se pueden ver, especialmente en determinadas condiciones metereológicas o de luz.

El pasado viernes conocimos unas palabras de He Xiaopeng, el CEO y director del fabricante XPeng Motors, en una entrevista publicada en 36kr. Ante la pregunta de si el LiDAR va a ser la tecnología que se imponga en la era de los coches inteligentes, no lo tiene nada claro. Para Xiaopeng, el LiDAR es un complemento a la visión y permite aumentar la seguridad activa, pero el sentido clave a la hora de conducir es la vista.

Dicho de otro modo, desde el punto de vista perceptual, se puede recabar más información con la vista que con el LiDAR o el radar. De hecho, usando una combinación de LiDAR y radar hay cosas que son imposibles de percibir. Si hablamos desde un punto de vista estrictamente físico, todo se reduce a ondas electromagnéticas, pero cada tecnología se especializa en unas más concretas del espectro radioeléctrico.

«La razón de ser del LiDAR es proporcionar fiabilidad, estabilidad y precisión»

He Xiaopeng, CEO de XPeng

La posición predominante de la industria del automóvil es utilizar una combinación de sensores para que los vehículos puedan conocer por dónde van, exactamente dónde están, qué vehículos están en su camino, si hay peatones o animales, señales de tráfico (donde el color importa), etc. La percepción más completa se consigue combinando sensores. XPeng combina en su nuevo P5 la visión de 13 cámaras, radar, sensores ultrasónicos y doble LiDAR.

Ahora bien, este paradigma tiene un punto cojo, y es cuando un sensor dice que hay manzanas delante del coche y otro dice que no, que son peras. En este punto hay que introducir formas de discriminar y dar la razón al sensor que menos posibilidad tiene de «equivocarse», para que la programación no se encuentre ante algo indeterminado y que no sepa resolver, o lo resuelva mal. Y ahí va un ejemplo: ¿es lo mismo un camión cisterna metálico que uno que lleva pintura en el depósito?

Compártelo: