Elon Musk elimina el radar en pos de la conducción autónoma y anuncia nuevo software la próxima semana | forococheselectricos

Elon Musk elimina el radar en pos de la conducción autónoma y anuncia nuevo software la próxima semana


Con el objetivo de conquistar la conducción autónoma total, sin necesidad de mapas, rutas digitalizadas, lidar, sensorización y otros menesteres utilizados por empresas rivales, Elon Musk anuncia que la nueva versión beta V9 del FSD (sistema de conducción autónoma total) estará disponible la semana que viene para el exclusivo grupo de betatester en Estados Unidos.

Según anuncia Musk, «tuvimos que centrarnos en eliminar el radar y confirmar la seguridad. Ese lanzamiento saldrá la próxima semana a la producción estadounidense. Luego se lanzará una o dos semanas para pulir la visión pura FSD y v9 beta. La diferencia entre v8 y v9 es gigantesca».

Desde ForoChochesEléctricos hemos seguido atentamente las evoluciones de esta tecnología trayendo a España la última información y vídeos publicados, por aquellos propietarios que ostentan el privilegio de disfrutar del software más avanzado de Tesla.

«Un diferencia gigantesca» y ¿sin radar?

Según Elon Musk, la diferencia respecto a la versiones actuales será «gigantesca«. Pero lo más llamativo del nuevo software es la posible eliminación de un sensor hasta ahora imprescindible en todo automóvil avanzado; el radar.

«Tuvimos que centrarnos en eliminar el radar y confirmar la seguridad«, reza el tuit de Elon Musk.El CEO de Tesla destaca el cambio del sistema de visión pura en los últimos meses.

En marzo, el CEO señaló que la visión pura es el camino a la «IA del mundo real«. El manager de origen sudafricano explicó posteriormente que la visión tiene «mucha más precisión» que el radar. Para Musk las cámaras tienen varios órdenes de magnitud, más bits por segundo que el radar.

Un objetivo en mente

El objetivo marcado por Tesla parece caminar hacia un sistema de visión pura que podría dejar atrás el radar a medida que mejore el procesamiento de visión.

En otro tuit Musk afirma que «estamos a tal vez uno o dos meses de la beta amplia. Pero estas cosas son difíciles de predecir con precisión» y añade que «el trabajo que tuvimos que hacer para la conducción de la visión pura era necesario para el FSD, se ha avanzado mucho más de lo que parece«.

Tecnología patentada

El camino de Tesla hacia la visión pura sin elementos como radar, lidar y otros elementos queda clara tras la patente publicada en marzo que describe un sistema basado en el uso de dos redes neuronales para medir con precisión las distancias de los objetos utilizando sólo datos de imagen.

Compártelo:

23 comentarios en «Elon Musk elimina el radar en pos de la conducción autónoma y anuncia nuevo software la próxima semana»

  1. El manager de origen sudafricano explicó posteriormente que la visión tiene «mucha más precisión» que el radar.

    Sobretodo los días con lluvia y niebla.
    Algo debe haber detrás de este empecinamiento en no utilizar otras tecnologías, sobretodo sabiendo que pueden ser utilizadas de manera complementaria.

    Responder
    • Correcto, «complementaria» esa es la clave. ¿Es mejor un sistema visual o uno visual+radar o uno visual+radar+lidar?

      la respuesta es obvia…ellos sabran,,,

      Responder
    • Llevan retrasando el FSD años, saben que tienen que sacar algo ya porque sino el hype se desinfla… Asi que lo sacan sin radar ahora que llega el verano y ya meteran la integracion con el radar mas tarde.

      Responder
      • Ya os digo yo que el radar no funciona muy allá los días de lluvia fuerte (por el eco y las reverberaciones creadas), y que el LIDAR es especialmente malo en los días de lluvia fuerte y niebla (por el mix de falsos positivos + infinitos).

        Es mejor lidiar un una visión parcial que lidiar con información errónea. Por eso Musk quiere un sistema que no esté introduciendo información errónea constantemente y prefiere tirar únicamente con las cámaras.

        Esto lo he explicado ya un montón de veces, y la gente sigue entrando a decir la chorrada del día de que la tecnología LIDAR es lo más de lo más.
        No es casualidad que los peajes free-flow modernos estén retirando los láseres (LIDAR) de su arquitectura habitual.

        En fin… sigamos con el palillo en la boca y el carajillo en la mano diciendo que qué locura es esta de quitar radar y LIDAR de la ecuación, que Musk no tiene ni idea de lo que hace.

        Responder
        • Para quien quiera la explicación más extensa de por qué Lidar funciona peor que las cámaras con lluvia/nieve, que busque en google las palabras «Lidar» «infinitos» «forococheselectricos», y lo encontraréis en uno de los comentario del artículo «La verdadera conducción autónoma de Tesla usará un hardware más avanzado que el actual»

          Un saludo.

          Responder
        • ojo que igual el cuñado eres tu… por todos sabemos que las cámaras con niebla funcionan perfectamente y con lluvia intensa son una pasada.
          En fin tonterías aparte… obviamente es mejor la combinación, cuanta mas información mejor, para poder contrastarla en el procesado, porque igual la cámara ve algo , pero no determina su tamaño y el radar o lidar le puede echar una mano.
          Todos sabemos que la cámaras de tesla no determinan bien el tamaño de los objetos como pueden ser los camiones, que creen que pasan por debajo..

          Responder
        • Y el sistema no es capaz de discriminar cuándo los datos del radar o el lidar deben ser subordinados a los de las cámaras???
          Me parece un argumento muy pobre.

          Responder
    • Creo que estáis pasando por alto que las cámaras digitales pueden ver luz en un rango mucho mayor que el del ojo humano. Esto no lo puedo asegurar, pero apostaría a que esas cámaras pueden ver en infrarrojos. En ese caso, niebla, lluvia o humo no serían un problema.

      Responder
      • Eso estaba yo pensando, ¿no se puede usar infrarrojos o ultravioletas, cámaras térmicas o lo que sea, algo fuera del espectro de la luz visible, que aporte más información en esas situaciones en las que las cámaras no funcionan bien? Hablo desde mi más absoluta ignorancia, y si alguien puede aportar algo al respecto.

        Responder
    • Lo que sí que es una verdad objetiva es que nosotros, el ser humano, conducimos con la vista (y el sonido como un complemento a nuestro único foco de visión, que no es lo mismo que un radar). En teoría se puede pensar que se puede conseguir lo mismo con un ordenador que simule nuestro cerebro y mil y una cámaras que cubran 360º y corta/media distancia.

      Responder
  2. Esta abriendo camino a sus cohetes. Un radar o un lidar está más limitado para grandes distancias.
    Un proyecto de visión artificial debidamente optimizado le da alas a su proyecto en marte.

    Responder
  3. Claramente van a introducir mejoras pero hasta que estén seguro de ello es cuando deben incorporar dicha eliminación.

    Yo es que cuanto mas vision tenga el coche aparte de la visual mejor, un radar, un lidiar… no se una combinación de ellas es buena, es cierto que Tesla busca simplificar la cosa pero al final no se muy bien.

    Responder
  4. Diría que en este momento tiene uno de los mejores equipos que se pueden tener en Machine learning aplicada a la interpretación de imagen y video.
    La diferencia de resolución entre un radar y una imagen de video es abrumadora, un radar de onda milimétrica del tipo que se usa en sistemas de armamento, no le llega a los tobillos de una cámara mediocre, solo la supera en alcance, lo que es poco relevante para este uso.
    No voy a decir que no podamos dar nuestra opinión al respecto, pero decir que se equivocan y que deben hacerlo así o asá…

    Responder
    • Conozco bien la tecnología de ML aplicada al reconocimiento de imágenes (redes convolucionales). Sí, realmente Tesla está muy avanzado, pero sigo diciendo que para llegar a conseguir la conducción autónoma hay multitud de escenarios en los que las cámaras convencionales no tienen sentido. Lo que sigo afirmando es que me parece muy sospechoso que reniegue en utilizar datos de otras fuentes que ayuden al algoritmo y lo perfeccionen.
      Por mucha cámara de alta resolución o de visión nocturna, ante situaciones como la niebla, la lluvia… por no hablar de la capacidad de los radares para anticipar situaciones (objetos no visibles).
      Raro, raro.

      Responder
  5. Por autopista te acercas a un puente grande, frenada al canto. Te acercas a una señal grande, frenada al canto. Vas a entrar a un túnel, frenada al canto. El otro día inicio la maniobra de adelantamiento a un camión, frenada y aborte al canto.

    Los dos primeros problemas son de radar y se ve que de momento desisten, pero los otros dos son de reconocimiento visual. Con cambios de color en el asfalto o camiones que no tengan la cabina cerrada, te puedes esperar alguna «anécdota». En el caso del otro día era que el camión llevaba coches y me apuesto a que pensó que alguno se le caía. No os riais.

    Responder
  6. Quizá se nos escapa algo, pero creo que todos vemos que una cosa no quita la otra.
    Si hay un coche detrás de un camión, será mejor saberlo que no saberlo ¿no?

    No me parece para nada que reste. Otra cosa es que sea difícil hacer útil esa información y cruzarla correctamente con la info visual.

    Que se lo digan a Daredevil 😀

    Responder

Deja un comentario