La última versión del sistema de conducción autónoma de Tesla, el ya célebre FSD (Full Self-Driving), empieza a demostrar que puede salir airoso incluso de trampas dignas del Coyote. Literalmente.
El youtuber Kyle Paul ha replicado un experimento viral en el que se coloca una falsa carretera pintada sobre una pared —al más puro estilo Looney Tunes— para ver cómo reacciona un Tesla en modo autónomo. Spoiler: no todos salieron bien parados.
En una primera prueba, un Model Y equipado con el hardware HW3 y FSD 12.3.6 no fue capaz de detectar la trampa y embistió la pared sin inmutarse, lo que obligó al conductor a intervenir para evitar males mayores. Pero lo interesante llegó cuando el mismo test se repitió con un Cybertruck con hardware HW4 (AI4) y la versión FSD 13.2.8. Esta vez, el vehículo se detuvo a tiempo, reconociendo que había algo raro en esa “carretera pintada”.
El resultado no es solo anecdótico: marca un antes y un después en la evolución del sistema FSD. Durante años, las promesas de conducción autónoma han ido siempre por delante de la realidad, pero este tipo de mejoras empiezan a dejar atrás los vídeos virales de Teslas atropellando maniquíes o confundiendo semáforos con carteles.
Que el Cybertruck —el más polémico y marciano de los modelos de Tesla— sea ahora también el más “listo” en carretera tiene su gracia. Pero, más allá del meme, lo importante es que Tesla está refinando su IA para detectar anomalías contextuales, una de las tareas más complejas para un sistema de visión por cámaras.
¿Está resuelto el problema? Ni de lejos. Pero por primera vez en mucho tiempo, la conducción autónoma de Tesla empieza a parecer algo más que una beta eterna con marketing agresivo. Veremos cuánto tarda en demostrarlo también en las calles de verdad.
0 Comentarios