
Sabíamos que confiar ciegamente en los asistentes de conducción no es lo más inteligente del mundo, pero un nuevo experimento lo deja más claro que nunca. El YouTuber Mark Rober ha puesto a prueba el Autopilot de Tesla con un truco digno de los Looney Tunes, y el resultado es tan divertido como preocupante: el coche se ha estampado contra una pared con un dibujo de una carretera.
Sí, como en los dibujos animados.
El test del Coyote: un Tesla contra una ilusión óptica
La idea era sencilla: poner a prueba la diferencia entre cámaras y Lidar en los sistemas de asistencia a la conducción. Para ello, Rober colocó un muro de espuma con una imagen de una carretera pintada sobre él. La pregunta era: ¿lo detectará el Autopilot o lo tomará por una vía libre?
Para comparar, enfrentó al Tesla Model Y con un Lexus RX modificado con Lidar, que es la tecnología que usan muchos coches autónomos de verdad.
Primeras pruebas: el Tesla responde bien… hasta que no
El experimento incluyó varias pruebas:
✅ Detectar y frenar ante un maniquí parado en la carretera → Superado.
✅ Frenar ante un maniquí que se cruza de repente → Superado.
❌ Frenar en niebla y lluvia → Fallo estrepitoso.
Mientras el Lidar del Lexus detectó al maniquí en cualquier condición, las cámaras del Tesla no lo vieron en condiciones adversas. Algo preocupante si piensas que, en la vida real, la visibilidad rara vez es perfecta.
Pero el plato fuerte llegó con el Test del Coyote.
Crash test en 3, 2, 1… ¡BOOM!
La gran prueba consistía en colocar la pared con la imagen de la carretera en un entorno donde se mezclase con el paisaje. A un humano le bastaría una mirada para saber que hay un obstáculo.
- El Lexus con Lidar detectó el muro y se detuvo sin problemas.
- El Tesla Model Y, a 40 mph (unos 64 km/h), activó el Autopilot y… se empotró contra la pared sin dudarlo.
El resultado: Tesla 0 – Física 1.
¿Por qué el Autopilot falló?
El problema de Tesla es que su sistema se basa solo en cámaras, eliminando Lidar y radar por decisión de Elon Musk. Mientras que el Lidar escanea el entorno en 3D y detecta obstáculos sin importar su apariencia, las cámaras confían en lo que “ven”.
En este caso, al ver una imagen de una carretera en la pared, el Tesla creyó que era una carretera real. Y el resultado fue un accidente digno de Wile E. Coyote.
Tesla no es autónomo, y este test lo deja claro
El Autopilot de Tesla es un asistente de conducción de Nivel 2, lo que significa que el conductor siempre debe estar atento. Sin embargo, muchos usuarios creen que pueden confiar plenamente en él, lo que ha llevado a accidentes serios.
Este test deja claro que, sin Lidar ni otros sensores avanzados, la IA de Tesla sigue siendo fácilmente engañable. Un software que puede confundir una pared con una carretera no debería sustituir tu sentido común al volante.
Moraleja: si conduces un Tesla, no te fíes de los dibujos animados.
Jose Manuel Miana es un culo inquieto amante del motor. Su filosofía es que nada es perfecto. Cuando no habla de coches, está aprendiendo sobre negocios y marketing.