Una Cybertruck en modo Autopilot se estrelló contra un poste. Su conductor lo vio venir, pero no intervino porque confiaba en lo que dijo Elon Musk: la conducción autónomo de Tesla es “alucinante”

Una Cybertruck en modo Autopilot se estrelló contra un poste. Su conductor lo vio venir, pero no intervino porque confiaba en lo que dijo Elon Musk: la conducción autónomo de Tesla es “alucinante”
Sin comentarios
HOY SE HABLA DE

Tesla ha experimentados serios problemas de calidad en sus vehículos desde hace muchos años, que ha perjudicado a miles de clientes en todo el mundo. Ahora, el dueño de una Tesla Cybertruck de Florida, Estados Unidos, compartió una experiencia que vuelve a poner en tela de juicio la seguridad del sistema Autopilot Full Self Driving (FSD) de Tesla.

Decimos esto porque, mientras confiaba en la tecnología de su pick-up eléctrica, esta realizó una maniobra errática, golpeó la banqueta y terminó chocando contra un poste de luz sin que el sistema hiciera nada para evitarlo.

TESLA2

El afectado, que afortunadamente salió ileso del incidente, reconoció que no intervino a tiempo para corregir la maniobra. Sin embargo, también dejó claro que Elon Musk y la narrativa en torno a la supuesta “autonomía” del Autopilot FSD han generado una falsa sensación de seguridad entre los usuarios.

El conductor de la Tesla Cybertruck accidentada, Jonathan Challinger, un desarrollador de software de Florida, que trabaja para Kraus Hamdani Aerospace, tras estrellarse en su camioneta contra un poste, relató en un post en la red social X, antes Twitter, cómo había sucedido todo. Ahora el post se está haciendo viral.

Challinger relató que circulaba con la versión 13.2.4 del FSD activada, cuando su Cybertruck comenzó a cambiar de carril. “Falló al salirse de un carril que estaba terminando (no había nadie a mi izquierda) y no hizo ningún intento de frenar o girar hasta que ya había chocado contra la banqueta”.

TESLA3

No obstante, terminó estrellándose contra un poste. A pesar de lo sucedido, el propietario reconoce su error al confiar en exceso en la tecnología y advierte a otros conductores: “Una gran falla por mi parte, obviamente. No cometas el mismo error que yo. Presta atención. Puede suceder”.

Aunque Elon Musk reconoció antes sus inversionistas ciertas lagunas de su discurso, lleva más de una década prometiendo a sus clientes y accionistas que el sistema de conducción autónoma Autopilot FSD alcanzaría el ansiado nivel de “conducción autónoma”.

De hecho, en varias ocasiones, ha afirmado que los coches de la marca fabricados desde 2016 tendrían “el hardware necesario para ser completamente autónomos”. No sólo seguimos esperando, sino que esa promesa y toda la publicidad engañosa a su alrededor, ha llevado a Tesla a los tribunales en Estados Unidos en varias ocasiones. El uso del FSD, relacionado con varios accidentes fatales y la responsabilidad o no de los conductores, siempre ha estado en el centro de la polémica.

TESLA4

La conducción autónoma, que Musk describe como “alucinante” y el sistema Autopilot FSD no supervisado, son las piezas centrales de la nueva Tesla, especialmente tras la presentación del robotaxi de la marca, el Cybercab. Musk anunció que Tesla “comenzaría las pruebas de FSD sin supervisión en Austin este verano, antes de introducir la función en los vehículos de los clientes en 2026”.

Sin embargo, no todos los propietarios tendrían acceso a ello. Mientras tanto, Tesla sigue desarrollando su software sin haber alcanzado un nivel de seguridad que permita prescindir de la supervisión humana. De hecho, la compañía admitió recientemente que los modelos equipados con hardware HW3 podrían no ser compatibles con una conducción 100% autónoma, a pesar de haber vendido esta idea durante años.

“No estamos seguros al 100%", reconoció Musk, asegurando que Tesla ofrecería una actualización gratuita a los afectados si finalmente no se puede lograr el nivel de seguridad necesario.

TESLA5
Fotos: Tesla

Tesla ha insistido en que su sistema FSD es “más seguro que la conducción humana”, aunque la falta de datos independientes y los incidentes registrados ponen en duda esta afirmación. A lo largo de los años, ha habido múltiples accidentes en los que los vehículos de Tesla no han reconocido intersecciones, obstáculos, peatones e incluso trenes.

A diferencia de otras compañías como Waymo o Mercedes-Benz, que combinan en su tecnología LiDAR, radares y cámaras para mejorar la percepción del entorno, Tesla apuesta exclusivamente por el uso de cámaras, lo que ha llevado a problemas en la detección de objetos y la interpretación del entorno.

Además, los coches Tesla en realidad actúan como prototipos rodantes, recopilando datos de los usuarios que han pagado por el sistema FSD. Estos conductores, que realizan pruebas reales en carretera, están expuestos a situaciones potencialmente peligrosas, convirtiéndose en beta testers.

Este último incidente refuerza la idea de que, a pesar del optimismo de Elon Musk, la conducción autónoma sigue estando lejos de ser una realidad segura y confiable para Tesla. Confiar ciegamente en las promesas de la tecnología puede salir caro.

Temas