"Hemos dejado muy claro que el futuro es autónomo y creo que es obvio que será así". Con esa seriedad se mostró Elon Musk hablando del futuro de Tesla ante sus inversionistas en la última presentación de resultados de la marca.
Su tecnología de conducción autónoma, cuyos detalles técnicos no se detallaron en la presentación del robotaxi Tesla Cybercab, se basará en el actual Autopilot FSD, un sistema que aún tiene lagunas, como ha demostrado este nuevo capítulo: un Tesla Model 3, que circulaba con este avanzado control de crucero activado, no frenó ante un ciervo, que se llevó por delante.
Un usuario de X publicó una foto y un vídeo detallando el accidente. Primero muestra los daños en su Tesla Model 3 tras el atropellamiento y posteriormente publicó el video grabado por las cámaras del coche eléctrico.
En el se aprecia cómo el coche circula por una carretera, de noche. No hay mucho tráfico y los carriles están perfectamente demarcados. Tras unos segundos, aparece un ciervo pequeño. "El video se corta justo antes de que aparezcan elementos sensibles en la pantalla. Es seguro verlo", indica, refiriéndose a que se evitan las imágenes sensibles para que se pueda ver en la plataforma social de Musk.
De cualquier manera el atropellamiento existió, como admite el conductor y como demuestran los daños, que no fueron excesivos: el cofre algo levantado y el la fascia con daños ligeros. El Tesla Model 3 no activó los frenos ni esquivó al animal, es más, siguió adelante, como puede verse en el siguiente corte del vídeo. Cabe preguntarse si reaccionaría igual si se tratara de un peatón.
El sistema de conducción semiautónoma de Tesla es de momento de nivel SAE 2 y obliga a llevar las manos en el volante. Además, en el manual de usuario se detalla que puede no funcionar correctamente cuando la visibilidad es deficiente, lo que incluye "carreteras mal iluminadas por la noche".
Dado que era precisamente el escenario de este incidente, se deduce que las cámaras del coche no detectaron al animal; en otras palabras, que el sistema no lo identificó como obstáculo y, al seguir activo, también se entiende que no indicó al conductor que debía tomar el control del coche cuando la visibilidad era limitada. Este nuevo incidente da argumentos a usuarios y expertos que dudan de las capacidades del sistema.
Un ejemplo es Dan Odoed y su The Dawn Project, embarcado en una cruzada para prohibir este sistema, pues considera que tiene evidentes fallas de seguridad. Ha publicado varias pruebas para demostrarlo, especialmente con simulaciones de niños como peatones. "El ciervo tiene el mismo tamaño que un niño pequeño. El FSD no frenó ni se detuvo después de la colisión”, criticó citando el tuit del atropellamiento.
Tesla eliminó radares y sensores de su sistema en sus coches hace un par de años y ahora el Autopilot se basa únicamente en cámaras, una tecnología que denomina Tesla Vision. Tesla defendió en su momento que lo importante es un software lo suficientemente avanzado que pueda interpretar correctamente todo lo que registran los "ojos" del coche, pero este accidente y el propio manual del sistema, demuestra que tiene limitaciones.
Recordemos que la NHTSA (National Highway Traffic Safety Administration) abrió nuevamente una investigación al sistema de Tesla, a consecuencia de una veintena de nuevos incidentes. En nueve de ellos, los Tesla chocaron contra otros vehículos o personas que se encontraban en su camino. Accidentes “frontales”, según clasifica el organismo.
En opinión de la NHTSA, uno de los principales problemas que detectan en el sistema es que es demasiado permisivo con la atención del conductor. Según el informe de esta nueva investigación, el Autopilot "ha dado lugar a un mal uso previsible y a accidentes evitables". Este último caso es buena prueba, pero en general, el sistema debe pulirse bastante si se pretende que los Tesla sin volante ni pedales circulen por las calles de las ciudades.