De acuerdo con una investigación realizada por el Wall Street Journal, la función Autopilot FSD (Full Self Driving, o conducción autónoma total) de Tesla, la cual es perfecta para sus robotaxis y para sus coches, podría presentar una falla fundamental del software. Entre los numerosos accidentes imputables, la investigación señala que “el Autopilot ha provocado un mal uso previsible y accidentes evitables" y que, en Estados Unidos es necesario dar un curso para poder usar el sistema.
Muchos son los que desconfían del sistema y de la insistencia de Elon Musk en que todo se resuelva con cámara y software. Recordemos que el sistema Autopilot FSD funciona gracias a una serie de cámaras colocadas delante, detrás y en los laterales del coche, para poder ver qué ocurre con el tráfico, los vehículos y barreras arquitectónicas que pueda haber alrededor del auto, así como ver dónde están la carretera y los carriles de circulación.
De este modo, las cámaras vigilan constantemente la zona que rodea al Tesla y, mediante machine learning, o aprendizaje automático, el coche calcula cómo debe comportarse el conductor si activa el Autopilot (control de crucero activo) o la conducción autónoma total, el Autopilot FSD.
Básicamente, el sistema está programado por los ingenieros de Tesla para reconocer las señales de tráfico y los obstáculos que puedan surgir en su trayectoria. El problema surge cuando se presenta un obstáculo que el software nunca ha visto antesy es cuando el coche no sabe qué hacer.
En el mejor de los casos devolverá el control al conductor (otra cosa es que lo haga a tiempo) o simplemente lo ignorará y seguirá con su trayectoria hacia el obstáculo. En el peor de los casos no lo reconoce como obstáculo, o no lo ve y, por lo tanto, para el sistema no es un obstáculo, por lo que puede seguir con su rumbo.
Esta deficiencia se ha vuelto a señalar en una nueva investigación del Wall Street Journal, que analizó más de 200 accidentes en los que se vieron implicados coches Tesla equipados con el sistema Autopilot y FSD. De los más de 1,000 accidentes notificados por Tesla a la NHTSA, la Administración Nacional de Seguridad del Tráfico en Carretera de Estados Unidos, el Wall Street Journal analizó 222 incidentes. Entre ellos, 44 fueron causados por coches Tesla que se desviaron repentinamente de su trayectoria y 31 se produjeron cuando los coches no se detuvieron o no cedieron el paso.
De este modo y de acuerdo con el Wall Street Journal, la “falla fundamental” de la tecnología Autopilot de Tesla y de su software Full-Self Drive se basa esencialmente en el hecho de que el sistema recurre exclusivamente a las cámaras y la experiencia o ejemplos que se le puedan inculcar al software. Es decir, el hecho de usar únicamente cámaras y no sensores como radares y lidares.
Volvo, por ejemplo, emplea lidary radar. Estos sensores escanean la carretera mediante ondas sonoras y láser para obtener una visión más clara del camino incluso en condiciones adversas de visibilidad, como niebla, oscuridad o lluvia torrencial en las que una cámara no sería tan eficaz. Desde Nio a Xpeng, pasando por Volvo, Honda o Mercedes, todos los fabricantes implicados en la conducción autónoma utilizan una combinación de cámaras, radar y lidar.