Agencias / InsurgentePress, Ciudad de México.- El vídeo no es de un YouTuber cualquiera, sino de una compañía británica llamada Thatcham Research y dedicada precisamente a investigar la seguridad de los vehículos para las compañías de seguros. Sus conclusiones explican perfectamente qué está pasando con los Tesla (o más bien con sus conductores) y por qué últimamente vemos tantas noticias protagonizadas por los automóviles de la compañía teniendo accidentes en modo autónomo.
Tesla lleva años insistiendo con todo tipo de avisos, tutoriales y descripciones cuáles son exactamente las limitaciones del autopilot, qué es lo que puede hacer, y cómo la responsabilidad final es siempre del conductor, que debe mantenerse alerta en todo momento.
Pero hay algo que todo propietario de un Tesla sabe, es que el autopilot no siempre sigue la línea que dicen en los doicumentos corporativos. Todo va bién hasta que deja de ir. Es fácil terminar con la sensación de que todo está bajo control cuando el vehículo sigue mansamente el de enfrente en mitad del tráfico. Todo indica que puedes relajarte. Todo va bien. Este era el futuro que nos prometían…
Entonces, de repente, salta una alerta y el Tesla te conmina a que pongas las manos en el volante, y mejor que lo hagas rápido.
Esto es lo que han puesto a prueba exactamente los expertos de Thatcham Research. Las condiciones de la prueba son ideales, y sin embargo el autopilot no es capaz de evitar la colisión. La secuencia siempre es la misma:
- Un Tesla en modo autopilot sigue a otro coche en una pista de pruebas
- El coche de delante cambia de carril
- De repente, el Tesla se encuentra con otro vehículo parado en el carril por el que estaba circulando.
- El Tesla no le da tiempo a frenar ante el obstáculo súbito.
- Se la pega.
Este tipo de accidente es parecido a alguno ocurrido en los últimos meses con el piloto automático de Tesla, incluyendo el impacto contra un camión de bomberos que estaba detenido.
Para la prueba, los especialistas usan una maqueta blanda que impide que el Tesla sufra daños. En un vídeo de la BBC, Matthew Avery explica exactamente cuál es el problema de este tipo de accidente: el conductor confía demasiado en el sistema y se relaja hasta el punto de que no logra reaccionar a tiempo. Desde Tesla explican que sus automóviles no son 100% a prueba de colisiones y que los clientes de la compañía entienden que no prestar atención puede significar un choque.
Tesla siempre ha explicado que el sistema Autopilot no hace al vehículo inmune a todos los accidentes que pueden existir. La situación que describe Thatcham no sería un problema si el conductor estuviera atento y usara el sistema correctamente.
Los comentarios que recibimos de nuestros clientes muestran que tienen una comprensión muy clara de lo que es Autopilot, cómo usarlo correctamente y en qué consiste. Cuando se utiliza el piloto automático, se recuerda continuamente a los conductores su responsabilidad de mantener las manos en el volante y mantener el control del vehículo en todo momento. Esto está diseñado para evitar el uso indebido por parte del conductor, y se encuentra entre las salvaguardas de uso incorrecto más potentes que existen hoy en día.
El problema es que lo que BBC describe como un exceso de confianza por parte del conductor se ha convertido en una situación muy común. Solo en el último mes ha habido dos casos, unos pocos meses antes hubo un accidente fatal y en 2016 otro más. Luego está el famoso caso de Gao Yaning que lleva dos años en los tribunales. El coche quedó tan destrozado que no ha sido posible comprobar si realmente el Autopilot estaba encendido.
Por mucho que Tesla asegure que los conductores están más que advertidos, los casos se acumulan y es imposible no comenzar a percibir una tendencia más allá de un conductor usando el sistema de manera incorrecta. Además la propia Administración Nacional de Seguridad de tráfico en la Carretera escribía en su informe de 2016 que Tesla estaba al tanto de que los conductores podían despistarse al conectar el autopilot.
https://www.youtube.com/watch?v=ygFTCRWmwYM
El vídeo ha recibido algunas críticas por el uso de un vehículo “de mentira” (en vez de un coche real) que de algún modo puede resultar invisible para el radar; pero la realidad es que —sea de verdad o de mentira— lo que aparece delante del Tesla es un obstáculo en una situación con la que muchos conductores se han encontrado alguna vez.
Al final llega el momento en el que te preguntas si los coches autónomos son más o menos seguros que los convencionales, ves las cifras de accidentes de los autos con modo solo manual y todo comienza a difuminarse a tu alrededor. Esta es una cruz que le ha tocado cargar a Tesla por elegir liderar la llegada de esta tecnología a la carretera. Algo nos dice además que la cruz se hará más pesada a medida que modelos como el Tesla Model 3 popularicen aún mas el autopilot. La conclusión final es que quizá tenemos demasiada libertad al volante y que es necesaria más regulación.
También conviene recordar otras muchas situaciones en las que el piloto automático de Tesla ha salvado situaciones de tráfico incluso con estilo.