CiberseguridadTecnología

Tesla anima a los conductores con sueño a usar su conducción autónoma total (podría salir muy mal)

Desde que Tesla lanzó su función Full Self-Driving (FSD) en versión beta en 2020, el manual de instrucciones de la compañía ha sido claro: al contrario de lo que indica su nombre, los autos que utilizan esta función no pueden conducir solos.

El sistema de asistencia al conductor de Tesla está diseñado para hacer frente a multitud de situaciones en carretera: detenerse en semáforos, cambiar de carril, maniobrar, frenar y girar. Aun así, «la conducción autónoma completa (supervisada) requiere que prestes atención a la carretera y estés preparado para tomar el control en todo momento», se lee en el manual. «No seguir estas instrucciones podría causar daños, lesiones graves o la muerte».

Contradicciones

Ahora, sin embargo, un nuevo mensaje en el auto insta a los conductores que se desvían del carril o se sienten somnolientos a activar la FSD, lo que puede confundir a los conductores y, según los expertos, animarles a utilizar la función de forma poco segura. «Detectado desvío de carril. Deja que el FSD te ayude a mantener la concentración», reza el primer mensaje, incluido en una actualización de software y descubierto a principios de este mes por un hacker que sigue el desarrollo de Tesla.

«Somnolencia detectada. Mantén la concentración con FSD», rezaba el otro mensaje. En internet, los conductores han publicado desde entonces que han visto un mensaje similar en las pantallas de sus vehículos. Tesla no respondió a la petición de comentarios sobre este mensaje, y WIRED no ha podido encontrar este mensaje en la pantalla de un Tesla.

El problema, según los investigadores, es que los momentos de falta de atención del conductor son exactamente cuando las funciones de asistencia al conductor orientadas a la seguridad deberían exigir a los conductores que se concentren al máximo en la carretera, y no sugerirles que dependan de un sistema en desarrollo para compensar su distracción o fatiga. En el peor de los casos, una indicación de este tipo podría provocar un accidente.

«Este mensaje pone a los conductores en una situación muy difícil», afirma Alexandra Mueller, investigadora científica del Insurance Institute for Highway Safety que estudia las tecnologías de asistencia al conductor. Cree que «Tesla está dando básicamente una serie de instrucciones contradictorias».

Muchas investigaciones estudian cómo interactúan los humanos con los sistemas informáticos creados para ayudarles a realizar tareas. Por lo general, la conclusión es la misma: las personas son pésimas supervisoras pasivas de sistemas que son bastante buenos la mayoría de las veces, pero no perfectos. Los seres humanos necesitan algo que les mantenga ocupados.

En la investigación en el sector de la aviación, se denomina «problema de rendimiento fuera del bucle«, cuando los pilotos, que confían en sistemas totalmente automatizados, pueden no supervisar adecuadamente los fallos de funcionamiento debido a la complacencia tras largos períodos de funcionamiento. Esta falta de compromiso activo, también conocida como disminución de la vigilancia, puede reducir la capacidad de comprender y recuperar el control de un sistema automatizado que funciona mal.

Sistema en huelga

«Cuando se sospecha que el conductor se está adormeciendo, eliminar aún más su compromiso físico parece extremadamente contraproducente», asegura Mueller.

«Como humanos, a medida que nos cansamos o nos fatigamos, hacer más cosas de las que tenemos que hacer podría ser contraproducente», advierte Charlie Klauer, investigador científico e ingeniero que estudia a los conductores y el rendimiento de la conducción en el Virginia Tech Transportation Institute. «Es delicado».

DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/tesla-anima-a-los-conductores-con-sueno-a-usar-su-conduccion-autonoma-total-podria-salir-muy-mal

Publicaciones relacionadas

Botón volver arriba