Anuncio

Según las aseguradoras, la gente confía demasiado en el sistema de conducción automática de Tesla

Share

Durante años, las compañías automotrices han ofrecido tecnologías de asistencia al conductor en muchos vehículos nuevos. El software y los sensores pueden ayudar a los conductores a mantenerse en su carril, llevar una velocidad constante y, en algunos casos, cambiar de carril para evitar otros automóviles.

Pero los conductores no entienden completamente las capacidades y limitaciones de las tecnologías, según un estudio publicado este jueves por un grupo líder de la industria de seguros.

Esa desconexión entre lo que hace la tecnología y lo que la gente cree que puede hacer redunda en un comportamiento arriesgado del conductor, que ha provocado choques, lesiones y muertes, y podría generar una respuesta negativa contra los automóviles autónomos con el potencial de salvar vidas, consideró el Insurance Institute for Highway Safety (IIHS), instituto financiado por las compañías de seguros de autos.

Anuncio

“Los sistemas de asistencia al conductor muestran beneficios de seguridad. Lo último que queremos es que las automotrices los eliminen, lo cual generará otros riesgos en el vehículo”, consideró el presidente de la entidad, David Harkey.

Tesla Inc., mencionada prominentemente en el estudio, disputó los hallazgos. “Esta encuesta no es representativa de las percepciones de los propietarios de Tesla o de quienes tienen experiencia en el uso del piloto automático, y sería inexacto sugerirlo”, afirmó la compañía de autos eléctricos, en un comunicado. “Si IIHS se opone al nombre ‘Autopilot’ (piloto automático), presumiblemente refutarán de igual manera al término ‘Automóvil’”.

En todas las versiones actuales de tecnología de asistencia al conductor, estos deben estar atentos incluso cuando los sistemas robóticos se hacen cargo de algunas tareas. Estos programas de ejecución comparten algunas características con los autos completamente sin conductor, actualmente en desarrollo, pero son fundamentalmente diferentes porque un humano debe ejercer el control.

El estudio de IIHS, publicado el jueves, consultó a más de 2.000 personas sobre los nombres utilizados por cinco compañías automotrices para comercializar sistemas destinados a aliviar el estrés del conductor y mejorar la seguridad. Los resultados indican que términos como Autopilot (piloto automático), de Tesla, crean confusión entre los consumidores acerca de cuánta atención realmente debe prestar un piloto. Las otras tecnologías cubiertas en el estudio son Audi y Acura Traffic Jam Assist, Cadillac Super Cruise, BMW Driving Assistant Plus y Nissan ProPilot Assist (los nombres de los fabricantes no eran mencionados en el estudio).

Autopilot creó la mayor confusión entre los encuestados. Casi la mitad, el 48%, pensó que sería seguro quitar las manos del volante mientras se usa el sistema. El manual de Tesla dice que el piloto debe sostener el volante en todo momento y, cuando se usa según lo previsto, el sistema advierte a los conductores si no lo hacen. Sólo entre el 21% y el 33% pensaron (incorrectamente) que sería fiable dejar el volante solo cuando utiliza los otros sistemas de asistencia al conductor.

El 20% o más pensó que sería seguro hablar por teléfono al usar cualquiera de los sistemas. Un porcentaje menor consideró que enviar mensajes de texto, ver un video o tomar una siesta sería fiable. El 16% respondió que podría enviar mensajes de texto mientras se usa Autopilot, sin problema; menos del 10% opinó lo mismo para los otros sistemas de asistencia al conductor. El 6% estimó que no había riesgo en tomar una siesta mientras usa Autopilot, y alrededor del 3% pensaba lo mismo de los otros sistemas.

La suposición de que Autopilot, de Tesla, era capaz de manejar un comportamiento intrínsecamente seguro no sorprendió a Harkey. “El nombre resulta engañoso para el consumidor acerca de la automatización; al deducir que el vehículo está diseñado con capacidades técnicas que les permiten a ellos asumir otras tareas”, afirmó.

“Hemos visto una serie de accidentes fatales desafortunados relacionados con Autopilot, de Tesla”, explicó Harkey. “Es evidente, a partir de estas catástrofes, que las personas emplean el sistema de manera incorrecta e infieren erróneamente que hace más de lo que realmente puede”.

El presidente de IIHS mencionó un accidente en Delray Beach, Florida, en marzo pasado, cuando un Tesla con Autopilot quedó debajo de un semirremolque, una maniobra que cortó la parte superior del auto y mató al conductor. Un choque fatal similar ocurrió en 2016.

Desde que se introdujo Autopilot, en 2014, se dieron a conocer videos que muestran a los conductores abusando del sistema, incluido uno que circuló la semana pasada donde se ve a un piloto que, aparentemente, dormía una siesta en su Tesla mientras conducía por la Autopista 405, en Los Ángeles.

Tesla aseveró que les da a los conductores una indicación clara sobre las capacidades del piloto automático y cómo se debe usar. “La empresa brinda a los propietarios una guía muy sencilla sobre cómo utilizar correctamente Autopilot, así como instrucciones dentro del automóvil que están disponibles antes de usar el sistema y mientras la función está en uso”, señaló la compañía. “Si un vehículo de Tesla detecta que un conductor no pone atención al Autopilot mientras está funcionando, el piloto tiene prohibido usarlo para ese recorrido”.

Tesla también indicó que “la encuesta no expuso a los participantes a ninguno de los materiales educativos que proporcionamos para conductores y propietarios antes de que usen Autopilot”.

La compañía destacó que el estudio implica que las muertes en los dos choques que involucraron camiones semirremolque fueron el resultado de un malentendido por parte de los conductores de vehículos Tesla. Las declaraciones de los parientes sobre la familiaridad de los pilotos con Autopilot, agregó la automotriz, demostraron que ese no era el caso, al menos en el accidente de 2016, que aún está siendo investigado por los oficiales federales.

El grupo de seguros remarcó que el objetivo del estudio fue observar cómo los consumidores del mercado masivo, que pueden o no estar familiarizados con la tecnología de asistencia al conductor, reaccionan a las marcas.

Para Kelly Funkhouser, jefa de vehículos eléctricos y automatizados de Consumer Reports, las empresas deben comunicar mejor las limitaciones de los sistemas de asistencia al conductor. “A medida que estos mejoran, la naturaleza humana tiende a desconectarse”, dijo. “Nos aburrimos; es natural querer recoger el teléfono. El problema es que esta tecnología todavía está dando sus primeros pasos. Son lo suficientemente buenos para darnos un sentido de confianza en ellos, pero no tanto como para mantener un control preciso mientras el auto se mueve por diferentes condiciones”.

Antes de unirse a Consumer Reports, el año pasado, Funkhouser investigaba la conexión entre el piloto y el robot en vehículos autónomos, en la Universidad de Utah. Cuanto mejor es el sistema de asistencia, postuló, más tiempo le toma a un conductor humano reaccionar a los problemas.

La experta también estudió los nombres de marca en Utah, y descubrió que las personas sobreestimaban las capacidades de Autopilot, pero subestimaban las del Super Cruise, de Cadillac, que son similares a las del sistema de Tesla, pero utilizan un rastreador ocular en lugar de medir el movimiento del volante para controlar la atención del conductor (Autopilot no percibe que el piloto está durmiendo si la persona mantiene una mano en el volante, notó Funkhouser, pero un Cadillac, con su explorador ocular, registraría el problema y el vehículo se movería al costado de la carretera).

Es importante que la gente vea más allá de las exageraciones de mercadotecnia, consideró Funkhouser. “Muchas veces prometen cosas que no son reales o que aún no se han inventado”.

Para leer esta nota en inglés, haga clic aquí

Anuncio