Especial/ con solo proyectar señales de tráfico falsas u objetos virtuales frente a ellos.
Los informáticos de la Universidad Ben-Gurion del Negev lograron que los automóviles redujeran su velocidad, se desviaran o se detuvieran abruptamente

Investigadores de seguridad informática israelíes demostraron cómo es posible engañar a Autopilot, el sistema de asistencia al conductor de los vehículos Tesla.

Los informáticos de la Universidad Ben-Gurion del Negev lograron que los automóviles redujeran su velocidad, se desviaran o se detuvieran abruptamente, con solo proyectar señales de tráfico falsas u objetos virtuales frente a ellos.

 

Las intervenciones de los expertos funcionaron tanto en un Tesla equipado con HW3, la última versión del sistema de Autopilot, así como con la generación anterior HW2.5.

Según Newsweek, uno de los hallazgos más preocupante es que solo es necesario mostrar una señal de tráfico falsa menos de medio segundo para generar una respuesta del sistema de Tesla.

Los hallazgos “reflejan un defecto fundamental de los modelos que detectan objetos (pero) no fueron entrenados para distinguir entre objetos reales y falsos”, afirmaron  los investigadores.

El Autopilot de Tesla ya había sido mal evaluado por el Programa Europeo de Evaluación de Automóviles Nuevos (EuroNCAP), obteniendo el sexto lugar entre los 10 sistemas de asistencia al conductor analizados.

Miguel Sagnelli

Editor Web de secciones Coahuila, México e Internacional. Egresado de la carrera de Ciencias de la Comunicación. Con más de 10 años de experiencia en medios de comunicación europeos y nacionales. Tanto en redacción, producción y docencia de los mismos.