Imagen: Tencent Keen Security Lab

Engañan al piloto automático Tesla con pegatinas en el asfalto

stop

Investigadores provocaron que un Tesla entrara en un carril contrario teórico 'confundido' por pequeños adhesivos en el suelo. Tesla corrige el error

Madrid, 01 de abril de 2019 (11:03 CET)

Investigadores del Tencent Keen Security Lab han publicado un estudio que detallada diferentes ataques contra el sistema de pilotaje automático de los coches eléctricos de Tesla.

Uno de los ataques descritos consiste en desorientar al sistema de visión artificial mediante la colocación de pequeños adhesivos "de interferencia" sobre el asfalto de una pista de pruebas. Estas pegatinas llegaron a confundir al sistema de pilotaje automático hasta el punto de provocar que el vehículo se adentrara en lo que en teoría era un carril con tráfico en sentido contrario al de circulación del vehículo.

La técnica de 'engañar' a los sistemas de visión artificial mediante objetos o adhesivos de interferencia no es nueva, y es una práctica esencial para fortalecer el funcionamiento de estos sistemas.

Objetos diseñados para confundir a la visión artificial

Un ataque de tipo "adversarial" se basa en crear tanto objetos físicos (por ejemplo, impresos en 3D o pegatinas) como imágenes digitales que han sido específicamente diseñados para confundir a los sistemas de aprendizaje y de visión artificial. De tal modo que lo que para los humanos es una cosa (por ejemplo, la foto de un gato) para un sistema automático es otra cosas totalmente diferente (por ejemplo, un plato de guacamole).

Utilizando esta técnica investigadores de la universidad Carnegie Mellon desarrollaron hace unos años unas[gafas de bajo coste impresas en 3D que impedían a los sistemas de reconocimiento facial identificar a quien las llevaba, e incluso, dependiendo del diseño de las gafas, suplantar identidades.

De la teoría a la práctica

Para engañar al sistema de pilotaje automático —explican los investigadores— primero se dibujaron tres pequeños recuadros en la imagen captada por la cámara del vehículo y procesada por el módulo de visión de visión artificial.

Esos tres pequeños recuadros fueron interpretados por el ordenador del vehículo como el margen derecho del carril derecho resultando en un giro teórico a la izquierda, hacia el carril teórico de circulación en sentido contrario.

Después los investigadores trasladaron su "ataque" al mundo real, en una pista de pruebas: colocaron unas pequeñas pegatinas de interferencia sobre el asfalto, casi imperceptibles a simple vista, que igualmente —como en la prueba anterior— la cámara del vehículo y el módulo de visión artificial reconocieron como el margen derecho del carril derecho, ignorando la existencia del carril izquierdo y guiando el vehículo hacia el carril con tráfico en sentido contrario.

Fotografía: Los tres círculos rojos señalan los adhesivos colocados en el asfalto que confundieron al piloto automático del vehículo. Imagen: Tencent Keen Security Lab.
Los tres círculos rojos señalan los adhesivos colocados en el asfalto que confundieron al piloto automático del vehículo. Imagen: Tencent Keen Security Lab.

"La función de reconocimiento de carril del piloto automático de Tesla tiene una buena robustez en un entorno normal (sin la interferencia de fuertes contrastes de luz, lluvia, nieve, arena y polvo) pero todavía no gestiona correctamente la situación en escenarios confusos como el de la prueba," explican los investigadores en su estudio (en PDF) Experimental Security Research of Tesla Autopilot. "Este tipo de ataque es fácil de realizar y los materiales son fáciles de obtener."

El estudio se envió a Tesla antes de hacerse público y la compañía dice haber resuelto los problemas identificados por los investigadores con una actualización de software, según Boing Boing. Pero, dicen los investigadores, es una demostración de que estos sistemas todavía presentan riesgos de seguridad.

Suscribir a boletines

Al suscribirte confirmas nuestra política de privacidad