Una ‘capa de invisibilidad’ contra la visión artificial

Desarrollan un método para engañar y ocultarse ante los sistemas de inteligencia y visión artificial aplicados al reconocimiento facial y de personas

Recibe nuestra newsletter diaria

O síguenos en nuestro  canal de Whatsapp

Conforme se extiende el uso de la visión artificial y del reconocimiento facial, y crece la preocupación relacionado con cuestiones relativas al derecho a la intimidad, también se están desarrollando técnicas contrarias para evadir y engañar a estas tecnologías mediante lo que se denomina «ataques adversativos» o de interferencia.

Eso es lo que han hecho investigadores belgas, que recientemente han hecho pública una demostración que prueba la relativa facilidad con la que es posible pasar desapercibido (incluso «desaparecer») a ojos de la visión artificial mediante el uso de imágenes que interfieren en los sistemas de visión artificial.

Objetos o imágenes que confunden a la visión artificial

Este tipo de ataques suelen consistir en objetos o imágenes diseñadas para confundir a la visión artificial; pueden ser objetos físicos o imágenes con patrones o unas simples pegatinas como las que utilizaron investigadores del Tencent Keen Security Lab para provocar que un Tesla entrara en un carril de circulación en sentido contrario.

De este modo lo que a ojos de una personas no es más que un patrón o un objeto determinado, para la visión artificial resulta algo confuso e incluso totalmente diferente; tan diferente como lo puede ser un gato de un aguacate.

La técnica desarrolla en la universidad KU Leuven muestra cómo unos simples patrones impresos que, colocados sobre el pecho de un individuo, pueden engañar a un sistema de visión artificial diseñado para reconocer a las personas, que en cierto modo se vuelven «invisibles» ante ella.

Una camiseta para «hacerse invisible»

El propósito del estudio, explican los investigadores, era precisamente «diseñar un parche que sea capaz de ocultar con éxito a una persona de un detector de personas.»

El resultado es un tipo de ataque que podría, por ejemplo, «utilizarse maliciosamente para eludir los sistemas de vigilancia, de tal modo que un intruso pase desapercibido simplemente vistiendo una pequeña cartulina» aprovechando la (de momento) «fragilidad «de los sistemas de visión artificial.

«Creemos —dicen los investigadores— que combinando la técnica que hemos desarrollado con prendas de vestir podemos diseñar una camiseta para hacer que una persona resulte virtualmente invisible a las cámaras de vigilancia con visión artificial,» al más puro estilo de la ‘capa de invisibilidad’ de Harry Potter, pero aplicado a las máquinas.

Sin embargo este tipo de ataques no suelen ser «universales»; es decir, un mismo patrón no engaña por igual a unos y otros sistemas de visión artificial, lo que los investigadores denominan transferibilidad: «Nuestros parches actuales no están optimizada para funcionar con arquitecturas diferentes.»

Recibe nuestra newsletter diaria

O síguenos en nuestro  canal de Whatsapp