El gran fallo de la IA de Facebook en el ataque de Nueva Zelanda | EFE
stop

Facebook reconoce que su inteligencia artificial "no es perfecta" y que probablemente nunca lo será, y le culpa del drama por el vídeo del ataque terrorista

Alessandro Solís

Economía Digital

El gran fallo de la IA de Facebook en el ataque de Nueva Zelanda | EFE

Barcelona, 22 de marzo de 2019 (14:05 CET)

La inteligencia artificial de Facebook "no es perfecta", reconoce la red social en una actualización de la situación en Nueva Zelanda, donde la semana pasada un terrorista transmitió un ataque en directo en su plataforma. "Este vídeo en particular no activó nuestros sistemas de detección automática", dice la empresa.

Facebook explica que la inteligencia artificial se entrena con el aprendizaje automático y con miles de ejemplos de contenido antes de ser capaz de detectar textos, vídeos o imágenes no permitidas. "Este enfoque ha funcionado muy bien en áreas como la desnudez, la propaganda terrorista y también la violencia gráfica", añadió.

La tecnológica defiende que, para detectar vídeos como el del lamentable ataque de Nueva Zelanda, necesita procesar grandes cantidades de datos de este tipo específico de contenido, "algo que es difícil dado que estos eventos son afortunadamente raros", dice en un comunicado.

Facebook afirma que ningún usuario reportó el vídeo en el momento

En este ejercicio de culpar a la inteligencia artificial del fallo en el ataque terrorista, Facebook salió avante con más argumentos para defenderse de las críticas, como recordar que eliminó el vídeo minutos después de ser contactada por la policía neozelandesa, aunque un informe externo aseguró que la plataforma no logró eliminar el 20% de las republicaciones.

Otras defensas de Facebook incluyen decir que "el vídeo fue visto menos de 200 veces durante la transmisión en directo", "ningún usuario lo reportó", "en total, fue visto unas 4.000 veces antes de ser eliminado", "el primer reporte del vídeo original llegó 12 minutos después del directo" y "eliminamos más de 1,2 millones de vídeos del ataque en las primeras 24 horas".

La red social se compromete a mejorar su tecnología para prevenir que los vídeos de esta naturaleza se esparzan. "Por ejemplo, como parte de nuestra respuesta el pasado viernes, aplicamos una tecnología experimental basada en audio que hemos estado desarrollando para identificar variantes del vídeo", dice.

Las acciones de Facebook cayeron rápidamente la semana pasada, tanto por otros dramas alrededor de la red social como por el ataque terrorista. No obstante, esta semana se recuperaron con la misma velocidad.

Dos nuevas polémicas de Facebook en las últimas 24 horas

Las malas noticias nunca acaban para Facebook. Este jueves el investigador de seguridad Brian Krebs informó de que las contraseñas sin encriptar de entre 200 y 600 millones de usuarios quedaron a la vista de hasta 20.000 empleados de la red social. Algunas de estas contraseñas podrían ser tan viejas como 2002, dijo el analista en declaraciones recogidas por BBC.

Unas horas después, The Guardian citó a fuentes de la empresa para afirmar que Facebook sabía de los problemas de Cambridge Analytica antes que la polémica estallara en el mismo medio británico. Un portavoz de la tecnológica confirmó que los empleados escucharon rumores de las prácticas de recolección de datos de la polémica firma desde septiembre de 2015.

Suscribir a boletines

Al suscribirte confirmas nuestra política de privacidad