Bots que detectan acoso laboral o sexual en chats y correo electrónico

Cada vez más compañías optan por 'Metoo bots', algoritmos de inteligencia artificial que detectan mobbing y acoso en escritos y comunicaciones corporativas

Recibe nuestra newsletter diaria

O síguenos en nuestro  canal de Whatsapp

NexLP es una de las firmas de análisis cognitiva que trabaja en el desarrollo de los conocidos como #MeTooBots, en referencia al movimiento ‘Me Too’.

Se trata de algoritmos diseñados para procesar y analizar comunicaciones corporativas —principalmente correo electrónico y chats— con el fin de detectar acoso sexual o laboral, mobbing o lenguaje agresivo o amenazador en el entorno laboral.

Estos robots o bots (robots virtuales, programas informáticos con cierta capacidad para aprender y ‘decidir’) están entrenados para identificar indicios de acoso a partir de textos que sirven como «muestra» sobre qué palabras y tonos tienen cierta probabilidad de corresponderse con mensajes dañinos que, en última instancia, pueden suponer un problema potencial tanto para empleados como para la compañía.

En base a esa probabilidad este tipo de bots ‘deciden’ si un texto es aceptable o si no lo es, y en este último caso el algoritmo puede bloquearlo o notificarlo a los departamentos jurídicos o de recursos humanos, por ejemplo, explican en The Guardian.

Obstáculos para detectar comentarios dañinos u ofensivos

Instagram ha comenzado a implementar este tipo de desarrollos de inteligencia artificial para detectar comentarios dañinos y con el fin de combatir el bullying y el ciberacoso en la red social.

Precisamente Facebook, propietaria de Instagram, reconoce la dificultad de determinar cuándo un comentario tiene como finalidad hacer daño, en parte debido a que los jóvenes «enmascaran» ciertas palabras o expresiones con símbolos o caracteres que modifican la ortografía «para engañar a los sistemas automáticos.»

Aunque este tipo de técnica de reemplazo de caracteres es difícilmente aplicable a comunicaciones profesionales, la detección del lenguaje inapropiado —o que se pueda considerar inapropiado— no es trivial debido a los matices o variaciones del lenguaje, a la dificultad para determinar el contexto e incluso a cuestiones culturales, entre otras varables.

Por tanto y para que un sistema aprendizaje automático sea fiable es necesario que los algoritmos «lean» y analicen todas las comunicaciones que se producen dentro de la empresa y que aprendan a distinguir, incluso con ayuda de supervisores humanos, entre lo que una compañía considera aceptable en sus comunicaciones entre empleados y lo que no.

Robots y humanos que supervisan mails y chats corporativos

Que un sistema automático lea todos los mails y conversaciones de chats o entre empleados suscita recelo en torno al siempre peliagudo asunto de la privacidad, especialmente en la fase de entrenamiento de los bots: en esa primera fase es necesaria la supervisión humana del sistema; es decir, que otros empleados lean fragmentos seleccionados por la inteligencia artificial e indiquen al sistema si se trata de un falso positivo o de un falso negativo.

Al tratarse de supervisar comunicaciones corporativas que se desarrollan en el ámbito laboral el símil habitual es el de utilizar cámaras de videovigilancia y de otros sistemas de monitorización o de supervisión, incluyendo los registros de entrada y de salida o grabaciones de conversaciones telefónicas con clientes.

Sin embargo en muchos casos el acoso no se manifiesta por escrito, lo que dificulta su detección mediante el análisis de comunicaciones y conversaciones escritas.

Se calcula que en España en entorno a un 15% de los trabajadores sufren algún tipo de maltrato o acoso laboral o mobbing, un delito introducido en 2010 en el Código Penal.

Recibe nuestra newsletter diaria

O síguenos en nuestro  canal de Whatsapp