Amazon frustra un robot de recursos humanos que salió misógino. En la imagen, una trabajadora de Amazon en un centro logístico

Amazon frustra un robot de recursos humanos por misógino

stop

La tecnológica desarrolló durante al menos dos años un sistema de aprendizaje automático para evaluar currículums, pero no pudo suprimir su machismo

Alessandro Solís

Economía Digital

Amazon frustra un robot de recursos humanos que salió misógino. En la imagen, una trabajadora de Amazon en un centro logístico

Barcelona, 13 de octubre de 2018 (04:55 CET)

Un equipo de ingenieros de Amazon trabajó durante al menos dos años en un sistema de inteligencia artificial que iba a ser de gran utilidad para el departamento de recursos humanos. El robot podía leer cientos de currículums y elegir los mejores candidatos para un puesto de trabajo, y así ahorrar tiempo a los reclutadores. Pero la empresa se vio obligada a apagar el sistema para siempre por sus tendencias misóginas.

Los especialistas en aprendizaje automático de Amazon descubrieron el problema unos cuantos meses después de empezar a desarrollar la inteligencia artificial, y aunque intentaron resolverlo para dar con su efectiva aplicación dentro de la empresa no fueron capaces de determinar a ciencia cierta que sus patrones machistas serían exterminados permanentemente.

El robot formaba parte de un programa mayor de automatización de Amazon. El minorista ya aplica la inteligencia artificial y los sistemas de aprendizaje automático en muchas de sus labores, tanto para fijar los precios en su web como en la logística de sus almacenes. Pero un departamento de recursos humanos, con las transformaciones sociales que acusa el siglo XXI, es un asunto más delicado.

El sesgo de la inteligencia artificial de Amazon

El robot de recursos humanos de Amazon fue entrenado para observar los patrones en la recepción y revisión de currículums de la empresa durante un lapso de diez años. La mayoría de las aplicaciones laborales eran de hombres, siendo el sector tecnológico uno de los más dominados por el género masculino. Amazon tiene una ratio 60-40% de trabajadores hombres y mujeres, respectivamente. 

Así las cosas, el sistema de aprendizaje automático decidió que los mejores candidatos eran masculinos, casi siempre. Es el ejemplo perfecto del sesgo de la inteligencia artificial, traído a cuentas por los científicos del Instituto Tecnológico de Massachusetts (MIT), que este año desarrollaron un robot psicópata a partir de los contenidos y comentarios de los peores rincones de internet.

El que iba a ser la mano derecha de los especialistas en recursos humanos de Amazon siguió ampliando sus conocimientos, y con ello también su prejuicio contra las mujeres. Reuters informa, tirando de fuentes cercanas al proyecto, de que el robot penalizaba ciertas referencias femeninas en los currículums que analizaba e incluso dio bajas puntuaciones a mujeres que se graduaron de universidades femeninas.

Después de corregir los programas para que fueran neutrales, Amazon no pudo garantizar que en sus futuros aprendizajes no adquirieran más sesgos de género, razón por la que a comienzos de 2017 desechó el proyecto para siempre, pese a que su potencial dentro de la tecnológica ya había creado altísimas expectativas entre los trabajadores del departamento de recursos humanos.

Suscribir a boletines

Al suscribirte confirmas nuestra política de privacidad