Imagen de archivo de Siri, la asistente de voz de los dispositivos Apple |Flickr

Las asistentes de voz dilatan la brecha de género, dice la ONU

stop

Un estudio de la Unesco dice que las voces de asistentes como Siri y Alexa pueden perpetuar la brecha de género al ser representadas como subordinadas

Alessandro Solís

Economía Digital

Imagen de archivo de Siri, la asistente de voz de los dispositivos Apple |Flickr

Barcelona, 23 de mayo de 2019 (14:44 CET)

Siri, la asistente de voz de los dispositivos Apple, es francamente servil, subordinada y apologista del abuso de los usuarios. Hasta abril de este año, el software respondía a insultos como "Siri, eres una zorra", diciendo: "Sonrojada si pudiera". No fue hasta recientemente que Apple cambió la respuesta a: "No sé cómo responder a eso".

"Sonrojada si pudiera" es el nombre de un nuevo estudio publicado por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) que profundiza en las muchas formas en las que las asistentes de voz más populares del mercado (que en su mayoría son femeninas) dilatan la brecha de género.

"La obsequisidad de Siri –y la servilidad expresada por muchas otras asistentes virtuales proyectadas como mujeres jóvenes– brindan una ilustración poderosa de la parcialidad de género codificados en los productos tecnológicos, penetrante en el sector tecnológico y aparente en la educación de habilidades digitales", dice el informe.

El estudio concluye que los asistentes virtuales impulsados por la inteligencia artificial de empresas como Apple, Google y Amazon pueden estar perpetuando las desigualdades de género, dado que sus voces femeninas suelen ser representadas como "complacientes y con ganas de agradar", lo que reenfuerza la idea de que las mujeres son "subordinadas".

La ONU afea que las asistentes de voz se programan para ser subordinadas

"A medida que las asistentes de voz evolucionan desde la distribución de datos y el cumplimiento de órdenes hasta mantener conversaciones emocionalmente conscientes y servir de compañeras y ayudantes, enviarán mensajes poderosos sobre cómo deben comportarse las mujeres emocionalmente, especialmente si la tecnología está programada –como lo está hoy– para ser subordinada y paciente, complaciente y compasiva", dicen los investigadores.

Además del de Siri, hay otros ejemplos. Amazon emitió en 2018 un anuncio de Alexa su asistente, que ni siquiera tiene opción de voz masculina– que reflejaba el software como "indefectiblemente cortés, subordinada y sin prejuicios", mientras los actores le exigían que mejorara el estado de ánimo de una cena o que hablara de forma sexualmente sugestiva.

Todos los asistentes de voz analizados por la Unesco incurren en estas prácticas. "Debido a que el discurso de la mayoría de las asistentes es femenino, envía una señal de que las mujeres son ayudantes dóciles, disponibles con solo tocar un botón o un comando. Respetan los comandos y responden a consultas sin importar el tono u hostilidad", dice el estudio.

La Unesco apunta a que la mayoría de los trabajadores de las tecnológicas son hombres, lo que repercute en el problema. Y pide a las empresas del sector dejar de hacer las asistentes femeninas por defecto. Una solución puede ser la voz de género neutro anunciada por algunas empresas europeas en marzo pasado.

Suscribir a boletines

Al suscribirte confirmas nuestra política de privacidad