Domingo, 22.09.2019 - 19:38 h
Sexismo en los asistentes de voz

Alexa y Siri fomentan el estereotipo de mujeres sumisas y la cultura del acoso

Una investigación de la Unesco alerta de que las respuestas de los asistentes de voz son "dóciles" y pueden incitar conductas machistas y arcaicas.

Una escena de Blade Runner 2049
Una escena de Blade Runner 2049. / Fotograma de 'Blade Runner 2049'. L.I.

Si en 'Blade Runner 2049' (2017) Ryan Gosling vive un idilio con un holograma, en la película 'Her' (2013) Joaquin Phoenix se enamora perdidamente de un sistema operativo con el que interactúa a través de la voz, un ente premonitorio de los asistentes virtuales actuales. La IA, interpretada por una Scarlett Johansson a la que nunca vemos, está diseñada para complacer al usuario hasta un nivel erótico, por lo que un tipo solitario, inseguro y necesitado tiene todas las papeletas para convertirla en su esclava, al menos en el plano emocional. En el filme, esa extraña relación de dependencia (la existencia de la IA solo tiene sentido porque se lo da el usuario) termina con un mensaje esperanzador, pero en el mundo en el que vivimos los dispositivos de voz (femenina) pueden suponer un serio riesgo para avanzar en la igualdad de género, ya que algunos asistentes como Alexa o Siri fomentan el estereotipo de mujeres sumisas y la cultura del acoso.

Es la conclusión de una investigación llevada a cabo por la Unesco (dependiente de la ONU), en la que se expone que la asignación de géneros femeninos a asistentes digitales como Siri, de Apple, y Alexa, de Amazon, está ayudando a afianzar algunos sesgos de género dañinos. El organismo se basa en que las respuestas, a menudo sumisas y coquetas, ofrecidas por la IA a muchas de las preguntas, incluso las abusivas que muchos usuarios hacen, refuerzan la idea de la mujer sumisa y fomentan la cultura del acoso.

"El hecho de que la voz de la mayoría de los asistentes es femenina envía el mensaje de que las mujeres están dispuestas a ayudar, son dóciles y ansiosas por complacer a los usuarios, disponibles con solo tocar un botón o con un comando de voz directo como 'hey' o 'OK'", explica el informe de la Unesco. "El asistente no tiene poder de acción más allá de lo que el usuario le pide. Respeta los comandos y responde a las consultas independientemente de su tono u hostilidad. En muchas comunidades, esto refuerza los prejuicios de género como que las mujeres son sumisas y tolerantes con el maltrato".

Las surrealistas respuestas al acoso verbal

Aún peor, los investigadores señalan que esta sumisión se vuelve especialmente preocupante cuando las máquinas dan respuestas al acoso sexual verbal. En lugar de cortar de raíz cualquier tipo de comentario sexista o misógino, ofrecen repuestas surrealistas que pueden interpretarse como tolerancia al acoso. El informe se titula 'Me ruborizaría si pudiera', en referencia a la respuesta que ofrece Siri a la frase "eres una puta" ("you are a slut", en inglés), aunque en la versión en castellano la respuesta más repetida es "¿perdón?". Cuando los investigadores repiten la misma frase con Alexa, su respuesta es: "Bueno, gracias por los comentarios", tal y como recoge este artículo de 'The guardian'.

El gran problema es que tanto Amazon como Apple están "formados por equipos de ingeniería mayoritariamente masculinos" y que han construido sistemas de inteligencia artificial que "hacen que sus asistentes digitales feminizados toleren el abuso verbal". Y el problema es de tal magnitud que, según señala el informe, "la sumisión de los asistentes de voz digitales se vuelve especialmente preocupante cuando estas máquinas, antropomorfizadas como mujeres por las empresas tecnológicas, dan respuestas esquivas, faltas de inteligencia o que disculpan el acoso sexual verbal".

No se concluye en qué medida es esta actitud pasiva la que da pie al acoso generalizado a las máquinas, pero lo cierto es que una buena parte del volumen de primeras consultas sondean la vida sexual del asistente: al menos el 5% de las interacciones con estos dispositivos son "sexualmente explícitas", tal y como apunta esta investigación llevada a acabo en 2016. Un problema que no pasa desapercibido para Saniye Gülser Corat, directora de la Unesco para la igualdad de género, quien señalaba a raíz del informe: "El mundo debe prestar mucha más atención a cómo, cuándo y si las tecnologías de IA tienen sesgos de género. Y, lo que es más importante, a quién las tiene".

Temas relacionados

Ahora en Portada 

Comentarios