Martes, 28.01.2020 - 15:10 h
Solo en EEUU y Australia

Alexa ya transmite emociones como la empatía o la decepción en sus respuestas

El despliegue de esta tecnología surgió de una prueba en la que el 30% de los usuarios aseguró preferir réplicas emocionales

Alexa, asistente de Amazon
Alexa ya transmite emociones como la empatía o la decepción en sus respuestas. / EFE

Amazon lo ha conseguido. Alexa ya no solo responde a los usuarios, sino que ya es capaz de transmitir emociones en sus réplicas, algunas, más sencillas como la alegría o la pena, y otras tan complejas como la decepción o la empatía. 

Desde el primer momento, el equipo del gigante de distribución quiso hacer de su asistente una especie de secretaria de sus clientes que, además, acompañase al usuario. Ahora, con los últimos avances técnicos, se ha obtenido un alto nivel de naturalidad en el tono de la voz de uno de los productos estrella de la compañía. Así lo ha adelantado este martes la propia compañía en un comunicado y, por ahora, este matiz se limita a Estados Unidos.

 Alexa emplea tecnología neutral de texto a voz, que conlleva una mayor naturalidad al hablar. El despliegue de esta actualización sigue a una prueba en la que los usuarios tanteados expresaron un 30% de mayor satisfacción cuando Alexa respondía con emociones. Asimismo, Amazon ha introducido en su asistente los diferentes estilos de habla, disponible por el momento en Estados Unidos (noticias y música) y Australia. Con la tecnología neural de texto a voz, Alexa introduce la entonación, el énfasis en determinadas palabras y las pausas.

Los sesgos de los asistentes de voz

Sea como fuere, esta novedad en la entonación no evita que los asistentes de voz sigan teniendo ciertos sesgos, incluso machistas. Es la conclusión de una reciente investigación llevada a cabo por la Unesco (dependiente de la ONU), en la que se expone que la asignación de géneros femeninos a asistentes digitales como Siri, de Apple, y Alexa, de Amazon, está ayudando a afianzar algunos sesgos de género dañinos. El organismo se basa en que las respuestas, a menudo sumisas y coquetas, ofrecidas por la IA a muchas de las preguntas, incluso las abusivas que muchos usuarios hacen, refuerzan la idea de la mujer sumisa y fomentan la cultura del acoso.

"El hecho de que la voz de la mayoría de los asistentes es femenina envía el mensaje de que las mujeres están dispuestas a ayudar, son dóciles y ansiosas por complacer a los usuarios, disponibles con solo tocar un botón o con un comando de voz directo como 'hey' o 'OK'", explica el informe de la Unesco. "El asistente no tiene poder de acción más allá de lo que el usuario le pide. Respeta los comandos y responde a las consultas independientemente de su tono u hostilidad. En muchas comunidades, esto refuerza los prejuicios de género como que las mujeres son sumisas y tolerantes con el maltrato".

Aún peor, los investigadores señalan que esta sumisión se vuelve especialmente preocupante cuando las máquinas dan respuestas al acoso sexual verbal. En lugar de cortar de raíz cualquier tipo de comentario sexista o misógino, ofrecen repuestas surrealistas que pueden interpretarse como tolerancia al acoso. El informe se titula 'Me ruborizaría si pudiera', en referencia a la respuesta que ofrece Siri a la frase "eres una puta" ("you are a slut", en inglés), aunque en la versión en castellano la respuesta más repetida es "¿perdón?". Cuando los investigadores repiten la misma frase con Alexa, su respuesta es: "Bueno, gracias por los comentarios".

Temas relacionados

Ahora en Portada 

Comentarios
NOTRACKING