Viernes, 06.12.2019 - 02:24 h
El subconsciente traiciona a los robots

Por qué la IA es machista y racista cuando interpreta las emociones humanas

Según los últimos estudios, en la actualidad existen niveles preocupantes de prejuicios que la IA mantiene en cuestiones de género y raciales.

Fotograma de la película Inteligencia Artificial
Por qué la IA es machista y racista cuando interpreta las emociones humanas. Fotograma de la película Inteligencia Artificial. / Warner Bros / Dreamworks

Tal vez en un futuro muy lejano todos los robots sean como David, el niño robot que protagoniza 'Inteligencia Artificial', la obra maestra de Steven Spielberg de 2001. Sin embargo, por ahora no existe ningún programa informático diseñado para sentir como un humano, siquiera para comprender sus emociones. Peor aún: según los últimos estudios, en la actualidad existen niveles preocupantes de prejuicios que la IA mantiene en cuestiones de género y raciales. La conclusión de todos ellos es que la robótica, a día de hoy, tiene sesgos tanto machistas como racistas a la hora de interpretar las emociones humanas.

La mayoría también coincide en que se trata de una traslación de los sesgos machistas y racistas que persisten entre los humanos. Algo que se debe a dos motivos: por un lado, que quienes desarrollan esa IA tienen sesgos machistas y racistas (incluso sin saberlo); por otro, que precisamente hay un nivel subconsciente en el ser humano que es teóricamente imposible de replicar en una mente virtual, al menos a día de hoy. En este sentido, puede que una persona diga una cosa (o incluso que la piense), pero que en lo más profundo de su ser crea firmemente lo contrario. Es lo que Freud denominaba hace un siglo el 'Ello'. Y es lo que Paul Zak, un reconocido psicólogo experto en neurociencia, explica en este artículo de 'Harvard Business Review' del siguiente modo: "La gente miente, sus cerebros no".

Para llegar a esta conclusión, Zak estudió el año pasado los anuncios de la SuperBowl de 2018. En la votación posterior al evento, los espectadores votaron como el mejor spot del descanso uno de Amazon llamado "Alexa pierde su voz", en el que varias estrellas intentan (sin éxito) reemplazar a Alexa. En comparación, el "Groove" de Coca-Cola, que presentaba a una mujer bailando torpemente después de beber una lata de Diet Coke Twisted Mango, fue elegido como el peor anuncio de todos. Pero la investigación de Zak, que estudió durante meses junto a su equipo la inmersión neurológica de las personas en los anuncios, llegó a la conclusión de que el nivel de compromiso emocional de los espectadores -midiendo los cambios en sus niveles de oxitocina- era mayor con el anuncio de Coca-Cola que con el de Amazon.

En su opinión, este resultado sugiere que el mecanismo de medición utilizado, llamado USA Today Ad Meter, no era lo suficientemente complejo como para entender el nivel de impacto que habían tenido los anuncios en los espectadores. O, dicho de otro modo, que un robot no es capaz de acceder a nuestro subconsciente y medir las respuestas emocionales ante los estímulos externos.

Los sesgos del reconocimiento facial de la IA en la NBA

Esta investigación ahonda en el problema detectado desde hace un par de años en los sistemas de reconocimiento facial, especialmente tras su popularización tras el lanzamiento del Face ID de Apple: los sesgos racistas. Sin embargo, es un sistema que empieza a extenderse a otros ámbitos, desde la identificación de sospechosos de un delito (como en el caso de la IA que ya utiliza China para controlar a sus ciudadanos con miles de cámaras) hasta el reconocimiento de expresiones faciales durante una entrevista de trabajo.

En otro estudio de principios de año elaborado por Lauren Rhue, profesora de Sistemas de la Información y Analítica en la Universidad de Wake Forest, y publicado en este artículo de 'The Conversation', se utilizó la base de datos oficial de la NBA de la temporada 2016-17 para determinar el nivel sesgo racial (a nivel emocional) de una IA de reconocimiento facial. En total, se analizó la foto oficial de 400 jugadores con una pose idéntica, de la misma edad y género, y vestidos con la camiseta de su equipo.

El experimento consistió en pasar las imágenes a través de dos tipos de conocidos softwares de reconocimiento emocional, que asignaron en ambos casos a los jugadores negros más puntuaciones emocionales negativas, sin importar cuánto sonrieran. Uno de los ejemplos fue el de las imágenes oficiales de la NBA de Darren Collison (blanco) y Gordon Hayward (negro). El caso más grave es el de Face++: como se puede apreciar en la siguiente imagen, ambos jugadores están sonriendo y, según el programa de reconocimiento y análisis facial, Darren Collison y Gordon Hayward tienen puntuaciones de sonrisa similares: 48.7 y 48.1 sobre 100, respectivamente.

Darren Collison y Gordon Hayward
Darren Collison y Gordon Hayward. / NBA

Sin embargo, a pesar de que considera que ambos sonríen de una manera muy similar, Face ++ califica la expresión de Hayward como un 59,7% feliz y un 0,13% enfadada, mientras que percibe la expresión de Collison como un 39,2% feliz y 27% enfadada. La conclusión de Rhue es que "Collison es visto casi tan enfadado como feliz y mucho más enojado que Hayward, a pesar de que el programa de reconocimiento facial reconoce que ambos jugadores están sonriendo".

El sesgo machista de los asistentes de voz

Un sesgo que se traslada al género en el caso de los asistentes de voz. Es la conclusión de una reciente investigación llevada a cabo por la Unesco (dependiente de la ONU), en la que se expone que la asignación de géneros femeninos a asistentes digitales como Siri, de Apple, y Alexa, de Amazon, está ayudando a afianzar algunos sesgos de género dañinos. El organismo se basa en que las respuestas, a menudo sumisas y coquetas, ofrecidas por la IA a muchas de las preguntas, incluso las abusivas que muchos usuarios hacen, refuerzan la idea de la mujer sumisa y fomentan la cultura del acoso.

"El hecho de que la voz de la mayoría de los asistentes es femenina envía el mensaje de que las mujeres están dispuestas a ayudar, son dóciles y ansiosas por complacer a los usuarios, disponibles con solo tocar un botón o con un comando de voz directo como 'hey' o 'OK'", explica el informe de la Unesco. "El asistente no tiene poder de acción más allá de lo que el usuario le pide. Respeta los comandos y responde a las consultas independientemente de su tono u hostilidad. En muchas comunidades, esto refuerza los prejuicios de género como que las mujeres son sumisas y tolerantes con el maltrato".

Aún peor, los investigadores señalan que esta sumisión se vuelve especialmente preocupante cuando las máquinas dan respuestas al acoso sexual verbal. En lugar de cortar de raíz cualquier tipo de comentario sexista o misógino, ofrecen repuestas surrealistas que pueden interpretarse como tolerancia al acoso. El informe se titula 'Me ruborizaría si pudiera', en referencia a la respuesta que ofrece Siri a la frase "eres una puta" ("you are a slut", en inglés), aunque en la versión en castellano la respuesta más repetida es "¿perdón?". Cuando los investigadores repiten la misma frase con Alexa, su respuesta es: "Bueno, gracias por los comentarios".

Temas relacionados

Ahora en Portada 

Comentarios
NOTRACKING