La iniciativa, llamada FA*IR, ha estudiado datos de ofertas de empleo, de reincidencia de presos y rankings de admisión a las universidades para detectar patrones de discriminación en directorios digitales que puedan favorecer o relegar a ciertos colectivos, como se explica en un comunicado.
Según explica el investigador Carlos Castillo, director de la Unidad de Data Science de Eurecat e integrante del proyecto, cada vez son más comunes los "motores de búsqueda en que los ítems que se buscan no son páginas web sino personas". En palabras del investigador, esto puede favorecer "patrones discriminatorios, aprendidos por algoritmos que no están programados para compensar o corregir prejuicios humanos".
Castillo pone como ejemplo el caso de un portal de empleo y explica que "si hay cien perfiles de hombres y mujeres igualmente cualificados y en los primeros resultados del buscador solo aparecen hombres, tenemos un problema". Para evitarlo, los investigadores de FA*IR han creado un algoritmo de búsqueda que incorpora "un mecanismo de acción positiva" para "reorganizar los resultados y evitar la discriminación sin afectar la validez del ranking".
El proyecto FA*IR ha sido uno de los ganadores de las becas que otorga anualmente la comunidad Data Transparency Lab, que promueve la transparencia y la protección de los datos en Internet mediante soluciones innovadoras.
Hemos bloqueado los comentarios de este contenido. Sólo se mostrarán los mensajes moderados hasta ahora, pero no se podrán redactar nuevos comentarios.
Consulta los casos en los que lainformacion.com restringirá la posibilidad de dejar comentarios