Europa pone la lupa a la Inteligencia Artificial para que sea ética y confiable

  • La Unión Europea apuesta por una IA ética y ha creado una lista de verificación para validarlas. 
Inteligencia Artificial, recurso
Inteligencia Artificial, recurso
EUROPA PRESS

La instauración de las IA es una realidad que abarca todos los aspectos de nuestra vida. Por esto, desde hace un tiempo, los gobiernos se han preocupado por una regularización de estas nuevas tecnologías, para que su instauración no sea demasiado invasiva o nociva para nuestros modos y estilos de vida.

Nos encontramos con IA en nuestro lugar de trabajo. Se ha convertido en una muy buena herramienta para PyMEs . La encontramos en nuestros lugares de ocio. Y, por supuesto, en la atención al cliente de cualquier servicio telefónico. Y también las vemos completamente integradas en los universos más culturales como es el caso de la compra y venta de arte.

Por eso hay que mantenerse a alerta. No todas las propuestas IA pueden ser viables desde una perspectiva “confiable”, en pos de unos sistemas de IA más éticos. Ahora le ha tocado el momento a la UE, que está creando directrices con las que validar la fiabilidad y la ética de las IA más recientes. En un artículo para Vox, Sigal Samuel habla sobre estas directrices  que parecen ser bastante más concretas que en otras ocasiones.

¿Por qué ahora?

Estas nuevas pautas surgen en un contexto en el que hay una creciente preocupación pública de que la IA está afectando cada vez más a muchos aspectos de nuestras vidas. A veces esta intrusión se hace de formas que pueden acabar dañando incluso nuestro entorno.

Aunque la UE no es la primera en abordar este dilema con una lista de recomendaciones, sí que en este caso se ha creado una lista que es un poco más concreta y menos anodina que las anteriores – como por ejemplo la de 2016 en EE.UU.- , especialmente debido a la ya mencionada lista de verificación.

La lista de verificación

Si hay un aspecto del proyecto que tiene el potencial único y que ha dado tanto de qué hablar por el mero hecho de ser tan útil, es la lista de verificación. No es que estemos hablando de algo fuera de lo común. Ni de nada especialmente novedoso. Pero sí que es idóneo por su finalidad y porque ha llegado en el momento adecuado. La lista “está compuesta de preguntas fáciles de entender, que los ejecutivos de las empresas pueden dirigir a los desarrolladores de IA antes de acordar comprar un nuevo sistema de IA para el lugar de trabajo, y que incluso el ciudadano promedio también puede usar”, explica Samuel.

Y para muestra, un botón. Estas serían algunas de las preguntas que conforman la famosa lista de verificación:

· ¿Has evaluado las posibles formas de ataques a los que el sistema de IA podría ser vulnerable?

· ¿Has verificado qué daño se causaría si el sistema de IA hace predicciones inexactas?

· ¿Has establecido una estrategia o un conjunto de procedimientos para evitar crear o reforzar un sesgo injusto en el sistema IA, tanto en el uso de los datos de entrada como en el diseño del algoritmo?

· ¿Has evaluado si el sistema de IA es utilizable por personas con necesidades especiales o discapacidades o en riesgo de exclusión?

“Los expertos enfatizan que la lista de preguntas no es exhaustiva ni definitiva. De hecho, invitan a las empresas, organizaciones y a otros a probar el uso de esta lista de verificación y proporcionar comentarios. Según las respuestas que reciban, revisarán la lista a principios de 2020”, asegura Samuel.

Requisitos que hay que tener en cuenta

Las directrices han sido escritas por un grupo independiente de 52 expertos. “Los expertos ahora están invitando a compañías y organizaciones a demostrar que están comprometidos con una IA de confianza al adoptar voluntariamente las directrices, y especialmente al usar una lista de verificación particular (que los expertos llaman su "lista de evaluación práctica") al desarrollar y desplegar sistemas de AI”, explica Samuel.

Dentro de los requisitos que tratan las nuevas directrices redactadas por la UE, se tratan los temas que más comúnmente se discuten a día de hoy. Enumeramos los más destacados:

· La transparencia (deberíamos saber cuándo un sistema de AI está tomando decisiones sobre nosotros y si esas decisiones deberían ser explotables)

· La solidez y la seguridad

· La no discriminación y la imparcialidad (los sistemas de AI no deben estar sesgados en línea de raza o género)

· El medioambiente (la sostenibilidad y la responsabilidad ecológica de los sistemas de inteligencia artificial deben fomentarse)

Mostrar comentarios