OPINION

¿Hacia una Inteligencia Artificial justa y benéfica?

Inteligencia Artificial medicina
Inteligencia Artificial medicina

El art. 6 de la Constitución de Cádiz (1812), conocida popularmente como ‘La Pepa’ por haber sido promulgada el 19 de marzo, festividad de San José, establecía que: “El amor de la Patria es una de las principales obligaciones de todos los españoles y, asimismo, el ser justos y benéficos”. Lo que no era sino un ‘voluntarismo ético’.

Eso es lo primero que me viene a la cabeza cuando oigo en foros o leo en papeles que la Inteligencia Artificial debe ser “ética, responsable y confiable”. O, como reza el título del Libro Blanco sobre Inteligencia Artificial: “un enfoque europeo hacia la excelencia y la confianza”, que la Comisión Europea publicó la semana pasada.

A la vez que se ha publicado este Libro Blanco, se ha abierto una consulta pública que permite a todos los ciudadanos europeos, los Estados miembros y las partes interesadas relevantes (incluida la sociedad civil, la industria y los académicos) dar su opinión sobre el Libro Blanco y contribuir a un enfoque europeo para la IA”.

La Estrategia Europea

Este Libro Blanco y esta consulta son los últimos pasos dados por la Comisión en el proceso de definición de una Estrategia de Inteligencia Artificial para Europa, centrada en el ser humano, que hizo pública en abril de 2018, y un Plan coordinado sobre la inteligencia artificial, que presentó en diciembre de 2018.

Se creó un grupo de expertos de alto nivel sobre la Inteligencia Artificial que publicó un primer borrador de directrices éticas en diciembre de 2018. Tras una consulta a las partes interesadas y reuniones con representantes de los Estados miembros, se presentó por la Comisión un documento revisado en abril de 2019.

Al tiempo, se ha creado la Alianza Europea de Inteligencia Artificial, una plataforma multilateral abierta con más de 2.700 miembros, para aportar una contribución más amplia a la labor del grupo de expertos de alto nivel, reuniéndose, en junio de 2019, 500 de sus miembros en una Asamblea y creándose un Foro de Mejores Prácticas.

La consulta pública

La consulta pública se articula en un cuestionario, que se divide en tres secciones:

• La Sección 1 se refiere a las acciones específicas, para la construcción de un ecosistema de excelencia que pueda apoyar el desarrollo y la absorción de la Inteligencia Artificial en la economía y la administración pública de la UE;

• La Sección 2 se refiere a una serie de opciones para un marco regulatorio para la Inteligencia Artificial.

• La Sección 3 se refiere al Informe (adjunto al Libro Blanco) sobre los aspectos de seguridad y responsabilidad de la Inteligencia Artificial.

Esta encuesta permanecerá abierta hasta el 31 de mayo de 2020. Las preguntas, por ahora, están sólo en inglés, pero -según anuncia la web- estarán disponibles en todos los idiomas de la UE el 4 de marzo de 2020. Creemos que es una buena oportunidad para participar en un debate muy importante para Europa.

El marco regulatorio

En la Sección 2 de la consulta pública o encuesta se hacen una serie de preguntas sobre los temas planteados en el Capítulo 5 del Libro Blanco: “Un ecosistema de confianza: marco regulatorio para la Inteligencia Artificial”, que es el más extenso de todos (págs. 9-25), lo que indica la importancia y complejidad del tema.

En primer lugar, se pregunta sobre el nivel de preocupación sobre seis cuestiones, aunque permite que se introduzcan otras preocupaciones que no estén recogidas:

• La IA puede poner en peligro la seguridad

• La IA puede violar los derechos fundamentales

• El uso de IA puede conducir a resultados discriminatorios

• La IA puede tomar decisiones cuya razón no se puede explicar

• La IA puede dificultar que personas que han sufrido daños sean compensados

• La IA no siempre es precisa

En segundo lugar, se pregunta si consideras que dichas preocupaciones pueden abordarse mediante la legislación actual de la UE (que es totalmente suficiente) o si la legislación actual puede tener algunas lagunas, que hay que corregir, o si sería necesaria una nueva legislación, con reglas específicas para los sistemas de IA.

En tercer lugar, se pregunta si estás de acuerdo en que la introducción de nuevos requisitos -legales- obligatorios debe limitarse a las aplicaciones de alto riesgo (donde los daños que pueden causar los sistemas de IA son particularmente altos). Lo que, a nuestro juicio, es condicionar la respuesta, para así limitar la regulación.

En cuarto lugar, se pide una valoración de seis posibles requisitos obligatorios de un posible marco regulatorio futuro para la IA, sin poder añadir otros no incluidos:

• La calidad de los conjuntos de datos de entrenamiento.

• El mantenimiento de registros y datos.

• Información sobre el propósito y la naturaleza de los sistemas de IA.

• Robustez y precisión de los sistemas de IA.

• Supervisión humana

• Normas claras de responsabilidad y seguridad.

Finalmente, se dedican tres puntos a temas concretos, como: el uso en espacios públicos de sistemas remotos de identificación biométrica (reconocimiento facial) y otras tecnologías, el sistema de etiquetado voluntario, y los distintos sistemas de vigilancia y evaluación del cumplimiento de los requisitos legales de la IA.

5 conclusiones personales

1. No hay una Ética universalmente aceptada, existen distintas Éticas, en plural.

2. Los valores más aceptados universalmente son los Derechos Humanos (ONU).

3. La obsesión de la industria por hablar de Ética parece una huida del Derecho.

4. La autorregulación voluntaria más que Ética parece una operación de Estética.

5. Hay que establecer y delimitar claramente la responsabilidad moral y jurídica.

Mostrar comentarios