¿Qué pasó en la semana, eh?

Usos peligrosos de la Inteligencia Artificial por las autoridades públicas

ChatGPT
Usos peligrosos de la Inteligencia Artificial por las autoridades públicas.
Flickr

Llevamos meses hablando del chatGPT y otras Inteligencias Artificiales creativas (o, mejor dicho, generativas) y parece que, ante los retos, oportunidades y dudas que plantean, nos hemos olvidado de otros usos de las Inteligencias Artificiales, tanto por empresas privadas como por autoridades públicas, que, quizá, no sean tan ‘atractivos’, pero que pueden afectar de forma importante a nuestras vidas.

En particular, hoy me quiero referir a los usos o prácticas de Inteligencia Artificial por parte de autoridades públicas, dejando sentado de antemano que no tengo ningún pre-juicio (juicio previo) desfavorable respecto de su uso, sino, más bien, al contrario, mantengo que las autoridades públicas tienen el deber de utilizarla para mejorar los servicios públicos que deben prestar a los ciudadanos.

No obstante, al mismo tiempo, hay que proteger los derechos fundamentales de los ciudadanos ante los posibles usos peligrosos de las Inteligencias Artificiales, como bien se destaca en la Propuesta de Reglamento de Inteligencia Artificial (abril de 2021), en la Carta española de Derechos Digitales (julio de 2021) y en la Declaración europea de Principios y derechos digitales (diciembre de 2022).

Uso prohibido: sistema de clasificación social

Para empezar, la propuesta de Reglamento europeo de Inteligencia Artificial, establece, en su art. 5.1.c): “Estará prohibida la introducción en el mercado, la puesta en servicio o la utilización de sistemas de IA por parte de las autoridades públicas o en su representación, con el fin de evaluar o clasificar la fiabilidad de personas físicas durante un período determinado de tiempo”.

Aclarando a continuación que dicha evaluación o clasificación de la fiabilidad de las personas físicas (desde el punto de vista de dichas autoridades públicas) no se puede hacer atendiendo: 1) a su conducta social o 2) a características personales o de su personalidad (conceptos jurídicos indeterminados que habrá que determinar y diferenciar), conocidas o predichas.

Y establece que la clasificación social resultante no puede provocar un trato perjudicial o desfavorable hacia determinadas personas físicas o colectivos enteros 1) en contextos sociales que no guarden relación con los contextos donde se generaron o recabaron los datos; y 2) injustificado o desproporcionado con respecto a su comportamiento social o la gravedad de este.

Usos de alto riesgo por autoridades públicas

Por su parte, en el art. 6 se regulan los sistemas de inteligencia de alto riesgo y el resto del articulado se dedica a imponer requisitos que éstos deben cumplir, las obligaciones de los proveedores y usuarios y de otras partes, las obligaciones de transparencia de determinados sistemas de Inteligencia Artificial, los Códigos de conducta, etc.

En el Anexo III de la Propuesta de Reglamento se recoge una relación de estos sistemas de Inteligencia Artificial de alto riesgo, citándose expresamente su uso por 1) autoridades públicas, 2) autoridades encargadas de la aplicación de la ley o 3) autoridades judiciales, y distinguiéndose hasta ocho ámbitos en los que puede utilizarse, con las debidas salvaguardas:

  1. Identificación biométrica y categorización de personas físicas
  2. Gestión y funcionamiento de infraestructuras esenciales
  3. Educación y formación profesional
  4. Empleo, gestión de los trabajadores y acceso al autoempleo
  5. Acceso y disfrute de servicios públicos esenciales y sus beneficios
  6. Asuntos relacionados con la aplicación de la ley
  7. Gestión de la migración, el asilo y el control fronterizo
  8. Administración de justicia y procesos democráticos

Sanciones

En el art. 71 de la Propuesta se prevé que “los Estados miembros determinarán el régimen de sanciones, incluidas las multas administrativas, aplicable a las infracciones del presente Reglamento y adoptarán todas las medidas necesarias para garantizar su aplicación adecuada y efectiva. Las sanciones establecidas serán efectivas, proporcionadas y disuasorias”.

Establece multas administrativas de hasta 30 millones de euros o, si el infractor es una empresa, de hasta el 6% del volumen de negocio total anual mundial del ejercicio financiero anterior, si esta cuantía fuese superior, por usos prohibidos de inteligencia artificial (art. 5). Y de hasta 20 millones de euros o hasta el 4%, por incumplimiento de los requisitos u obligaciones para los usos de alto riesgo.

Pero luego matiza: “Cada Estado miembro establecerá normas que determinen si es posible, y en qué medida, imponer multas administrativas a autoridades y organismos públicos establecidos en dicho Estado miembro”. Es decir, los usos prohibidos y de alto riesgo de las Inteligencias Artificiales por autoridades públicas podrían quedar sin sanción, como ya ocurre en Protección de Datos.

Mostrar comentarios