OPINION

Derechos humanos e Inteligencia Artificial

La estrategia de Inteligencia Artificial, aún pendiente
La estrategia de Inteligencia Artificial, aún pendiente

Los derechos humanos son el único contrato que nos une a todas las personas, sea cual sea nuestro sexo, raza, edad, nacionalidad o cualquier otro factor. Funcionan como aspiración, pero también como marco. Nos sirven para no perder el foco en la actualidad, en las complejidades sociales, en la globalización económica y, desde luego, en la innovación tecnológica.

Puede que, como suele decirse, estemos en medio de una enorme revolución y a las puertas de una gran transformación. Tal vez, como sugieren algunos, nuestras vidas sean muy distintas dentro de unos pocos años. Quizás se abran inmensas oportunidades o se ciernan sobre nosotros amenazas inéditas. Lo que tengo muy claro es que, sea cual sea la dirección y el alcance del cambio tecnológico, habrá que valorarlo desde un punto de vista ético y humanístico. Ninguna innovación es buena o mala en sí misma. Hay que observarla a la luz de los derechos humanos.

A los que no somos expertos nos cuesta imaginar la forma que tomará el progreso tecnológico en los próximos años. Tengo la impresión de que incluso les resulta difícil a los que sí son expertos. Nuestra imaginación enseguida se desliza hacia las películas de ciencia ficción en las que las máquinas toman el control, y me sorprende descubrir que es algo que realmente se está debatiendo. ¿Podría una superinteligencia artificial formular sus propios objetivos ignorando los de los seres humanos? Si hoy un político entrara en este debate, probablemente muchos se reirían de él. Sin embargo, creo que tenemos la obligación al menos de comprender el debate, y poder así reflexionar sobre él.

Existe un peligro real de que los Estados desarrollen sistemas y algoritmos que tomen las decisiones por sí mismos para evitar los sesgos humanos. El gravísimo problema, en ese caso, es precisamente que desaparecerá la responsabilidad personal. ¿A quién pediremos cuentas? ¿Cómo podrían las instituciones y los ciudadanos controlar que se están haciendo las cosas bien cuando nadie es responsable?

¿Qué podemos hacer desde las instituciones europeas para prevenir cualquier vulneración de derechos y libertades? Lo primero que hay que decir es que somos capaces de hacerlo. Hay un ámbito muy relacionado con los algoritmos y las nuevas tecnologías en el que Europa ha actuado con decisión y liderazgo: el de la privacidad. No olvidemos que estamos ante uno de los derechos humanos, y que en mayo del año pasado entró en vigor el Reglamento General de Protección de Datos, una regulación europea de vanguardia. Y esto fue así porque la preocupación de los ciudadanos por la protección de sus datos era ya muy elevada. Los poderes públicos suelen actuar por la presión social. Cuando algo preocupa de verdad a los ciudadanos, entonces se legisla y se crean mecanismos para reducir la incertidumbre y el temor. Pocas veces los políticos van por delante. Por este motivo, es importante que los ciudadanos tomemos conciencia de los riesgos que el desarrollo de la Inteligencia Artificial y el Aprendizaje Automático pueden comportar para sus derechos y libertades. Y es importante que esto se haga sin caer en el alarmismo. Se trata de concienciar, no de asustar.

La Unión Europea debe actuar con celeridad. Es necesario, primero, investigar y debatir. Debemos hacerlo con transparencia e implicando a la sociedad civil. Debemos buscar un consenso amplio, un suelo común, igual que lo hemos hecho en el caso de la privacidad. Y, por supuesto, debemos legislar para garantizar que existan controles, supervisión y, sobre todo, rendición de cuentas. Si alguien es responsable de un desarrollo de Inteligencia Artificial potencialmente peligroso para los Derechos Humanos, es mucho más probable que extreme las precauciones y actúe con transparencia.

Sin embargo, no creo que el marco europeo sea suficiente. Todo lo que implica a las nuevas tecnologías el global. Del mismo modo, los derechos humanos son universales. Recordemos que China ha puesto en marcha ya su programa de crédito social, doscientos millones de cámaras con tecnología de reconocimiento facial que dan o quitan derechos. Recordemos que Rusia está embarcada en una guerra híbrida de la que forma parte tecnología destinada a la desinformación, que a su vez es parte de una estrategia para debilitar al oponente (en este caso, las democracias occidentales). Recordemos que las principales empresas de Inteligencia Artificial están en Estados Unidos. Por tanto, creo que la Unión Europea debe impulsar un acuerdo global en el marco de las Naciones Unidas para garantizar que los desarrollos tecnológicos no vulneren los derechos humanos.

Puede que no parezca el mejor momento para decir esto, cuando el orden multilateral está tan seriamente cuestionado desde Washington e incluso desde algunas capitales europeas. Pero precisamente por esto me parece que hay que plantearlo. Compartimos oportunidades y amenazas, compartimos una misma naturaleza humana. Así que la respuesta será global o será insuficiente.

*Beatriz Becerra ha sido vicepresidenta de la subcomisión de Derechos Humanos en el Parlamento Europeo y eurodiputada del Grupo de la Alianza de Liberales y Demócratas por Europa (ALDE) en la legislatura 2014-2019. Es autora de Eres liberal y no lo sabes (Deusto).

Mostrar comentarios