La Inteligencia Artificial sustituye a la amenaza latente del 'maletín nuclear'

El maletín nuclear. Un militar de EEUU transporta la valija con las claves para un lanzamiento atómico. / EFE
El maletín nuclear. Un militar de EEUU transporta la valija con las claves para un lanzamiento atómico. / EFE
El maletín nuclear. Un militar de EEUU transporta la valija con las claves para un lanzamiento atómico. / EFE
El maletín nuclear. Un militar de EEUU transporta la valija con las claves para un lanzamiento atómico. / EFE

Las imágenes de Boris Yeltsin bailando una danza de difícil descripción sobre un escenario hacía erizarse los pelos de la nuca de muchas autoridades y responsables de seguridad en Occidente, conocedores que ese hombre tenía acceso al maletín con las claves de lanzamiento de armas nucleares de la URSS. Y es que la Guerra Fría fue un pulso entre concepciones ideológicas y bloques, con la amenaza de la destrucción total siempre coleando en cada movimiento de tropas e incluso en los márgenes de los teletipos. 

La ruptura unilateral decidida por el presidente estadounidense, Donald Trump, del tratado de armas nucleares de rango medio (Intermediate-Range Nuclear Forces, INF) que Washington firmó en 1987 con Moscú no hace augurar nada bueno, en cuanto al control de los artefactos capaces de enviar a la Humanidad de nuevo a la Edad de Hielo. 

Rodeado de 'halcones', la decisión de Trump ha sido una involución en la política de control de armas nucleares de Estados Unidos, mientras que algunos medios también avanzan la intención de su asesor John Bolton de bloquear la extensión de otro tratado con Rusia, el 'New Start', que se firmó en 2010 y expirará en 2021.

El arsenal nuclear mundial: 17.300 cabezas entre nueve países
                                                        

En medio de este panorama, el International Institute for Strategic Studies (IISS), publica esta semana un análisis sobre la evolución del riesgo nuclear, y pone el acento en la capacidad de la Inteligencia Artificial (AI, por sus siglas en inglés) para poner al borde de la destrucción a la Humanidad, si las grandes potencias deciden ponerla al servicio del control de amenazas, y evitar la debilidad de las personas en esa toma de decisiones.

Para los especialistas del IISS, el desarrollo de la AI, especialmente las aplicaciones de "aprendizaje profundo", están entrando en los planes de las grandes potencias para el control de sus arsenales nucleares, considerados en muchos casos como herramientas caducas, por las dificultades en la aplicación de la cadena de mando.

Al dejar al arbitrio de la psicología humana el empleo de tales armas de destrucción masiva, los responsables militares 'lamentan' el porcentaje de debilidad que podría aplicarse, llegado el caso, en una situación real en la que tuvieran que apretar el botón para su lanzamiento. Al relevar a los seres humanos por máquinas de AI se elimina el proceso del cerebro humano. Y los avances en este campo no cesan de producirse. Los algoritmos están demostrando su capacidad de aprender sin supervisión.

Y es que para las autoridades de defensa, la AI es ya una realidad. Hoy en día, los misiles con sistemas de guiado inteligente toman decisiones de manera independiente, sin necesidad del concurso de un ser humano. Igualmente, las agencias de inteligencia utilizan esa AI para detectar patrones de comportamiento en bases de datos gigantescas. El problema de las maquinas de "aprendizaje profundo" que lleguen a ser un remedo de 'Samaritano' en la serie "Person of Interest", al tener la potencialidad de corregir decisiones anteriores, y actuar por su cuenta, si los números la alertan de una amenaza. No va a mostrar compasión ni sentido común. Porque no lo tienen.

Aunque afortunadamente, los sistemas de AI están aún inmaduros, los autores del análisis para la revista IISS ponen el acento en el uso que se está dando a aeronaves sin piloto, aunque no puedan tomar las decisiones finales de un ataque. Al fin y al cabo han logrado deshumanizar la tarea de eliminación de objetivos, como dejó muy patente Barack Obama durante su mandato, con la eliminación de miles de presuntos terroristas sin poner una bota sobre el terreno.

El último aspecto que destacan los especialistas del IISS es aún más peliagudo. Si bien agencias de desarrollo militar como DARPA tratan desde hace años de "robotizar" a las fuerzas armadas, el peligro real radica en proyectos avanzados de biología artificial, la mezcla del ser humano y la tecnología, como trató de reflejar la cinta "Soldado Universal", del -no siempre valorado- actor Jean Claude Van Damme. Los experimentos de la CIA durante la Guerra Fría, con el LSD y demás aberraciones deberían hacer reconsiderar a los responsables de investigación militar la 'línea roja' de sus avances.

Mostrar comentarios