Para reducir sus riesgos

Biden se adelanta a la UE y presentará una ley sobre controles de seguridad en la IA

Desde la Casa Blanca señalan que este conjunto de medidas será el más ambicioso hasta la fecha e incluirá acciones para proteger la privacidad y los derechos civiles de los consumidores sin frenar la innovación. 

Biden presenta este lunes un decreto para impulsar controles de seguridad en la IA
Biden presenta este lunes un decreto para impulsar controles de seguridad en la IA
Europa Press

El Gobierno de Estados Unidos prevé aprobar este lunes una orden ejecutiva que permitirá imponer mayores controles de seguridad sobre los sistemas de inteligencia artificial, con el fin de reducir los posibles riesgos de su uso. La nueva norma llega tras el sí dado el pasado julio por parte de 15 de las grandes empresas del sector tecnológico (como Amazon, Google, Meta o Microsoft) a adoptar las medidas de seguridad para este tipo de tecnologías propuestas por la Administración de Joe Biden.

El subjefe de gabinete de la Casa Blanca, Bruce Reed, ha afirmado que aprobar la orden ejecutiva supondrá llevar a cabo el "conjunto de acciones más fuertes puesto en marcha por un Gobierno en todo el mundo". Según Reed, el decreto con rango de ley se trata del "siguiente paso" en la estrategia del ejecutivo para beneficiarse del desarrollo de la IA minimizando sus riesgos.

Adicionalmente, este mismo lunes los países del G7, entre los que se encuentra Estados Unidos, han acordado un código de conducta para desarrolladores que busca también evitar problemas derivados del uso de la IA, como la desinformación o la vulneración de derechos. Esta hoja de ruta se sitúa en el marco del "Proceso de IA de Hiroshima", la estrategia conjunta desarrollada por los siete países del grupo para gestionar el uso de este tipo de tecnologías.

Las empresas deberán notificar posibles riesgos

La orden ejecutiva, que Biden presentará en la Casa Blanca a las 14.30 (18.30 GMT), incorpora cláusulas para proteger la privacidad, mejorar los derechos civiles, proteger los consumidores, apoyar a los trabajadores y promover la innovación, entre otras.

Entre las medidas que incluye está la de exigir que los desarrolladores de inteligencia artificial más importantes compartan con el Gobierno estadounidense los resultados de sus pruebas de seguridad y otra información que se considere "crucial". De acuerdo con la Ley de Producción de Defensa, las empresas que desarrollen cualquier sistema que pueda suponer un riesgo grave para la seguridad nacional, la seguridad económica nacional o la salud públicas deberán notificar a la administración cuando vayan a poner a prueba ese modelo.

Estas medidas garantizarán que los sistemas de inteligencia artificial sean "seguros y de confianza antes de que las empresas los hagan públicos". El Instituto Nacional de Estándares y Tecnología será el que establezca los "rigurosos" estándares para las pruebas de seguridad y el Departamento de Interior los aplicará en sectores "fundamentales".

Además, los Departamentos de Energía e Interior se encargarán de vigilar las posibles amenazas de sistemas de IA sobre infraestructuras críticas y los riesgos que pueda suponer en los campos químico, biológico, radiológico, nuclear o de ciberseguridad. La norma incluye medidas para tratar de evitar tanto la creación de "materiales biológicos peligrosos" como el fraude y el engaño mediante el uso de la IA, en este caso para etiquetar con claridad el contenido generado por la inteligencia artificial.

La orden ejecutiva también establecerá un programa para que la IA descubra y arregle vulnerabilidades del software. Finalmente se desarrollará un memorándum de seguridad nacional para el uso ético de la IA por parte de las fuerzas armadas y los servicios de inteligencia. 

Un funcionario de la Casa Blanca explicó, en una llamada con periodistas que recoge Efe, que éste es el conjunto de medidas de mayor envergadura para proteger a los estadounidenses de los riesgos potenciales de la IA. El mismo funcionario explicó que EEUU está trabajando con otros países para que haya unos compromisos multilaterales y una aproximación "armonizada" al control de la IA. Sobre esta cuestión aseguró que esta misma semana se conocerán algunos frutos y recordó que el martes la vicepresidenta, Kamala Harris, viajará al Reino Unido para una reunión sobre IA en la que dará un discurso sobre la posición estadounidense.

Mostrar comentarios