Esperan un acuerdo este año 

La falta de norma europea sobre IA obliga a las empresas a crear políticas propias

El Parlamento europeo sigue con las negociaciones sobre el marco jurídico que regulará el uso de la inteligencia artificial, pero la popularización de aplicaciones como ChatGPT obliga a tomar medidas para evitar malas prácticas

Gráfico Inteligencia Artificial IA portada 2x2 domingo
Las empresas crean políticas propias a la espera de la regulación europea sobre IA. 
Nerea de Bilbao (Infografía)

Como repuesta a la introducción de las herramientas de inteligencia artificial (IA) en el mundo laboral durante los últimos años, la Comisión Europea propuso en 2021 crear un marco teórico para regular el uso de estas tecnologías. Aunque la nueva normativa, que será la primera ley integral en materia de inteligencia artificial, aún se encuentra en desarrollo, muchas empresas han comenzado a tomar medidas propias para evitar los mismos problemas a los que la regulación europea intenta hacer frente.

La eurodiputada y copresidenta del Intergrupo parlamentario sobre Inteligencia artificial Pilar del Castillo afirmó el pasado jueves durante su intervención en un evento sobre el uso empresarial de la IA creativa organizado por Herbert Smith Freehills, que espera que las negociaciones entre parlamento y Estados miembro sobre el nuevo reglamento culminen en un acuerdo antes del final de este año. Estas declaraciones llegan apenas una semana después de que Nadia Calviño, vicepresidenta primera del Gobierno en funciones y ministra de Asuntos Económicos y Transformación Digital, se mostrase convencida de que el acuerdo podría llegar "en las próximas semanas".

A pesar de aplicarse a un tipo tan concreto de herramientas tecnológicas, el desarrollo de la nueva normativa ha cobrado importancia en la agenda europea por la popularidad de estos sistemas, especialmente gracias al auge en el uso que se ha visto en el último año tras la aparición de aplicaciones basadas en modelos de inteligencia artificial generativa fácilmente disponibles. Es el caso de ChatGPT, Midjourney o DALL-E. Este tipo de sistemas destacan por su capacidad para crear nuevos contenidos, como texto o imágenes, mediante procesos automatizados.

Las claves del reglamento europeo

La normativa europea busca proteger a los ciudadanos de los posibles perjuicios de la utilización de la IA, al mismo tiempo que intenta no obstaculizar el desarrollo empresarial e impulsar la innovación responsable con los ciudadanos. Para ello, se tienen en cuenta posibles riesgos sobre el medioambiente y los derechos fundamentales de los ciudadanos y se limitan los usos dañinos de este tipo de tecnologías.

El nuevo marco jurídico europeo se crea para garantizar, entre otras cosas, la igualdad social en al aplicación de la IA, controlando los sesgos que estos sistemas puedan reproducir si los datos con los que se han entrenado contienen información discriminatoria sobre género o raza, por ejemplo. La nueva regulación también impondrá algunos criterios de transparencia, para que los procesos que se hayan llevado a cabo con métodos automatizados sean fácilmente distinguibles y se puedan contrastar. Además, la defensa de la propiedad intelectual será una de las bases de la nueva ley, respondiendo a un debate que se ha reavivado por la aparición de IAs generativas en cuyo entrenamiento se utilizan textos o imágenes ajenas. Como medida de control para estos riesgos, el Parlamento Europeo ha destacado la importancia de la supervisión humana de forma complementaria al aprendizaje automático que caracteriza a la IA.

La nueva regulación también impondrá algunos criterios de transparencia, además de la defensa de la propiedad intelectual, una de las bases de la nueva normativa europea

Las normas que se están debatiendo califican los sistemas de IA en diferentes niveles según su riesgo, y establecen unas regulaciones en función de estos. Los desarrolladores de IA de uso general, que se consideran de riesgo limitado, solo deberán tener en cuenta algunos requisitos de transparencia para garantizar que el usuario es consciente de los riesgos de su uso. Los sistemas que se clasifiquen como de alto riesgo, como los de recomendación de contenidos de algunas redes sociales, estarán sometidos a evaluación antes y después de su comercialización. 

La mayoría de sistemas de identificación biométrica remota han sido prohibidos por el alto riesgo de discriminación y vulneración de la privacidad que suponen, aunque existe debate sobre las posibles excepciones en casos en los que entre en juego la seguridad ciudadana. Por otra parte, se han establecido algunas regulaciones específicas para los sistemas de IA generativa, como la obligación de identificar el contenido como generado con IA o diseñar el modelo para evitar la generación de contenidos ilegales.

Para garantizar la correcta aplicación de la nueva normativa, se ha acordado la creación de una Oficina Europea de la Inteligencia Artificial como órgano supervisor de las actividades que utilicen esta tecnología. Además, los Estados miembro deberán instaurar una autoridad propia que asegure el cumplimento de la ley a nivel nacional. España ha sido el primer país de la Unión Europea en crear esta institución, adelantándose a la entrada en vigor del reglamento al crear la Agencia Estatal de Supervisión de la Inteligencia Artificial.

Políticas empresariales para el uso de la IA

La espera para la entrada en vigor del reglamento europeo que regulará la aplicación de la IA no ha impedido que estos sistemas se empiecen a utilizar cada vez más en el ámbito empresarial, por lo que las compañías se han visto obligadas a establecer de forma más autónoma que normas de uso se deben cumplir para el uso adecuado de la IA. Frente a los posibles riesgos, las guías y políticas de uso han cobrado importancia en empresas de casi todos los sectores.

objetivos de la empresa con la IA 

  • Las malas prácticas relacionadas con el uso de aplicación tan conocidas como ChatGPT pueden conllevar daños para la reputación de la firma, o incluso tener consecuencias legales. Para evitar estas situaciones, es importante especificar una política interna que coloque en el centro a las necesidades de la empresa y sus integrantes, además de garantizar la seguridad y la transparencia, teniendo en cuenta a terceras partes y permitiendo la innovación en lugar de limitándola.

Entre los contenidos que debe incluir una normativa interna para garantizar el uso adecuado de la IA se encuentran establecer medidas para la gobernanza de datos y garantizar que se respeten los derechos de la propiedad intelectual. La política empresarial es necesaria para dejar claro que conducta se espera de los empleados, como que información de la compañía se puede procesar con sistemas de IA sin suponer un riesgo para la seguridad y la privacidad, o si el contenido obtenido con el uso de IA generativa se puede utilizar o no sin alteración. 

Además, se debe especificar a quién reportar cualquier incumplimiento de la normativa o riesgo relacionado con la IA que se detecte, así como cual será la consecuencia de estos incumplimientos. Las empresas que utilicen la IA de forma intensiva podrían beneficiarse de la implantación de una figura encargada de supervisar la aplicación de estas normas, aunque depende de los riesgos en los que se considere que se incurre al introducir la IA en la actividad laboral.

Algunas compañías valoran también la opción de desarrollar sistemas propios de IA para suplir sus necesidades sin depender de las aplicaciones de terceros. Esta decisión supone garantizar un mayor control sobre la utilización de la IA en la empresa, permitiendo adaptar el diseño de estos sistemas a las políticas de empresa y su uso esperado. Con esta inversión adicional, es posible limitar algunos de los problemas de los sistemas automatizados, evaluando los potenciales riesgos de las funciones que cumpla la IA en la empresa y tomando medidas para eliminarlos desde la fase de desarrollo de la tecnología.

Mostrar comentarios