Las tres formas en que la inteligencia artificial amenaza ya nuestro mundo

  • Un informe elaborado por expertos de varias instituciones alerta de los principales a los que nos enfrentamos con la generalización de la IA.
Estas amenazas son reales / Pixabay
Estas amenazas son reales / Pixabay

La Inteligencia Artificial (IA) genera muchas dudas entre la comunidad científica, dividida entre quienes la consideran el próximo paso lógico en la evolución humana y quienes la consideran una serie amenaza. Cierto es que aún no tenemos sirvientes robots, pero el abaratamiento progresivo de estos sistemas levanta cada vez más suspicacias.

Un nuevo informe, con el explícito título Malicious Use of Artificial Intelligence, elaborado por expertos de varias instituciones, incluida la Universidad de Cambridge y la firma de investigación OpenAI, argumenta que, en las manos equivocadas, la IA podría ser utilizada por todo tipo de terroristas y criminales.

Como apunta un artículo del Foro Económico Mundial, el informe describe tres áreas -física, digital y política- donde es más probable que se explote la IA, y describe escenarios en los que se podría usar con fines maliciosos. Estas son, según el informe, las amenazas más inmediatas:

1. Accidentes de tráfico provocados en remoto

¿Podría la IA provocar colisiones múltiples? / Pixabay
¿Podría la IA provocar colisiones múltiples? / Pixabay

Esta semana, un coche autónomo de Uber ha atropellado a una mujer en Arizona, Estados Unidos. Se trata del primer accidente mortal en el que se ve involucrado uno de estos vehículos y es, además, el primer homicidio -involuntario, a priori- de la Historia llevado a cabo por una Inteligencia Artificial compleja.

Se trata, en cualquier caso, de un error, pero el informe apunta que la IA de este tipo de vehículos se podría utilizar para realizar ataques físicos contra humanos, por ejemplo provocando grandes colisiones.

“Si múltiples robots son controlados por un solo sistema de IA ejecutado en un servidor centralizado, o si múltiples robots son controlados por sistemas idénticos de IA y se les presentan los mismos estímulos, un solo ataque también podría producir fallas simultáneas en una escala inverosímil”, apunta el informe.

2. Phishing sofisticado

Guía para prevenir convertirse en víctima de un ataque de 'phishing'
La suplantación de identidad es más sencilla con IA complejas.

Se conoce como phishing a las técnicas que sirven para suplantar la identidad de un usuario y así adquirir información confidencial de forma fraudulenta. El informe advierte que, en un futuro cercano, los intentos de acceder a información sensible y personal de un individuo podrían ser llevados a cabo por IA casi en su totalidad.

“Estos ataques pueden usar sistemas de Inteligencia Artificial para completar ciertas tareas con más éxito que cualquier humano”, asegura el informe. El robo de identidad podría volverse más refinado y efectiva a medida que la inteligencia artificial evoluciona, pues esta podría hacerse pasar por contactos reales de las personas, utilizando un estilo de escritura que imita el de estos, algo que es imposible de realizar a gran escala de forma manual.

3. Manipular a la opinión pública

trump
Trump ha sido el gran beneficiado de las 'faek news' / EFE

El uso de bots en redes sociales para difundir noticias falsas ya se extendió de forma masiva durante la campaña presidencial estadounidense de 2016. El de las fake news es, en definitiva, un problema serio, que ya está abordando con más o menos éxito los distintos gobiernos, pero que va a ir a más.

Los bots bien entrenados podrían crear una ventaja estratégica para los partidos políticos, y funcionar casi como máquinas de propaganda que minen la confianza en la sociedad, afirma el informe. Esto va más allá de la difusión de textos falsos. “Los sistemas de IA pueden producir ya imágenes sintéticas que son casi indistinguibles de las fotografías, mientras que hace solo unos años las imágenes que producían eran toscas y obviamente poco realistas”, apunta el informe.

Cómo minimizar los riesgos

En respuesta a estas amenazas, y otras muchas descritas en el informe (aunque no tan inmediatas), los expertos esbozan cuatro recomendaciones de “alto nivel”:

1. Los responsables políticos y los investigadores deben trabajar juntos cuanto antes para comprender y prepararse para el uso malicioso de la IA.

2. Si bien la IA tiene muchas aplicaciones positivas, es una tecnología de doble uso y los investigadores e ingenieros deben ser conscientes y proactivos sobre los posibles peligros de un uso indebido de sus aplicaciones.

3. Las mejores prácticas pueden y deben aprenderse de disciplinas con un historial más prolongado de manejo de riesgos de doble uso, como la seguridad informática.

4. El conjunto de grupos de interés involucrados en la prevención y mitigación de los riesgos del uso malicioso de la IA debería expandirse activamente.

Mostrar comentarios