OPINION

¿Está cerca el día del Apocalipsis 2.0 y la rebelión de las máquinas?

Terminator_3
Terminator_3

Las recientes palabras del físico Stephen Hawking han congelado la sangre a más de uno: "Cuando la Inteligencia Artificial esté totalmente desarrollada, puede significar el fin de la raza humana. La Inteligencia Artificial podría sencillamente autoprogramarse, evolucionar  y cambiar cada vez más rápido. Los humanos estamos limitados por la evolución a cambiar lentamente, no podríamos seguirle el ritmo ni reemplazarla (a la IA)".

La idea de que las máquinas nos van a gobernar es bastante vieja. Desde la venganza de HAL 9000 en la película "2001 una odisea en el espacio" que dirigió Stanley Kubrick, hasta Terminator 3, la rebelión de las máquinas.

Lo que es nuevo es que ese futuro está tan cerca que hay que empezar a preocuparse.

El filósofo sueco Nick Bostrom acaba de publicar Superinteligencia, un libro donde expone los riesgos que nos están acechando. Este texto habría pasado al almacén de autores olvidados  si no fuera porque lo están leyendo gente como Elon Musk y Larry Page.

¿Musk? Se le considera el sucesor de Steve Jobs por su carácter visionario y sus increíbles proyectos. Ha lanzado un súper coche eléctrico en la empresa Tesla, propone construir trenes de velocidades que quitan el hipo y tras leerse el libro de Bostrom, dijo: "Espero que nuestra especie no sea el programa de inicio de una inteligencia súper digital". A sus 1,3 millones de seguidores de Twitter dijo que la IA era peor "que la bomba atómica".

El fundador de Google, Larry Page también se leyó el libro, pero lo califica de "alarmista". Seguramente porque quiere proteger su invento, la mayor inteligencia artificial del planeta: el buscador Google. "Cuanto más cerca estemos de los resultados, más sabremos. Aprenderemos mucho de todo este proceso", dijo, citado por Der Spiegel.

Bostrom llega a decir que esta Inteligencia Artificial tomará el poder de todo, empezando por los poderes políticos, los mercados financieros y las corrientes de información y hasta los sistema de armas. ¿Cuándo? No se puede predecir, pero es cuestión de esperar y ver. Llegará un momento en que el sistema cognitivo de una supermáquina supere los límites humanos.

Con ello se construiría el sueño de 'la máquina universal de Turing", basada en un matemático inglés que en 1936 pronosticó que tarde o temprano el ser humano crearía una máquina más inteligente que cualquier humano.

¿Ciencia ficción?

Hace poco, el columnista de El País José Ignacio Torreblanca escribía sobre lo mismo, mostrando el video de Deep Mind. Es una empresa comprada por Google  y que ha desarrollado un programa muy avanzado de Inteligencia Artificial. Lo llamativo de Deep Mind es que pensaba como un ser humano, en el sentido de que se fijaba en patrones de comportamiento y trataba de adivinar los siguientes comportamientos.

A primera vista da la impresión de que solo se maneja con programas simples como videojuegos antiguos. Pero Deep Mind es capaz de trabajar luego con conceptos abstractos y copiar los patrones de cualquier mente humana.

Como dice Torreblanca, cuando el fundador de Deep Mind se dio cuenta lo que había construido, dijo que la Inteligencia Artificial se podría convertir en la amenaza número 1 del ser humano si no lo controla. Sería el Apocalipsis 2.0.

¿Podrá controlar el ser humano a algo que ya ha programado para que le haga la vida más cómoda?

Seguir a @ojomagico

Mostrar comentarios