Personajes

Las bondades y los peligros de la inteligencia artificial en tiempos de pandemia

En la era del coronavirus, una aplicación en nuestros móviles puede ayudar a salvar vidas. Pero, ¿a qué tenemos que renunciar a cambio? El experto en inteligencia artificial Giulio Toscani trata de dar respuesta a esta y otras incógnitas.

Ilustración: Del Hambre.
 

No hablamos de ciencia ficción. No lo era la expansión de una letal pandemia capaz de amenazar la supervivencia del ser humano y no lo es la utilización de la inteligencia artificial para combatirla. Es el presente: que las máquinas tomen decisiones por nosotros basadas en su cada vez más ilimitada capacidad para analizar los datos que le proporciona la realidad, por ingentes que sean. Por ceñirnos al contexto actual, ¿por qué no una aplicación en nuestros móviles, conectada de una u otra forma con todos los demás, capaz de decirnos si hemos estado cerca de una persona infectada por coronavirus, al cruzarnos en el supermercado, en el transporte público o al darle un abrazo?

El profesor Giulio Toscani es experto en inteligencia artificial, 'big data' y liderazgo estratégico, áreas sobre las que da conferencias e imparte clases en centros educativos y universidades de diversos países. A él hemos acudido en busca de respuestas. Un adelanto: esta sociedad expuesta a una sobreinformación incontrolable y volcada en pantallas para evitar interacciones incómodas, es cada vez menos empática y más inculta. 

Giulio Toscani, doctorado en Management por el Royal Institute of Technology (KTH) en Suecia y dtor. del Programa en Inteligencia Artificial para Estrategia Empresarial en ESADE.
 

Una primera pregunta básica: ¿qué es la inteligencia artificial?

Es un software, un programa de ordenador que ayuda a tomar decisiones en base a los datos disponibles. El ejemplo clásico es el ajedrez: el ordenador, en una posición concreta de las piezas, decide el siguiente movimiento. El mismo ejemplo vale también para explicar las limitaciones, porque la inteligencia artificial funciona en un sistema cerrado, en el que se conocen todas las posibles soluciones. Como en el ajedrez. Contra el cáncer, por ejemplo, donde no tenemos esa información, la inteligencia artificial no ayuda mucho.

¿De qué forma su utilización, a través de una aplicación en el móvil, puede ayudarnos a luchar contra el coronavirus?

Hay varias. Se están desarrollando apps en las que, en lugar de ceder tu identidad, cedes un código, un número anónimo que te identifica como una persona. Y, a través de bluetooth, ‘mancho’ tu teléfono con mi código. Si tú y yo nos acercamos, yo recibiré tu número dentro de mi móvil, que se quedará ahí por un tiempo. Si tú en algún momento te infectas y te haces el test, a mí me llegará una alarma y me dirá que un día estuve en contacto con un positivo, y con una señal de diferente intensidad según cuánto me acerqué a ti.

¿Entraña algún riesgo para la privacidad?

Los datos pueden ser utilizados de forma agregada o no. De manera agregada, solo nos fijamos en la cantidad, una, dos, tres o cuatro personas, y no en la calidad, si es hombre, mujer o qué edad tiene. Para mantener la privacidad utilizamos los datos de forma agregada. En este caso, yo no sé quién eres tú, solo se comparte tu código secreto si te infectas y te haces el test. Tiene muchos filtros para que no pueda saber quién eres. 

Ilustración: Del Hambre. 
 

¿Sería oportuno mantener mecanismos similares en el futuro?

Sí, lo ideal sería tener la app ya en funcionamiento, lista para ser usada ante los primeros signos de un brote. Pero la app tiene que estar acompañada de un número masivo de tests, lo que permitiría luego el rastreo a través de los móviles. Los datos almacenados de manera agregada y anónima podrían ser procesados con herramientas de inteligencia artificial tipo machine learning o unsupervised learning, lo que permitiría entender las tendencias de los contagios. Y habría que usar una única app a nivel mundial, y no una por cada país, como esta ocurriendo. No es un problema puramente médico y tecnológico, es también un problema político-estratégico: la implementación de un protocolo de inteligencia artificial universal para reducir los contagios del COVID-19 es un proyecto global.

Una frase suya: “Entregar nuestra privacidad al servicio de la inteligencia artificial nos hace más libres en un periodo de pandemia”. Pero ¿cuánta entregamos y a quién?

De momento no hay que decidir si la entregas o no; el gran avance es que se está construyendo un sistema para que nadie tenga que renunciar a su privacidad. Pero mucha gente ya cede sus datos de manera muy libre y muy fácil. Cambridge Analytica (empresa que apoyó la campaña electoral de Donald Trump accediendo de forma ilegal a datos de millones de usuarios en redes sociales) utilizaba un modelo matemático que, a través de solo 70 likes que has dado en tus redes sociales, puede saber con un 85% de exactitud tu raza y tu orientación política. Cuando buscas en Google un juguete para tu hijo, una bebida o un lugar de vacaciones, estás dando información.  

¿Cuánto porcentaje de privacidad hemos perdido ya en la era tecnológica?

Es muy individual: algunos, un 80% de lo perdible, pero hay gente que está obsesionada y solo ha perdido un 5%. Pero la privacidad hay que contextualizarla. Venimos de una sociedad en la que todo era expuesto, a la luz del día, a la vista de los vecinos... Ahora, en una gran ciudad tenemos mucha más privacidad de la que teníamos antes en el campo. Pero la obligación de compartir cosas y momentos con otras personas nos mantiene activo el músculo de la empatía. No tener que hacer cola en el banco o en correos nos permite no ejercer nuestra empatía con personas que no nos gustan y estar solo con quien nos gusta. Y esto es un problema. Porque la gente ya no ve que hay personas con otro punto de vista, y por eso la sociedad se está polarizando. Es un aspecto de la privacidad que no es bueno; a veces tenemos que estar mezclados para seguir recordándonos que hay personas muy diferentes de nosotros.

Como experto en inteligencia artificial, ¿cree que hay algún riesgo en su avance?

Sí, es una tecnología muy potente. El riesgo es cierto. Por ejemplo, imaginemos un dron dotado de un dispositivo de reconocimiento facial, que normalmente utilizamos para etiquetar fotos, cargado con un rifle buscando a una persona. Es el debate de siempre. La tecnología es buena si se usa a favor del ser humano, pero ha de haber una forma de controlar su abuso.

La misma pregunta sobre la información: ¿hay algún riesgo de que se nos vuelva en contra tanta información?

La información se nos está volviendo en contra ya desde hace tiempo. Tenemos abundancia de información. Podemos leer todos los periódicos, de cualquier tipo, de cualquier idioma, gratis. Pero, ¿con qué criterio decides qué leer? Pues empiezas a seguir patrones, personas que te inspiran, y eso incide también en la polarización. Toda esta información se ha convertido en una ilusión de información y no en una información de verdad. En lugar de ser más cultos e informados, surge el analfabetismo funcional, gente que dentro de ese mar de información ya no entiende, solo busca la confirmación de lo que ya sabía, y eso no es información.

Mostrar comentarios