¿Qué sucedió en la semana, eh?

No lo crea, aunque lo vea con sus propios ojos

Putin blinda a Lukashenko con fuerzas aerotransportadas para "maniobras"
No lo crea, aunque lo vea con sus propios ojos
EFE

La pasada semana ocurrió un hecho que pasó casi desapercibido en España, pero que supone un punto de inflexión en el mundo ‘fake’ y que, sin duda, tendrá pronto réplicas en todo el mundo y consecuencias sociales, políticas y jurídicas.

Hasta hace poco debíamos tener cuidado con las ‘fake news’ o noticias falsas o bulos, con textos e incluso con fotografías falsificadas (montajes con photoshop), que a veces estaban tan bien hechas que eran muy difíciles de desenmascarar.

Luego vinieron los audios falsos (hechos con la voz y trozos de conversaciones de alguien conocido o con nuestra propia voz) y los vídeos falsos o ‘deepfakes’ (hechos con programas de reconocimiento facial e Inteligencia Artificial).

Más adelante se empezaron a instalar en algunas aplicaciones de redes sociales algunos filtros de fantasía o de belleza, para retocar la imagen del usuario, hasta el punto de que cualquier parecido con la realidad era pura coincidencia.

Pero, a partir de ahora también tendremos que dudar de las videoconferencias y de si la persona a la que estamos viendo y con la que estamos hablando en directo es, realmente, quien creemos que es.

Fiscales, moteros y políticos

Puede que recuerden el simpático caso del fiscal de un condado de Texas que el pasado mes de febrero participó por videoconferencia en una audiencia judicial con el filtro de un gatito, y las instrucciones que le dio el propio juez para quitarlo.

Puede también que hayan conocido casos de famosas ‘influencers’ que no eran como parecían; como la reciente historia, conocida en marzo de la ‘influencer’ motera que en realidad era un hombre de 50 años.

Pues bien, el caso de la semana pasada no es tan simpático ni inocuo, porque parlamentarios europeos fueron víctimas de videollamadas falsas que imitaban a la perfección a líderes de la oposición rusa.

Como informa 'The Guadian': “En los últimos días, personas que parecen estar usando filtros deepfake para imitar a las figuras de la oposición rusa durante las videollamadas se han acercado a una serie de importantes diputados europeos”.

"El Kremlin de Putin está tan débil y asustado por la fuerza de @navalny que están llevando a cabo reuniones falsas para desacreditar al equipo de Navalny", publicó Tugendhat en un tuit.

Consecuencias

Imaginemos lo que pasaría en una vista judicial telemática si, en vez de utilizar el filtro del gatito, una persona se hiciera pasar por el acusado o por un testigo. ¿Podrían detectarlo los servicios técnicos de los tribunales españoles?

O si alguien se hiciera pasar por un político o política en campaña y mantuviera una videoconferencia con un sector, o una rueda de prensa con los periodistas. ¿Dudarían acaso de la identidad de la persona a la que están viendo en directo?

Y no quiero pensar en videoconferencias entre altos mandatarios en las que se suplantara la identidad de uno de ellos (ya se hicieron en el pasado bromas por teléfono con imitadores que llegaron a hablar con presidentes).

O, yendo a un terreno más de andar por casa, ¿qué pasaría si alguien sustituyera a personajes famosos y engañase a los periodistas o colaboradores de la prensa del corazón filtrándoles información escandalosa, que ellos tomarían por buena?

Seguramente, al poco tiempo se descubriría el pastel, como ha ocurrido con los europarlamentarios y los líderes de la oposición rusa, pero no cabe duda de que podría producirse un incidente diplomático o un buen lío, judicial, político o social.

Regulación

Mucha gente dice que habría que regular las ‘fakes news’, noticias falsas o bulos, como consecuencia del derecho fundamental a recibir una información veraz. Pero no es tarea fácil porque, ¿quién decide cuándo una noticia es veraz o no?

Y una cosa es que una noticia sea verdadera, pero, como ya dijimos hace tiempo, no es lo mismo veraz que verdadero y lo contrario de información veraz no son las noticias falsas, sino falaces o falseadas; es decir, con la intención de engañar.

En todo caso, para que una mentira sea ilegal debería producir algún perjuicio: en el honor, la intimidad y la propia imagen de alguien, en su integridad moral, en el orden público, etc. Y el único que lo puede decidir eso es un Juez.

Por eso, lo importante no es regular cada tecnología que aparece (porque dicha regulación quedaría obsoleta en cuanto apareciese otra tecnología nueva), sino los usos -especialmente, los malos usos- que se pueden dar a dicha tecnología.

Y en la mayoría de los casos, esos malos usos ya están regulados, aunque en algún caso haya que retocar las leyes por las especificidades del medio utilizado, pero solo cambia la forma de comisión de ilícitos que ya existían antes.

Sesgos cognitivos

Pero el problema no es tecnológico, porque “los retos que la tecnología plantea la propia tecnología los acaba resolviendo” y, sin duda, se desarrollará tecnología capaz de distinguir los textos, fotos, audios, vídeos y videoconferencias ‘fakes’.

Tampoco es jurídico, porque en un sistema jurídico no existen ‘vacíos legales’ y se pueden aplicar leyes que no regulan tecnologías concretas, sino resultados del uso de esas tecnologías. Aparte de que se puedas incluir especificidades.

El verdadero problema de las ‘fake news’ y de las fotos, audios, vídeos y, ahora, videoconferencias ‘fakes’ son los sesgos cognitivos y, especialmente, el llamado ‘sesgo de confirmación’.

Nos creemos los bulos, simple y llanamente, porque nos los queremos creer, porque confirman nuestras ideas y no hacemos nada para contrastar y verificar el contenido (no vaya a ser que sea falso) y los redifundimos inmediatamente.

Por eso, aparte de soluciones tecnológicas y jurídicas, la única solución real al problema de los ‘fakes’ es la educación en un pensamiento crítico y un espíritu escéptico, en un método científico y una duda filosófica. Hay que dudar de todo.

Mostrar comentarios