Facebook y su problema con las cuentas falsas: elimina 3.000 millones en 6 meses

  • Aunque Mark Zuckerberg sostiene que se están corrigiendo los fallos de seguridad, las medidas adoptadas desde 2018 son reactivas, no preventivas.
El fundador de Facebook, Mark Zuckerberg, durante su comparecencia ante el comité de Energía y Comercio en Washington (EFE).
El fundador de Facebook, Mark Zuckerberg, durante su comparecencia ante el comité de Energía y Comercio en Washington (EFE).

"Mi mayor prioridad ha sido siempre conectar a la gente, nuestra misión social, conectar a la gente, crear comunidad y unir al mundo. Anunciantes y desarrolladores nunca serán una prioridad por encima de eso mientras yo dirija Facebook". Con estas palabras, Mark Zuckerberg, fundador de la red social, defendía hace un año ante el Senado de EEUU su labor contra las 'fake news', la desinformación y los fallos de seguridad, tras el escándalo de Cambridge Analytica. El problema es que, a pesar de que se están corrigiendo los fallos de seguridad, las medidas adoptadas desde 2018 son reactivas, no preventivas. Por eso, una de las más sonadas simplemente corrige el despropósito de las cuentas falsas alojadas en Facebook: la eliminación de 3.000 millones en los últimos seis meses.

Estos datos se publicaron la semana pasada como parte de la estrategia de transparencia que pretende llevar a cabo Facebook desde 2018. Por un lado, porque la falta de seguridad ha provocado una fuga masiva de usuarios de la red social -solo en los últimos dos años, 15 millones de 'millenials' han abandonado Facebook, preocupados por la privacidad de sus datos. Pero también porque desde ciertos sectores de la izquierda en EEUU se reclama más horizontalidad y servir "menos a los intereses de las corporaciones", tal y como apuntaba en marzo la candidata demócrata para la carrera presidencial de 2020, Elizabeth Warren.

En este Informe de Cumplimiento de Estándares de Contenido -el tercero anual que presenta-, Facebook ha presentado una gran cantidad de contenido censurado que aparece en su plataforma, incluyendo cuentas falsas, spam, propaganda terrorista, explotación sexual infantil, discursos de odio, intimidación, desnudos o violencia. Sin embargo, lo que no explicó la compañía en la mayoría de estas categorías es ni en qué casos actuó Facebook, ni cómo lo hizo; ni siquiera cuánto tiempo pasó entre que se detectó un contenido inapropiado y el momento en que se tomó la decisión de censurar. Tampoco se detallaba en el informe que una parte de ese contenido censurado fue posteriormente restaurado, como ha sucedido.

Uno de los principales problemas es, sin duda, la creación de cuentas y páginas para la difusión de eventos deportivos, tales como partidos de fútbol, baloncesto o carreras ciclistas o de motor. En este sentido, Facebook asegura que ha experimentado en los dos últimos trimestres un "fuerte aumento" en el número de cuentas falsas y abusivas, que en total representaron el 5% de sus usuarios activos mensuales. Aún peor: entre octubre de 2018 y marzo de 2019, la compañía eliminó 3.000 millones de cuentas falsas, casi todas a los pocos minutos de su creación.

En el informe también se incluyen ciertos datos no revelados hasta ahora sobre ciertas categorías del contenido censurado por la red social, como la explotación sexual infantil o la propaganda terrorista, los cuales supusieron el 0,03% de todas las visitas del primer trimestre de 2019, según Facebook, que afirma que detecta más de 99% de este tipo de publicaciones antes de que un solo usuario las reporte. Paralelamente, el Grupo Asesor de Transparencia de Datos -un grupo independiente que Facebook estableció el año pasado para auditar sus esfuerzos de moderación de contenido- publicaba otro informe en el que se analizan los de los procesos de revisión interna de Facebook y las métricas rastreadas con respecto al contenido prohibido.

Se trata de la respuesta de Facebook a las acusaciones de falta de transparencia: comenzó a publicar estos informes de moderación de contenido justo hace un año con el objetivo de ofrecer más información sobre cómo establece y aplica sus políticas. Pero los números incluidos en ambos informes subrayan el alcance del problema al que se enfrenta Facebook: en los primeros tres meses de 2019, la compañía actuó contra 5,4 millones de contenidos que incluían explotación sexual infantil, 4 millones de palabras de incitación al odio, 6,4 millones de propaganda terrorista y 1.760 millones de spam, entre otros.

La cuestión es que, la moderación de contenidos es una de las batallas que los usuarios llevan librando desde hace años contra Facebook: algunas de las polémicas más sonadas se han debido a que la red social ha censurado algunas imágenes de desnudos -incluso de obras de arte con desnudos representados- por considerarlos sexualmente ofensivos. Otro ejemplo son las palabras o expresiones de odio. Durante el último trimestre, por ejemplo, los usuarios de Facebook apelaron 1,1 millones de decisiones con respecto al discurso de odio, de las cuales fueron restauradas en torno a 130.000 por parte de los moderadores de Facebook. Un dato que evidencia que la compañía sigue sin tener un plan de prevención, sino meramente reactivo.

Mostrar comentarios