El peor trabajo de internet: desagradable, mal pagado, pero muy numeroso

  • Todo chat, red social o medio de comunicación que permita comentarios necesita moderadores. Es un empleo cada vez más demandado, pero nada bonito
Las imágenes que deben revisarse son realmente desagradables / Pixabay
Las imágenes que deben revisarse son realmente desagradables / Pixabay
Las imágenes que deben revisarse son realmente desagradables / Pixabay
Las imágenes que deben revisarse son realmente desagradables / Pixabay

Aunque se da por hecho que las nuevas tecnologías destruirán numerosos empleos tradicionales, es evidente que crearán otros nuevos. Y uno de los que más está despuntando no parece el trabajo soñado por nadie: moderador de contenidos.

En el fondo, siempre ha existido el trabajo de censor, pero en otros tiempos su filtro era de tipo más político, y nadie se atrevía a hacer público el tipo de cosas que aparecen hoy por las redes.

“Literalmente, no había nada agradable en el trabajo”, aseguraba a The Guardian un anónimo ex moderador de Facebook. “Entrabas en el trabajo a las 9 de la mañana todas las mañanas, encendías tu ordenador y veías cómo le cortaban la cabeza a alguien. Cada día, cada minuto, eso es lo que ves. Decapitaciones”.

Otra moderadora de la conocida red social, explica en The Wall Street Journal el día a día de su trabajo: revisar en torno a 8.000 comentarios al día, que incluyen soflamas antisemitas, fotos y vídeos de animales maltratados de todas las formas posibles, y pornografía, mucha pornografía, incluida la que comparten pedófilos poco previsores en cuanto a la posibilidad de ser cazados.

Por supuesto, no se trata de un empleo exclusivo de Facebook: todo chat, red social o medio de comunicación que permita comentarios necesita moderadores. Hasta hace poco era la parte más desagradable del trabajo de los community manager, pero el volumen de contenidos que hay que moderar es tal que cada vez es más habitual contratar a personas, generalmente autónomos, para hacer esta labor.

Como aseguran Lauren Weber y Deepa Seetharaman en WSJ, decidir qué se puede colgar en internet y qué no es uno de los trabajos de más rápido crecimiento en el mundo de la tecnología, y tal vez el más agotador. Las cifras son abrumadoras: cada día se suben a YouTube el equivalente a 65 años de vídeo y Facebook recibe más de un millón de quejas de usuarios sobre contenido potencialmente censurable al día. Por no hablar de la incontable jeringonza que se genera en los millones de foros que pueblan la red.

Toda app en la que se suba contenido requiere moderadores / Pixabay
Toda app en la que se suba contenido requiere moderadores / Pixabay

Un trabajo en auge

Aunque distintos algoritmos hacen un primer filtro para detectar el contenido inapropiado de forma automática, sus decisiones distan mucho de ser fiables: pueden tachar como pornografía el David de Miguel Ángel y pasar por alto la pedofilia. Es por ello por lo que el de moderador no será un trabajo reemplazable por máquinas, al menos en el corto plazo. Y a medida que crece el contenido que se genera en internet crece también la demanda de trabajadores para cubrir estos puestos.

Según los datos recabados por WSJ, solo Facebook tendrá trabajando a 7.500 moderadores a finales de diciembre y planea contar con 20.000 personas revisando contenido y reforzando la seguridad del sitio para finales de 2018. Por su parte, Google planea tener a más de 10.000 personas moderando, sobre todo, los vídeos que se cuelgan a YouTube.

Es difícil saber cuánta gente hay trabajando ahora mismo como moderador, pero Sarah Roberts, profesora de estudios de la información de la Universidad de California en Los Ángeles, cree que la cifra tiene que superar los cientos de miles.

Por desgracia, se trata de un trabajo de baja cualificación, mal pagado y que generalmente se externaliza. Según el WSJ, los moderadores que trabajan en torno a la bahía de San Francisco –epicentro de la innovación tecnológica– cobran en torno a 13 y 28 dólares la hora. Pero en lugares como España se paga muchísimo menos.

Hoy mismo se puede encontrar en los portales de empleo español un trabajo para moderar el chat de un bingo online, en turnos de cinco horas las 24 horas del día, en el que se exige portugués nativo y una buena conexión a internet, por 9,30 euros la hora (un euro más en nocturnidad).

Las perversiones que mueven a los internautas son inagotables / Pixabay
Las perversiones que mueven a los internautas son inagotables / Pixabay

Un riesgo para la salud mental

Por lo menos, los moderadores de un chat no tienen que pasar por las experiencias traumáticas que les deparan a los que trabajan con contenidos audiovisuales. Ex moderadores de Facebook narran todo tipo de experiencias desagradables: imágenes de víctimas de guerra que mueren acribilladas, niños soldados que asesinan a sangre fría o gatos dando vueltas en el microondas.

“La violación de bebés recién nacidos es probablemente la cosa más horrible que he visto”, explicaba a The Guardian una trabajadora de la Internet Watch Foundation (IWF), una organización de Reino Unido que trabaja en colaboración con empresas como Telefónica, Apple o Google para evitar la circulación de pornografía infantil.

Dada la especial dureza del trabajo, IWF realiza un examen psicológico a sus potenciales empleados y les ofrece una formación de seis meses antes de que comiencen a trabajar, además de asistencia psicológica todos los meses. Otras compañías como Facebook también ofrecen formación (aunque solo de unos días) y terapeutas a demanda. Pero en compañías más pequeñas este tipo de programas son inexistentes.

Hay empleados que duran solo un par de días, y los que aguantan acaban perdiendo la fe en la Humanidad. Es el caso de Shaka Tafari, que trabajo moderando la app de mensajería Whisper, dirigida a estudiantes de secundaria. Como cuenta al WSJ, estaba alarmado por la enorme cantidad de referencias a la violación en los mensajes que moderaba. Pero ni siquiera tenía tiempo para meditar sobre el asunto, pues si los jefes notaban que estaba un solo minuto sin revisar contenido le llegaba un mensaje en el que le preguntaban qué estaba haciendo.

El asunto ha dado pie ya a algunos conflictos laborales. Dos empleados de Microsoft están de baja médica por revisar material explícito, sufren estrés postraumático y han demandado a la compañía por dañar su salud mental y su capacidad para ser empleados en un futuro. La compañía estadounidense asegura que obliga a los trabajadores que realizan este trabajo a tener asistencia psicológica. Pero parece que esto a veces no es suficiente.

Mostrar comentarios