¿Qué pasó en la semana, eh?

¿Por qué lo llaman “moderación de contenidos” cuando quieren decir “censura”?

Emprendedores redes sociales TikTok Facebook Youtube WhatsApp
Emprendedores redes sociales TikTok Facebook Youtube WhatsApp
Emprendedores

'¿Por qué lo llaman amor cuando quieren decir sexo?' es una divertida comedia española (de 1993), dirigida por Manuel Gómez Pereira y protagonizada por Verónica Forqué y Jorge Sanz, que reflexiona sobre la tendencia que tenemos los seres humanos a disfrazar las realidades más crudas con palabras bonitas, para dulcificarlas e intentar engañar a los demás, y también a nosotros mismos.

Pues algo parecido ocurre -muchas veces- en el Derecho, donde nos negamos a llamar “al pan, pan, y al vino, vino” y preferimos utilizar “eufemismos jurídicos” para ocultar, disfrazar o maquillar la realidad, porque el verdadero nombre que tendríamos que usar no es “políticamente correcto” o “jurídicamente aceptable”. Eso pasa cuando hablamos de “moderación de contenidos” en vez de “censura”.

Esta reflexión viene al hilo de la aprobación, el pasado 15 de junio, de un acuerdo provisional sobre el Reglamento europeo de Servicios Digitales (Digital Services Act, más conocido por su acrónimo DSA), que será sometido a debate y votación final en el pleno del Parlamento Europeo del próximo lunes, 4 de julio, junto con el acuerdo del Reglamento de Mercados Digitales (Digital Markets Act, o DMA).

¿Moderación de contenidos o censura?

El artículo 2, de Definiciones, del acuerdo provisional del COREPER (Comité de Representantes Permanentes de los Estados miembros) dice en su letra p) qué se debe entender por “moderación de contenidos” a los efectos del Reglamento. El texto tiene la misma redacción que la propuesta inicial de la Comisión europea, del 12 de diciembre de 2020, salvo tres pequeños añadidos, puestos en cursiva:

Empieza diciendo el art. 2.p) que “moderación de contenidos” es el conjunto de “las actividades, automatizado o no, realizadas por proveedores de servicios de intermediación (redes sociales) destinadas, en particular, a detectar, identificar y actuar contra (1) contenido ilegal o (2) información incompatible con sus términos y condiciones, proporcionados por los destinatarios del servicio” (sus usuarios).

Es decir, se rompe el régimen establecido por la Directiva europea de comercio electrónico del año 2000, que sólo permitía y obligaba a actuar a las plataformas digitales contra los contenidos ilegales de los que tuviera conocimiento efectivo. Y les da un cheque en blanco para actuar contra contenidos que, siendo legales, “sean incompatibles” o contradigan los términos y condiciones de la plataforma.

Y continúa diciendo: dicha “moderación de contenidos” puede incluir “medidas que afecten (1) a la disponibilidad, visibilidad y accesibilidad de esos contenidos, como la relegación, desmonetización, inhabilitación del acceso o eliminación de los mismos, o (2) a la capacidad de los destinatarios (usuarios) para proporcionar esos contenidos, como la cancelación o suspensión de sus cuentas”.

Es decir, que las plataformas digitales (y, en especial, las redes sociales), a partir de ahora podrán ‘censurar’ cualquier contenido (suprimiéndolo, bloqueándolo, relegándolo o desmonetizándolo) o cancelar o suprimir una cuenta de un usuario, con tal de que lo indiquen en sus términos y condiciones de uso, aunque dichos contenidos NO sean ilegales. Es decir, hablando claro: se legaliza la censura.

Restricciones en los Términos y Condiciones

La confirmación la tenemos en el art. 12 (Términos y condiciones) del texto del acuerdo provisional, que dice en su apartado 1: “Los proveedores de servicios de intermediación incluirán en sus términos y condiciones información sobre las restricciones que imponen en relación con el uso de su servicio con respecto a la información proporcionada por los destinatarios del servicio” (usuarios).

Es decir, se impone a las plataformas digitales, en general, y a las redes sociales, en particular, un deber de información de las restricciones que éstas impongan a los usuarios en relación con los contenidos que éstos publiquen o compartan. Pero, como antes dijimos, se les da un cheque en blanco a aquéllas para imponer las restricciones que quieran y para luego censurar contenidos en base a éstas.

Prosigue diciendo el art. 12.1 (con una redacción manifiestamente mejorable): “Dicha información incluirá información sobre cualquier política, procedimiento, medida y herramienta utilizada con el fin de moderar el contenido, incluida la toma de decisiones algorítmica y la revisión humana, así como las reglas de procedimiento de su sistema interno de atención de quejas”.

Y el apartado 2 dice: “Los proveedores de servicios de intermediación actuarán de manera diligente, objetiva y proporcionada al aplicar y hacer cumplir las restricciones a que se refiere el apartado 1, teniendo debidamente en cuenta los derechos e intereses legítimos de todas las partes involucradas, incluidos los derechos fundamentales aplicables de los destinatarios del servicio”.

Y cita expresamente a “la libertad de expresión, la libertad y el pluralismo de los medios de comunicación, y otros derechos y libertades fundamentales, como están consagrados en la Carta” (Europea de Derechos Fundamentales). Pero ¿qué quiere decir “teniendo debidamente en cuenta”? ¿Cómo se pueden “tener en cuenta” éstos, si se permite censurar contenidos que NO son ilegales?

Sanciones

El Artículo 42 (Sanciones) prevé en su apartado 1 que: “Los Estados miembros establecerán las normas sobre sanciones aplicables a las infracciones del presente Reglamento por los proveedores de servicios de intermediación (incluidas las redes sociales) bajo su competencia y tomará todas las medidas necesarias para garantizar su aplicación, de conformidad con el artículo 41”.

Y el apartado 3 establece: “Los Estados miembros garantizarán que el importe máximo de las multas que pueden imponerse por incumplimiento de una obligación establecida en el presente Reglamento será el 6% del volumen de negocios mundial anual del ejercicio anterior del proveedor de los servicios de intermediación de que se trate”. Imaginemos la cifra en las grandes plataformas.

Esto quiere decir que serán los gobiernos nacionales los que tengan en su mano el poder de sancionar con cuantiosas multas administrativas a las plataformas digitales, en general, y a las redes sociales, en particular, cuando consideren que no han actuado diligentemente para borrar no ya un contenido ilegal, sino incluso un contenido que NO es ilegal, pero que contradice sus términos y condiciones.

Los ciudadanos -y usuarios de las redes sociales- nos encontraremos, entonces, entre dos censuras: la censura directa de las plataformas digitales y la censura indirecta de los gobiernos; porque a éstos les valdrá con indicar a las empresas de redes sociales, por ejemplo, qué contenidos les parece que pueden tener efectos negativos, reales o previsibles, en el discurso cívico, para que se borren.

Ante esta doble amenaza de censura, los ciudadanos -y usuarios de las redes sociales- debemos defender el derecho fundamental a la libertad de expresión y reclamar organismos independientes que revisen las decisiones de censura de las plataformas digitales, de conformidad siempre con el principio de legalidad, con la posibilidad siempre de recurrir a los tribunales en los casos más graves.

Mostrar comentarios