¿Qué pasó en la semana, eh?

¿Cómo impedir el fácil acceso de los menores al 'porno' online?

Trabajando con ordenador
Trabajando con ordenador
Emprendedores

Mucho se habla últimamente del fácil acceso de los menores al porno ‘online’ y de la influencia que ello puede tener en su educación afectivo-sexual (informe '(Des)información sexual: pornografía y adolescencia', de Save the Children), en sus relaciones y en ciertos delitos contra la libertad sexual, como las violaciones ‘en manada’, cometidas en algunos casos por menores de edad.

Una de las principales novedades de la nueva Ley General de Comunicación Audiovisual, que se está tramitando actualmente en el Senado y que traspone a nuestro derecho la Directiva europea de Servicios de Comunicación Audiovisual, es extender las obligaciones de protección de los menores de edad que tienen las televisiones a las plataformas de intercambio de vídeos y las redes sociales.

Hasta tal punto es uno de los principales fines, que las palabras ‘menor/menores’ se repiten 95 veces a lo largo del texto, aparte de las palabras ‘infancia/infantil’, que se repiten otras 18 veces (curiosamente, ‘adolescencia’ sólo aparece 1 vez). Y, dentro del Título V, sobre la prestación del servicio de intercambio de vídeos a través de plataforma, se dedican dos artículos (88 y 89) a este tema.

El artículo 88 se refiere a las obligaciones y el artículo 89 regula las medidas para la protección de los usuarios, en general, y de los menores, en particular frente a ‘determinados contenidos audiovisuales’. En el caso de los menores: los programas, los vídeos generados por usuarios y las comunicaciones comerciales audiovisuales que puedan perjudicar su desarrollo físico, mental o moral.

Entre las nueve medidas que deben tomar (obligatoriamente) las plataformas de intercambio de vídeos, vamos a destacar, por razón de espacio, tan sólo tres: verificación de edad, calificación de contenidos, y resolución alternativa de conflictos (de reclamaciones presentadas por los usuarios ante las plataformas y no resueltas satisfactoriamente, obviamente, a juicio de aquéllos).

1. Verificación de edad

Las plataformas digitales tienen la obligación de “establecer y operar sistemas de verificación de edad para los usuarios, con respecto a los contenidos que puedan perjudicar el desarrollo físico, mental o moral de los menores, que, en todo caso, impidan el acceso de estos a los contenidos audiovisuales más nocivos, como la violencia gratuita o la pornografía” (art. 89.1.e).

El incumplimiento de la obligación de implantar sistemas verificación de edad por los servicios de intercambio de vídeos a través de plataforma se considera una infracción muy grave (art. 157.8, que tiene una errata y cita el art. 90.1.e). Y las infracciones muy graves se sancionan con hasta 1,5 millones de euros o el 3% de la facturación del ejercicio anterior en España (art. 160.1.a).4º).

Pero en el Proyecto de Ley sólo se prevé la obligación, la infracción (muy grave), si se incumple, y la sanción. Y no se habla del modo de cumplir esa obligación, ni de fomentar sistemas que sean eficaces y, al mismo tiempo, respetuosos con los derechos fundamentales (intimidad, pseudonimato) y los datos personales de los usuarios de las plataformas; especialmente, de los menores (art. 90).

2. Calificación de contenidos

Las plataformas de intercambio de vídeos también deberán “establecer y aplicar sistemas de fácil uso que permitan a los usuarios del servicio calificar los contenidos”; especialmente, los programas, vídeos generados por usuarios y comunicaciones comerciales audiovisuales que puedan resultar perjudiciales para el desarrollo físico, mental o moral de los menores (art. 89.1.d).

El incumplimiento de esta obligación de implantar sistemas de calificación de los contenidos por los usuarios está considerado una infracción grave (art. 158.4), y lleva aparejada una sanción de hasta un máximo de 750.000 euros o el 1,5% de la facturación (ingresos devengados) en el ejercicio inmediatamente anterior, por dicho servicio, en el mercado audiovisual español (art. 160.2.a).4º).

Pero no parece suficiente, para la protección de los menores, la obligación de las plataformas de aplicar sistemas de fácil uso para que los usuarios califiquen contenidos perjudiciales para el desarrollo físico, mental o moral de aquéllos. Se echa de menos una obligación de los productores y difusores de contenidos de etiquetar éstos conforme a un sistema adoptado por corregulación (art. 89.2).

3. Resolución alternativa de conflictos

Las plataformas de intercambio de vídeos deberán “facilitar que los usuarios, ante una reclamación presentada por ellos y no resuelta satisfactoriamente, puedan someter el conflicto a un procedimiento de resolución alternativa de litigios de consumo... Todo ello sin perjuicio de que los usuarios puedan acudir a la vía judicial que corresponda” (art. 89.1.i).

Y el incumplimiento de esta obligación también se considera infracción grave, (art. 158.4), y está sancionada con una multa hasta un máximo de 750.000 euros o el 1,5% de la facturación del ejercicio inmediatamente anterior (art. 160.a)4º). Pero se echa de menos una referencia a otros sistemas de resolución alternativa o extrajudicial de conflictos, a través de ‘órganos independientes de control’.

Dicha referencia la encontramos en el artículo 89.2 y en los artículos 12, 14 y 15, referidos a la autorregulación, la corregulación y los códigos de conducta, pero en términos ambiguos: “la autoridad audiovisual competente promoverá la autorregulación y la corregulación… estableciéndose los roles de los organismos de autorregulación y los efectos de sus decisiones… incluidas las sanciones”.

Conclusiones

1. Todos estamos de acuerdo, desde hace años, en los principios generales de protección a los menores; hace falta regular mecanismos concretos.

2. Hay que avanzar en sistemas eficaces de verificación de edad, que sean respetuosos con el derecho a la intimidad y con los datos personales.

3. Hay que desarrollar sistemas de calificación de contenidos audiovisuales, basados en la corregulación y con ayuda de la Inteligencia Artificial.

4. Hay que crear un organismo independiente de autocontrol de contenidos no publicitarios, aprovechando la experiencia de Autocontrol de la Publicidad.

5. Hay que aprovechar la Ley General de Comunicación Audiovisual para dificultar el acceso de los menores a los contenidos perjudiciales online.

Mostrar comentarios