¿Qué sucedió en la semana, eh? 

¿Pero es que nadie va a pensar en los niños?

Una persona comprando 'online' a través del móvil ASTOUND COMMERCE (Foto de ARCHIVO) 4/3/2021
¿Pero es que nadie va a pensar en los niños?. 
ASTOUND COMMERCE

Quienes sean aficionados a los Simpson habrán reconocido en el titular una de sus frases más famosas (dicha por Helen Lovejoy, la mujer del Reverendo), que ha sido utilizada en multitud de ocasiones y “memes” en las redes sociales.

Esta frase viene a cuento porque la semana pasada se publicó por fin en el BOE la esperada Ley Orgánica de protección integral a la infancia y la adolescencia frente a la violencia, que nos obliga a todos “a pensar más en los niños”.

“La ley tiene por objeto garantizar los derechos fundamentales de los niños, niñas y adolescentes a su integridad física, psíquica, psicológica y moral frente a cualquier forma de violencia, asegurando el libre desarrollo de su personalidad”.

Y dentro del Título III, que se refiere a las medidas de sensibilización, prevención y detección precoz (de la violencia contra los menores), existe un capítulo (VIII) con sólo dos artículos (45 y 46) dedicado a las nuevas tecnologías.

El artículo 45 se refiere al uso seguro y responsable de Internet y el artículo 46, al diagnóstico y control de contenidos. En las siguientes líneas me gustaría hacer un breve análisis y comentario de algunos de los puntos contenidos ellos.

Uso seguro y responsable de Internet

Comienza el artículo 45.1 diciendo, en general: “Las administraciones públicas desarrollarán campañas de educación, sensibilización y difusión (dirigidas a los niños, niñas y adolescentes, familias, educadores y otros profesionales que trabajen habitualmente con personas menores de edad) sobre el uso seguro y responsable de Internet y las tecnologías de la información y la comunicación”.

Y continúa: “Así como sobre los riesgos derivados de un uso inadecuado que puedan generar fenómenos de violencia sexual contra los niños, niñas y adolescentes como el ciberbullying, el grooming, la ciberviolencia de género o el sexting, así como el acceso y consumo de pornografía entre la población menor de edad”, haciendo un totum revolutum de cosas muy distintas.

El ‘ciberbullying’ (o ciberacoso), normalmente escolar entre menores de edad, puede considerarse un tipo de violencia (psicológica), pero no suele ser sexual. El ‘grooming’ (acoso de un mayor de edad a un menor, haciéndose pasar por un alguien de su misma edad) sí tiene un fin sexual y es un delito. Pero el ‘sexting’ (envío de ‘selfies’ eróticos) no es un delito, sino tan sólo una práctica de riesgo.

Muchas veces se confunde el ‘sexting’ (envío voluntario de imágenes íntimas) con la ‘porno-venganza’ (difusión de imágenes íntimas de otra persona sin su consentimiento), que sí es un delito. Igual que se confunde el acceso y consumo por menores de edad de pornografía (contenidos legales para adultos), que no es delito, con la producción o acceso a pornografía infantil, que sí es un delito.

Y en el artículo 45.4, se vuelve a repetir que: “Las campañas institucionales de prevención e información deben incluir entre sus objetivos la prevención

sobre contenidos digitales sexuales y/o violentos que pueden influir y ser perjudiciales para la infancia y adolescencia”. Pero mete todos los contenidos y menores en el mismo saco, y no es lo mismo la infancia que la adolescencia.

Diagnóstico (del uso seguro) y control de contenidos

El art. 46.1 establece que: “Las administraciones públicas, en el ámbito de sus competencias, deberán realizar periódicamente diagnósticos, teniendo en cuenta criterios de edad y género, sobre el uso seguro de Internet entre los niños, niñas y adolescentes y las problemáticas de riesgo asociadas, así como de las nuevas tendencias” (creemos debería haberse incluido en el art. 45).

El resto de apartados del art. 46 se refiere al control de contenidos, basado en el art. 20.4 de la Constitución, que establece que la Libertad de Expresión tiene su límite, entre otros, en la protección de la juventud y de la infancia, frente a contenidos que, siendo legales, pueden resultar perjudiciales o nocivos para su desarrollo psicológico y moral. Es la única ‘censura’ admisible.

El art. 46.2 es muy importante: “Las administraciones públicas fomentarán la colaboración con el sector privado, para la creación de entornos digitales seguros, una mayor estandarización en el uso de la clasificación por edades y el etiquetado inteligente de contenidos digitales, para conocimiento y apoyo en la evaluación y selección de tipos de contenidos, servicios y dispositivos”.

Este sistema de etiquetado inteligente de contenidos digitales, automatizable (en parte) mediante algoritmos, supervisado por expertos y reentrenable por los usuarios, debe basarse en dos elementos distintos: descriptores (información objetiva sobre los contenidos) y prescriptores (recomendaciones por edades) y debe permitir el filtrado o bloqueo de los contenidos que no se quieren ver.

Y añade: “Además, las administraciones públicas fomentarán la implementación y el uso de mecanismos de control parental que ayuden a proteger a las personas menores de edad del riesgo de exposición a contenidos y contactos nocivos, así como de los mecanismos de denuncia y bloqueo”. Y el art. 46.3 se refiere a “la puesta en marcha de protocolos de verificación de edad”.

Conclusiones

1. La Ley -en estas materias- no deja de ser voluntarista, porque simplemente apunta las políticas públicas que deben ponerse en marcha, pero no existen infracciones ni sanciones para las Administraciones Públicas, si no lo hacen.

2. Otra cosa es que, en otras leyes (Ley General de Comunicación Audiovisual), se pueden imponer obligaciones de colaboración a las empresas de internet y, especialmente, a los productores y difusores de contenidos digitales.

3. Hay que superar obligaciones muy ligeras, como la del Reglamento General de Protección de Datos (art. 8.2), que tan sólo exige “esfuerzos razonables” para verificar que el consentimiento fue dado o autorizado por el progenitor.

4. Los sistemas de etiquetado (y filtrado) inteligente de contenidos digitales no deben contemplarse sólo como protección de la infancia y la adolescencia, sino como sistemas de información al consumidor y usuario mayor de edad.

5. Son sistemas que dan información y herramientas a consumidores y usuarios para elegir lo que quieren ver ellos y lo que no quieren que vean sus hijos. Decisión que no es de las empresas de internet, porque sería censura.

Mostrar comentarios