¿Qué sucedió en la semana, eh?

¿Son "Buenos Samaritanos" o censores?

Comisión Europea de la Digital Services Act
Comisión Europea de la Digital Services Act
EFE

La semana pasada comencé el análisis de la propuesta de la Comisión Europea de la Digital Services Act (DSA) o el Reglamento de Servicios Digitales (RSD) y ésta me gustaría continuarlo con un tema que tiene la suficiente entidad como para tratarlo aparte: la llamada “doctrina del Buen Samaritano”, en relación con la responsabilidad de las redes sociales sobre los contenidos de los usuarios.

La doctrina del Buen Samaritano se basa en la parábola del mismo nombre que utilizó Jesús para explicar el mandamiento del amor al prójimo a un experto en la Ley que le quería poner a prueba. Y se refiere a las leyes que protegen a los que atienden a heridos o enfermos, para que lo hagan sin tener miedo a ser demandados o juzgados por lesiones no intencionales o muerte por negligencia.

La aplicación de esta doctrina a la responsabilidad de las plataformas sobre los contenidos subidos por sus usuarios comenzó a hacerse en 1996 en EEUU, con la Ley de Decencia en las Comunicaciones y, aunque de una diferente forma, se aplicó también en la UE en el 2000, con la Directiva de Comercio electrónico. Ahora se debate, con la DSA, cómo y a qué tipo de contenidos se debe aplicar.

La parábola y las leyes del Buen Samaritano

Dice la parábola que: “Bajaba un hombre de Jerusalén a Jericó y cayó en manos de unos ladrones. Le quitaron la ropa, lo golpearon y se fueron, dejándolo medio muerto. (…) Pero un samaritano que iba de viaje llegó adonde estaba el hombre y, viéndolo, se compadeció de él. Se acercó, le curó las heridas con vino y aceite, y se las vendó”.

Con esta parábola, Jesús quiso explicar el deber de amar y socorrer al prójimo, aunque sea un desconocido, que tiene que ver con el deber moral de hacer por el otro lo que te gustaría que hicieran por ti, en situación de peligro o desamparo, y, en algunas legislaciones como la española, con el deber jurídico de hacerlo, hasta el punto de que la omisión del deber de socorro en un delito (art. 195 CP).

Esta parábola se aplica y entiende bien en las leyes que, por ejemplo, protegen a los socorristas o rescatadores frente a exigencias de responsabilidad civil. Pero, a mi juicio, es menos comprensible a medida que nos vamos alejando de ese supuesto y se aplica a otras actividades, como la moderación o censura de contenidos, que poco tienen que ver con salvar a alguien de un peligro inminente.

Ley de Decencia de las Comunicaciones de EEUU (1996)

La Sección 230.c) de la Ley de Decencia de las Comunicaciones de EEUU, sobre la protección para el bloqueo y filtrado de material ofensivo por parte del "buen samaritano" dice:

(1) Trato del editor o portavoz: Ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o portavoz de ninguna información proporcionada por otro proveedor de contenido de información.

(2) Responsabilidad civil: Ningún proveedor o usuario de un servicio informático interactivo será responsable por:

• cualquier acción tomada voluntariamente de buena fe para restringir el acceso o la disponibilidad del material que el proveedor o usuario considere obsceno, procaz, lascivo, sucio, excesivamente violento, acosador o de otra manera objetable, esté o no protegido constitucionalmente dicho material; o

• cualquier acción tomada para habilitar o poner a disposición de los proveedores de contenido de información u otros (usuarios) los medios técnicos para restringir el acceso al material descrito en el párrafo anterior.

Directiva europea de Comercio electrónico (2000)

El apartado (1) -exención de responsabilidad- es tan importante, que se le llama “las veintiséis palabras que crearon Internet”, porque permitieron el desarrollo de las plataformas digitales de compartición de contenidos por los usuarios.

Y es el criterio, como ya vimos en el artículo de la semana pasada, que se adoptó por la Directiva europea de comercio electrónico (2000) y por la Ley española de Servicios de la Sociedad de la Información (LSSI) y comercio electrónico (2002).

Pero, sin embargo, como también vimos, en Europa no se adoptó el apartado (2) de la Ley de Decencia de las Comunicaciones de EEUU; y la posibilidad y deber de suprimir contenidos se limitó, exclusivamente, a contenidos ilegales.

Propuesta de Reglamento de Servicios Digitales (2020)

También vimos que la propuesta de Reglamento de Servicios Digitales respeta el principio de que las plataformas digitales no son medios de comunicación con una línea editorial y no son responsables de los contenidos de los usuarios.

Y mantiene la exención de responsabilidad mientras el prestador del servicio no tenga conocimiento efectivo de que un contenido es ilegal o, en cuanto lo tenga, actúe con prontitud para retirar o impedir el acceso a dicho contenido ilegal.

Y no pierden la exención de responsabilidad por el solo hecho de “llevar a cabo investigaciones voluntarias por iniciativa propia u otras actividades destinadas a detectar, identificar y eliminar o inhabilitar el acceso a contenidos ilícitos”.

Riesgos sistémicos significativos

Pero hay algunos artículos preocupantes sobre las obligaciones adicionales para las plataformas en línea de gran tamaño para gestionar riesgos sistémicos, significativos, que van más allá de la supresión de los contenidos ilegales.

El art. 26 habla de la obligación de esas plataformas de evaluar dichos riesgos y el art. 27 de la obligación de establecer medidas de mitigación razonables, proporcionadas y eficaces.

Lo grave es que, más allá de los contenidos ilegales, se introducen conceptos jurídicos indeterminados como “manipulación intencional de su servicio, incluso mediante el uso no auténtico o la explotación automatizada del servicio” (bots).

Aunque sólo, si tiene “un efecto negativo real o previsible sobre la protección de la salud pública, los menores, el discurso cívico, o efectos reales o previsibles relacionados con los procesos electorales y seguridad pública”.

Se abre un peligroso portillo a la interpretación arbitraria, por las redes sociales o los gobiernos, de qué es una manipulación intencional con efectos negativos, reales o previsibles, y a la eliminación de contenidos, aunque no sean ilegales.

Mostrar comentarios