Lunes, 30.03.2020 - 20:31 h
¿Qué sucedió en la semana, eh?
Profesor, abogado y consultor

¿Es ético el uso que hacen las líneas aéreas de nuestros datos?

Hablábamos aquí mismo la semana pasada de la Ética y los datos personales, los algoritmos, el Big Data y la Inteligencia Artificial. Y un buen amigo, experto en estos temas, me comentó que las teorías y los principios estaban muy bien, pero que había ya que empezar a ‘aterrizarlos’ y a aplicarlos a casos concretos y a dilemas actuales, que nos plantea el uso de la tecnología.

Y tiene razón, porque la Ética va de eso. No tanto de unos principios generales, que se formulan a posteriori, sino de respuestas concretas ante casos concretos. De hecho, gran parte de la ‘Teología Moral’ de la Escolástica española era fruto de los ‘casos de conciencia’ o las dudas que se les planteaban a los sacerdotes en el confesionario y que luego eran discutidos por la doctrina.

Por eso, al margen de los documentos de las empresas y de las instituciones (como el “Borrador de directrices éticas para una Inteligencia Artificial confiable” que publicó el pasado mes de diciembre el Grupo de Expertos de alto nivel sobre Inteligencia Artificial de la Comisión Europea y está sometido a consulta pública hasta el 18 de enero), sería bueno hablar de casos concretos.

Un caso de mal uso de los datos y los algoritmos

Como no conviene generalizar ni hablar de oídas, voy a poner como ejemplo un caso de mal uso -en mi opinión- de los datos personales y de los algoritmos, que he padecido en la primera semana de este año, en un viaje familiar que hicimos en avión, y que derivó después en un interesante debate en las redes sociales, pues mucha gente se sintió identificada, porque les había pasado algo parecido.

Resulta que, cuando vas a sacar las tarjetas de embarque por internet, el sistema te avisa: "No os separéis. Escoge tu asiento y el de tus acompañantes". Pero pagando, eso sí, la módica cantidad de 4€ (parece que la cantidad puede variar según la ruta). Lo cual es una muestra de cinismo, porque los miembros de una familia no ‘se’ separan, ‘los’ separa la compañía para intentar cobrarles luego 4€.

Como no pasé por el ‘aro’, porque me parecía una mala praxis comercial rayana en el chantaje, tuvimos que viajar en dos plazas juntas y en otras dos separadas. En una de ellas, un menor de edad. Y la única explicación que luego me dieron, una y otra vez, en el servicio de Atención al Cliente era que “el sistema asigna plazas aleatorias en el momento de facturación”. Echando la culpa al algoritmo.

Pero no. La culpa no es del algoritmo. La culpa es de quien programa el algoritmo para que haga una cosa u otra. La culpa es de la compañía, que decide que se programe un algoritmo para que, en vez de intentar sentar juntos a los miembros de una familia o grupo que tienen un mismo código de reserva y facturan juntos, los separe para intentar cobrarles después una cantidad si quieren viajar juntos.

Algunos usuarios argumentaban que gracias a esa medida se podía viajar más barato, pero no parece que este argumento se sostenga, porque cuesta lo mismo programar un algoritmo para que asigne asientos juntos o separados. Es más, seguramente la compañía ha tenido que programar un nuevo algoritmo, porque antes, por defecto, los asientos se asignaban juntos y se podían cambiar gratis.

Tratamiento desleal y discriminación injusta

Aparte de una mala -y poco inteligente- práctica comercial, opino que es un caso de mal uso de los datos personales de los pasajeros y de los algoritmos, porque éstos se utilizan para realizar una discriminación injusta que tiene consecuencias negativas, lo que está prohibido por la Carta de los Derechos Fundamentales de la Unión Europea y el Reglamento General de Protección de Datos (RGPD).

La Carta de los Derechos Fundamentales de la Unión Europea dice (art. 8.2) que “los datos personales se tratarán de modo leal”. Principio que también se recoge en el Reglamento General de Protección de Datos (art. 5.1.a). Y no parece que el tratamiento de los datos de un grupo de pasajeros con el fin de separarlos, para luego intentar cobrarles una cantidad si quieren viajar juntos, sea muy leal.

En cuanto a la utilización de los datos personales y de los algoritmos para realizar una discriminación, ya hemos dicho alguna vez que no siempre es ilícito, porque ‘discriminar’ no es más que ‘distinguir’. Y habrá que analizar los criterios y, sobre todo, las consecuencias de dicha discriminación, para saber si nos encontramos ante una discriminación ‘positiva’ (justa) o una discriminación ‘negativa’ (injusta).

En este caso, está claro -en mi opinión- que los datos de los pasajeros se tratan con el fin de hacer una discriminación con consecuencias negativas -y, por tanto, injusta- para ellos. Lo cual -en mi opinión- no es muy inteligente, porque lo peor no es el ‘mal tratamiento’ de los datos personales de los clientes, sino el mal trato de éstos, usando para ello sus datos personales.

¿Se imaginan que, cuando fueran a reservar unas entradas para el cine o teatro, con la idea de ir con la familia o con un grupo de amigos, el sistema les asignara asientos separados y les dijera que, si quieren sentarse juntos, tienen que pagar una cantidad extra? ¿Y que, cuando -lógicamente- protestaran, les contestaran que “el algoritmo asigna los asientos aleatoriamente”? ¿Sería ético y aceptable?

Decisiones automatizadas

Por otra parte, este tratamiento desleal de los datos y esta discriminación injusta de los clientes se realiza mediante algoritmos (decisiones automatizadas). Y el RGPD reconoce “el derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado… que produzca efectos jurídicos en él o le afecte significativamente de modo similar” (art. 22.1). Y parece que éste sí es el caso.

Incluso, cuando el tratamiento se base en el ‘consentimiento’ de los clientes (que habría que analizar si es verdaderamente libre), la compañía debe adoptar las medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos de aquéllos; como mínimo, el derecho a obtener intervención humana, a expresar su punto de vista y a impugnar la decisión automatizada. (art. 22.3)

Por último, los clientes tienen el derecho de obtener y la compañía el deber de facilitar información sobre “la existencia de decisiones automatizas y, al menos, en tales casos, información significativa sobre la lógica aplicada, así como la importancia y las consecuencias previstas de dicho tratamiento” para el cliente (arts. 13, 14 y 15). Obligación que no parece que se haya cumplido en este caso.

Temas relacionados

Ahora en Portada 

Comentarios
NOTRACKING