Se trata de un derecho que funciona como condición material que permite ejercer otros derechos fundamentales en el entorno digital
Aceptar sin leer. Marcar una casilla sin comprender qué implica. Firmar digitalmente un consentimiento que parece escrito en otro idioma. Cualquier ciudadano digital ha vivido la escena: una actualización interminable de términos y condiciones, una notificación administrativa críptica o un aviso sobre el tratamiento de datos personales lleno de tecnicismos. En teoría, estamos ejerciendo nuestra autonomía; en la práctica, muchas veces solo estamos pulsando aceptar para poder seguir adelante. Ahí es donde reside el debate sobre el derecho a entender, uno de los más básicos del ecosistema digital, aunque también sigue siendo uno de los más olvidados.
En 2010 saltó a los medios de comunicación un curioso experimento llevado a cabo por una tienda de videojuegos que deja claro cómo casi nadie lee o entiende las extensas condiciones que muchas veces se aceptan online. GameStation incluyó, como una broma del April Fool ‘s Day —el día de los inocentes inglés— una cláusula legal en los términos y condiciones de compra de su tienda online por la que se reservaba el derecho a exigir el «alma inmortal» de sus clientes cuando quisiera. Y lograron nada menos que 7.500 almas (el 95% de quienes compraron) que o no entendieron o no leyeron el documento.
“Cada vez resolvemos mayor cantidad de documentación a través de pantallas y en muchos casos, no somos conscientes del hecho de que ante el papel y ante la pantalla no ponemos las mismas salvaguardias, no nos ponemos en guardia del mismo modo. En general, bajamos la guardia cuando se trata de algo digital”, señala Estrella Montolío, catedrática de Lingüística y directora de la Cátedra Universidad de Barcelona (UB) para una Comunicación clara aplicada a la Administración y coatura del libro El derecho a entender (Catarata, 2020). Y es que vivimos rodeados de textos digitales que firmamos sin entender y que no son mensajes neutros: condicionan nuestras decisiones, organizan nuestras relaciones y pueden incluso determinar si accedemos —o no— a nuestros derechos.
¿Qué es el derecho a entender?
El derecho a entender no se limita a recibir información. Implica que dicha información sea comprensible, relevante y útil para quien la recibe, se trata de garantizar que a quien llega el mensaje pueda entender su significado y actuar en consecuencia. “Si el ciudadano no comprende lo que acepta, la arquitectura jurídica del sistema se convierte en una ficción”, sentencia Juan Francisco Rodríguez Ayuso, profesor de Derecho Administrativo y coordinador académico del Máster universitario de Derecho digital de la UNED.
Sin embargo, actualmente esa incomprensión es estructural. Desde los formularios de consentimiento de cookies hasta las declaraciones de privacidad, muchas plataformas, instituciones y servicios reproducen una jerga legalista y opaca que, en ocasiones, genera una asimetría de poder entre quien emite el mensaje y quien lo recibe. “La protección de datos no es sólo una cuestión técnica; es un instrumento de distribución de poder. Cuando una persona facilita datos personales, está transfiriendo capacidad de influencia sobre su esfera privada, su perfil económico, sus decisiones de consumo e, incluso, sus oportunidades vitales. Si esa cesión se produce sin comprensión real, lo que formalmente es un acto voluntario, materialmente se aproxima a una situación de asimetría estructural”, asegura Rodriguez Ayuso. Por eso, hablar de comunicación clara no es un asunto de estilo, es un problema de justicia, de igualdad de acceso y de salud democrática.
Los sesgos y la opacidad algorítmica
“Todo esto tiene que ver con comunicar de manera clara, pero hacerlo no es solo construir frases más cortas, sino analizar los mecanismos que se están poniendo en marcha para plantear alternativas que sean favorables al usuario”, señala Montolío que añade: “Son mecanismos de comunicación que están ligados a ciencias conductuales para empujarnos a no leer, a aceptar condiciones que son draconianas y que si nos las pusieran de manera clara en un documento en papel, diríamos que no”.
Estos sesgos no son solo los cognitivos propios de muchas personas —como la tendencia a aceptar por defecto o a evitar el esfuerzo de lectura—, sino que están incorporados en los sistemas digitales; interfaces diseñadas para destacar el botón de aceptar y ocultar la opción de “configurar”, formularios que dificultan el rechazo del tratamiento de datos o algoritmos que reproducen discriminaciones estructurales.
Este tipo de sesgos invisibles tienen efectos muy reales: refuerzan desigualdades, consolidan estereotipos y generan exclusión. Y lo hacen, además, bajo una apariencia de neutralidad. “Uno de los principales riesgos que veo es que muchas veces asumimos que el algoritmo es ‘bueno y justo’ y, por ello, cualquier decisión que tome será buena, y no se discute. Y ese es un gran riesgo. Asumimos que sólo hay el contenido que nos muestra el buscador, que sólo se puede hacer lo que dice la plataforma. Pero casi nunca esa es la única opción”, advierte Borja Sanz Urquijo, profesor del Departamento de Tecnologías Informáticas de la Universidad de Deusto y miembro del Observatorio del impacto social y ético de la inteligencia artificial (ODISEIA).
En este sentido, la comunicación clara también debe ser inclusiva y sensible a la diversidad: de niveles educativos, de capacidades cognitivas, de culturas, de lenguas. “El lenguaje claro no es una concesión pedagógica, sino que es una garantía de igualdad”, apunta Rodríguez Ayuso.
La importancia de la protección de datos
La protección de datos es el terreno donde esta cuestión se vuelve más evidente. El modelo europeo, articulado en torno al Reglamento General de Protección de Datos, exige que la información se proporcione en forma “concisa, transparente, inteligible y de fácil acceso”. Además, en el ámbito de decisiones automatizadas (artículo 22), el interesado tiene derecho a obtener información significativa sobre la lógica aplicada y las consecuencias previstas del tratamiento de sus datos. “Ahora bien, el debate está en el alcance de esa ‘información significativa’. Si se interpreta de forma minimalista (una explicación genérica sobre el funcionamiento del sistema), el estándar queda diluido. Si se interpreta en clave de comprensión real, nos aproximamos a un verdadero derecho a entender las decisiones que afectan a derechos o intereses legítimos”, matiza Rodríguez Ayuso.
Para Rodríguez Ayuso, “el RGPD no consagra explícitamente un derecho general a la explicación exhaustiva, pero sí impone una exigencia de inteligibilidad que puede evolucionar hacia ese reconocimiento”. Y eso es muy importante. Sanz Urquijo pone el ejemplo de las aplicaciones que permiten a las mujeres llevar el control del ciclo menstrual y cuyos datos ha requerido el gobierno de Estados Unidos en los estados en los que han ilegalizado el aborto. Un uso de datos sanitarios que probablemente no podían ni imaginar las mujeres que usaban esas aplicaciones y que adquiere relevancia en tanto en cuanto no se entienden las condiciones a las que se acceden al usar estos registros. Algo contra lo que están luchando las nuevas normativas europeas, aunque aún queda camino que recorrer para que esa inteligibilidad sea real en la práctica.
Sucede lo mismo con la Inteligencia Artificial generativa, que nos crea imágenes como si fuera un cómic, nos resuelve dudas o incluso nos da consejos sentimentales como si fuera un amigo. Algo sobre lo que previene Montolío a la que, como lingüista, aún le sorprende cómo este tipo de IA ya domina los mecanismos más sutiles del lenguaje humano, algo que ayuda a generar un vínculo. “Cada vez la conexión es más y más intensa y profunda porque no tenemos la impresión de que detrás hay una máquina, sino que parece haber un ente algo parecido a un humano porque habla como tal”, advierte Montolío, que incide en no bajar la guardia para así evitar situaciones como vender nuestras almas en un click: “El reto sería mantener siempre una prevención rigurosísima: me estoy comunicando con un ente no humano que está diseñado por humanos que tienen unos determinados intereses no necesariamente coincidentes con los míos”.
Y ante todo recordar que como ciudadanos se debe pedir a las empresas, pero también a la administración, no solo que se protejan los datos sino que también se comunique de una manera entendible. Como señala el libro El derecho a entender de Montolío y Mario Tascón: “Los organismos oficiales se están preocupando por ser transparentes, pero esta transparencia a menudo parece que tiene más que ver con el cumplimiento de la normativa legal que con la decisión de que la comunicación con las personas sea siempre clara, sencilla y eficaz. Ser transparente no significa ser claro”.
