Víctor Salgado, Pintos & Salgado
Hasta este 2025, el ecosistema digital contaba con dos modelos de verificación de contenidos opuestos: las notas de comunidad de X, donde el usuario es el encargado de etiquetar los bulos y denunciarlos, frente al sistema de verificación externa de Meta, con fact-checkers profesionales que comprobaban los contenidos y los moderaban. Pero el inicio del nuevo año y la toma de posesión de Donald Trump traen novedades en materia tecnológica: ahora ya solo impera el modelo implementado por Elon Musk en su plataforma, X, dentro de Estados Unidos.
Sin ser perfecto, el sistema de moderación de contenidos de Meta permitía luchar contra la desinformación y los contenidos nocivos que encontramos en las redes sociales. Y contar con procesos así es algo esencial para evitar la polarización de la esfera pública y los ataques a derechos fundamentales en la red.
La decisión no solo conlleva malas noticias en la calidad del debate democrático, sino que supone pensar que la libertad de expresión no tiene límites, cuando en realidad estos se encuentran en los derechos y libertades de los demás. Todos tenemos derecho a emitir y recibir información, pero siempre que sea veraz. Si es desinformación o contenidos falsos, la libertad de expresión no ampara a nadie, y menos si con ella se agreden los derechos fundamentales de imagen, honor y privacidad de otra persona.
Implantar un modelo de notas de la comunidad, con el usuario como principal gestor y verificador de los bulos, pervierte el objetivo último de la moderación; las plataformas tecnológicas no pueden eliminar su responsabilidad a la hora de eliminar y revisar los contenidos que se propagan en sus redes sociales.
Entre los principales riesgos que entrañan las notas de comunidad, la suplantación de usuarios mediante bots digitales, con sus ciberataques coordinados, se sitúa a la cabeza como una de las prácticas que impiden un etiquetado de calidad y una gestión eficaz.
En Europa, de hecho, el sistema de verificación de Meta continúa vigente por el enorme riesgo de incumplimiento legal de, entre otras normativas, la DSA o Ley de Servicios Digitales, que impondría sanciones económicas de gran volumen a cualquier plataforma que no tuviese mecanismos de moderación y respuesta a bulos, información dañina u otro contenido perjudicial por su fomento de odio.
DISEÑAR NUEVOS ALGORITMOS, UNA PROPUESTA DE FUTURO
Entre las claves de este problema se desarrolla una máxima: no existe un consenso claro sobre cómo gestionar adecuadamente los contenidos en redes sociales. Pero la solución precisa de acciones que vayan más allá de la verificación de lo que se vuelca en las plataformas.
El cambio ha de ser doble. Primero, necesitamos que en los espacios educativos, desde colegios a institutos y universidades, se nos instruya en el uso responsable de las tecnologías; en cómo lo que decimos en Internet tiene un impacto en los demás.
Segundo, es fundamental trabajar en el rediseño de los algoritmos de las redes sociales. Se ha establecido un modelo que pugna por nuestra atención, que busca que permanezcamos en la plataforma. Y para eso se prima, siempre, el contenido muy llamativo, que la mayor parte de las veces coincide con el más radical. Los algoritmos favorecen los mensajes más polémicos y ocultan los contenidos más sosegados. Ese es el principal problema, lo que impide obtener una solución de verdad: lo relevante es generar interacciones, incluso aunque participen personajes extremos.
Frente a esto, necesitamos nuevos algoritmos que primen y visibilicen la sensatez, la menor radicalidad, el pensamiento reflexivo. Pero supone ir en contra del interés económico de las plataformas y su modelo de negocio. Perderían nuestra atención, es cierto, pero ganaríamos como sociedad y como democracia muchísimo más.
La entrada Las redes sociales y la protección de los derechos fundamentales: un compromiso urgente más allá de la libertad de expresión se publicó primero en Lawyerpress NEWS.