El magnate de origen ruso Pável Dúrov, fundador y director general de Telegram, fue detenido el pasado 24 de agosto a las afueras de París en cuanto bajó las escaleras de su jet privado. Se le acusa, entre otros cargos, de complicidad en la difusión de imágenes pedófilas en la red de mensajería instantánea que dirige, muy usada para actividades criminales. Justo una semana después, el juez ordenó el cierre de X en Brasil ante el “reiterado incumplimiento de órdenes judiciales” de la red social. Su dueño, Elon Musk, se niega a bloquear perfiles que contribuyen a la “divulgación masiva de discursos nazis, racistas, fascistas, de odio y antidemocráticos”.
Estos dos golpes en la mesa son sintomáticos de un cambio de era. Durante la primera década de este siglo, las redes sociales nos fascinaron y conquistaron, hasta el punto de que más de la mitad de la humanidad (unos 4.500 millones de personas) las usan hoy a diario. Durante la segunda, crecieron hasta convertirse en gigantes empresariales y se volvieron omnipresentes, pero también empezaron a mostrar su reverso oscuro, con el escándalo de Cambridge Analytica como primer gran toque de atención. En la tercera década, se está articulando una reacción ante sus excesos.
Los casos de Telegram y X se inscriben en esta última ola. La detención del magnate de origen ruso, más allá de su poso geopolítico, lanza un mensaje a los altos ejecutivos de las empresas tecnológicas: ellos también pueden ser considerados personalmente responsables de lo que suceda en sus plataformas. El cierre de X en Brasil, por su parte, demuestra que a los gobiernos ya no les tiembla el pulso al enfrentarse a las plataformas. “Es el primer ejemplo de que los países latinoamericanos pueden decidir su propio futuro en la economía digital, abrir una nueva caja de herramientas regulatoria contra las tecnológicas y, sin alinearse con Estados Unidos o China, decidir su propio camino hacia la soberanía tecnológica”, opina Ekaitz Cancela, investigador del Internet Interdisciplinary Institute (IN3) de la Universitat Oberta de Catalunya y autor de Utopías digitales (Verso Libros, 2023).
Paloma Llaneza, abogada especializada en derecho digital, cree que estamos ante un claro cambio de tendencia: hemos pasado de no regular en absoluto a un frenesí regulatorio, “algo muy habitual en todas las revoluciones tecnológicas”. Para la jurista, el caso de las redes sociales demuestra claramente que el modelo de “dejar crecer primero y regular después” no funciona. “Yo creo que estamos viendo una nueva etapa”, coincide Rodrigo Cetina, profesor de Derecho de la Barcelona School of Management (Universitat Pompeu Fabra) y experto en redes sociales y en el ordenamiento jurídico estadounidense. “La Unión Europea está más activa que nunca y la DSA [Ley de Servicios Digitales, por sus siglas inglesas] se está comenzando a aplicar. Lo de Brasil es una señal poderosa de que algunos países no están dispuestos a tolerarlo todo”.
La respuesta a las grandes plataformas lleva tiempo gestándose. La UE ha desplegado una ambiciosa arquitectura legal que arrancó en 2018 con la entrada en vigor del Reglamento General de Protección de Datos (RGPD), una normativa que, entre otras cosas, obliga a las empresas a declarar qué información van a usar de los internautas y con qué propósito. La DSA, gestada a la vez que la Ley de Mercados Digitales (DMA) y que se aplica de forma general desde febrero de este año, establece obligaciones concretas para las plataformas digitales, como aumentar su transparencia y luchar contra la difusión de contenidos ilícitos, que deberán retirar de forma expeditiva para no ser sancionadas. En apenas medio año de andadura, la DSA ha impulsado investigaciones contra X, por sospechas de difusión de desinformación, y contra Meta, empresa matriz de Facebook e Instagram, para evaluar sus posibles efectos nocivos entre los jóvenes. También obligó a TikTok a retirar una aplicación que pagaba por el visionado de vídeos. El broche a este entramado regulatorio llegará en 2026, cuando se empiece a aplicar el Reglamento de Inteligencia Artificial (IA) aprobado este año, que fija distintos requisitos y obligaciones a las aplicaciones de IA en función de los riesgos que presenta su uso.
En EE UU, el grueso de la reacción ante la aparente impunidad de las plataformas se está conduciendo a través de los tribunales. Una serie de demandas interpuestas por familias e instituciones educativas acusan a las principales redes sociales de tener un diseño que perjudica conscientemente la salud mental y física de los menores. Paralelamente, en California entró en vigor el año pasado una ley de privacidad que se asemeja al RGPD europeo y se están tramitando otras para prohibir los deepfakes en periodos electorales y para establecer salvaguardas de cara al futuro desarrollo de modelos de IA.
También ha habido intentos de reformar la llamada Sección 230, la normativa estadounidense que exime a las tecnológicas de la responsabilidad sobre los contenidos de terceros que circulan por las plataformas. Pero no han fructificado. “Es muy difícil que haya cambios si para empezar cada partido diagnostica el problema de una manera muy distinta al otro. Para los republicanos, el problema de las redes sociales es que censuran; para los demócratas, que difunden desinformación y contenidos de odio”, apunta Cetina.
Una reacción global, pero descoordinada
¿Cuándo se activó la reacción ante las plataformas? Los primeros movimientos significativos se producen hace aproximadamente una década. 2016 es un año clave por dos motivos: se aprueba el RPGD europeo, que entraría en vigor en 2018, y Donald Trump gana contra todo pronóstico las elecciones presidenciales estadounidenses, a cuya victoria contribuye la difusión de noticias falsas en defensa de la campaña del candidato republicano.
La mecha de los cambios prendió por los propios excesos de las plataformas. Así lo cree Carissa Véliz, experta en ética aplicada a la tecnología y profesora en el Centro de Ética y Humanidades de la Universidad de Oxford. “Estamos donde estamos, principalmente, porque se han acumulado malas experiencias: desde Cambridge Analytica a los daños a adolescentes que reveló Frances Haugen, pasando por la polarización social que generan las redes. Los gobiernos están siendo capaces de poder ejercer presión a las plataformas, en parte, por el descontento de los ciudadanos, aunque también por seguridad nacional”. Lo hacen, eso sí, de forma descoordinada, lo que disminuye el ímpetu de las medidas puestas en marcha.
Este descontento en torno a las redes sociales se ha dejado notar también en uno de los tradicionales escollos legales a los que se enfrenta la UE cuando trata de influir en las grandes tecnológicas: las autoridades irlandesas. “Hay indicios de que la Comisión de Protección de Datos de Irlanda, que tiene la responsabilidad de aplicar la normativa digital comunitaria en la mayoría de empresas tecnológicas de EE UU y China que operan en la UE [por tener su sede europea en ese país], está cambiando de marcha”, asegura Johnny Ryan, director de la sección de derechos digitales del Irish Council for Civil Liberties. “La DPC utilizó recientemente un procedimiento urgente que nunca antes había empleado para impedir que X utilizara los datos de sus usuarios para entrenar su modelo de IA, y también intervino para evitar que Meta hiciera lo mismo”, abunda.
Hay otro elemento que ha contribuido a que, de repente, queramos atar en corto a las plataformas: la inteligencia artificial. “Cuando nacieron las redes sociales, hubo un debate jurídico muy interesante en torno a cómo regularlas. ¿Debían ser tratadas como un medio de comunicación o no? En caso afirmativo, se le debería exigir responsabilidad por los contenidos que publican, igual que a un periódico. Se decidió que no, y así quedó refleado en la Ley de Decencia de las Comunicaciones de EE UU, de 1996″, resume Borja Adsuara, jurista y consultor especialista en Derecho digital.
Pero las redes sociales evolucionaron y, poco a poco, los algoritmos fueron ganando peso en la ecuación. “Cuando una plataforma no es neutral, sino que recomienda unos contenidos y posterga otros con arreglo a unos criterios X, entonces está actuando con poderes editoriales, y habrá que exigirle la misma responsabilidad que a un editor”, subraya el jurista. Esa es la misma conclusión a la que han llegado muchos países.
Tecnología y geopolítica
La detención de Dúrov, reconciliado en los últimos tiempos con el mismo Vladimir Putin que le hizo vender su primera startup, vKontakte, y salir de Rusia, tiene fuertes tintes geopolíticos. No es la primera vez que este terreno se solapa con la tecnología. La vicepresidenta de Huawei e hija de su fundador, Meng Wanzhou, fue detenida en Canadá en 2018 a petición de Washington y retenida durante tres años bajo la acusación de haber violado las sanciones económicas impuestas a Irán por la potencia occidental. El suceso se inscribe en el pulso comercial mantenido en esa época entre EE UU y China, que llevó al presidente Trump a declararle la guerra a Huawei.
Los órdagos de los altos ejecutivos de las tecnológicas a los gobiernos son frecuentes. Aunque, a menudo, suelen quedarse en nada. El consejero delegado de OpenAI, Sam Altman, dijo el año pasado que los esfuerzos de la UE por regular la IA podían llevar a su compañía a irse del continente. Bruselas hizo caso omiso de la advertencia y este año aprobó el Reglamento de IA. OpenAI se quedó y Altman dice ahora que está comprometido a respetar la ley.
Pasó lo mismo años atrás, cuando se estaba gestando el RGPD, que otorga a los ciudadanos europeos el derecho a saber cómo y con qué propósito gestionan las compañías sus datos. El fundador y máximo responsable de Facebook, Mark Zuckerberg, se entrevistó con miembros del Parlamento Europeo y visitó la Comisión Europea. Amenazó con irse de Europa, al considerar excesivas las exigencias de Bruselas. El RGPD entró en vigor en 2018 y Facebook, hoy Meta, sigue aquí.
Un nuevo horizonte
Descoordinada o no, la acción de los países se está notando. Las plataformas son hoy cada vez más cuidadosas con lo que hacen. “Los activistas llevamos mucho tiempo pidiendo cambios y, paulatinamente y de forma no radical, se está empezando a avanzar en este sentido”, reconoce Simona Levy, estratega tecnopolítica y fundadora del colectivo Xnet. Acaba de publicar Digitalización democrática. Soberanía digital para las personas (Rayo Verde), en el que, entre otras cosas, reclama que las instituciones cumplan y garanticen que las grandes plataformas respeten la ley.
La UE ha desplegado un entramado jurídico que ya está empezando a aplicar. En EE UU hay normativas en marcha y juicios que también afectarán, y mucho, al devenir de las grandes plataformas. Y, como se ha visto en el caso de Brasil, los países están dejando de arrugarse ante las tecnológicas que se saltan la ley.
Los pesados engranajes del sistema empiezan a rodar. La sociedad ha reaccionado y quiere ponerle límite al lado oscuro de las plataformas, desde la difusión de desinformación y contenidos que fomenten el odio hasta su diseño adictivo y nocivo para los jóvenes. Pero, igual que 2016 marcó un punto de inflexión en esta carrera hacia la regulación, 2024 puede serlo también. Casi todo Silicon Valley, con Elon Musk a la cabeza, ha hecho su apuesta para las elecciones presidenciales estadounidenses de noviembre. Su hombre es Trump, y el candidato es muy consciente de quién le apoya.
Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.