COMPARTIR | IMPRIMIR | EMAIL
La mayoría republicana del Comité Judicial de la Cámara de Representantes de Estados Unidos acaba de publicar un voluminoso “informe provisional del personal(3 de febrero), que presenta pruebas documentales de la amplia censura digital llevada a cabo por plataformas en línea bajo la supervisión de la Comisión Europea. El informe, titulado “La amenaza de la censura extranjera, parte II: La campaña europea de una década para censurar Internet a nivel global…”, es una lectura aleccionadora, que corrobora los peores temores de los críticos de la Ley de Servicios Digitales (DSA). Cabe destacar que el régimen de censura que permite la DSA debería preocupar no solo a los europeos, sino también a no europeos, ya que su efecto práctico, dados los desafíos técnicos y los costos económicos de instituir regímenes de moderación específicos para cada región, es restringir la libertad de expresión en todo el mundo y no sólo en Europa.
La DSA allanó el camino para la censura arbitraria
In este blogEl 5 de septiembre de 2023, poco después de la aplicación de la Ley de Servicios Digitales (DSA) a las plataformas en línea de gran tamaño (VLOP), advertí que «el efecto neto de la ley sería ejercer una presión casi irresistible sobre las plataformas de redes sociales para que jugaran el juego de la «contradesinformación» de forma que los auditores de la Comisión aprobaran su examen y evitaran así multas cuantiosas». Y así, según este informe, se ha cumplido.
No necesitamos leer el informe provisional del Comité Judicial de la Cámara de Representantes para entender que la redacción del Ley de servicios digitales Crea un enorme poder discrecional para la Comisión Europea en la supervisión de las políticas de moderación de contenido de las plataformas. La Ley impone a las plataformas en línea onerosas obligaciones de diligencia debida para mitigar riesgos sistémicos vagamente definidos, incluyendo riesgos relacionados con la desinformación y el impacto en el discurso cívico y los procesos electorales.
La propia Ley deja un amplio margen de interpretación sobre cómo la Comisión Europea y sus auditores evaluarán los riesgos sistémicos, como la desinformación, las amenazas al discurso cívico y la incitación al odio, y cómo evaluarán la idoneidad de las medidas de mitigación de los proveedores de servicios. Esta ambigüedad otorga a los responsables de la aplicación de la Ley un amplio margen de discreción para interpretarla a su criterio. La Comisión cuenta con facultades de investigación y ejecución en virtud de la DSA, incluida la posibilidad de imponer multas de hasta el 6 % de la facturación anual global de una plataforma por incumplimiento.
El informe de 160 páginas presenta argumentos convincentes de que la Ley de Servicios Digitales es, en efecto, la culminación de una campaña de una década para otorgar a la Comisión Europea un poder cada vez mayor sobre las políticas de moderación de contenido de las plataformas en línea. Los numerosos giros y vueltas de esta campaña, que incluye Códigos de Conducta "voluntarios" previos coordinados por las instituciones de la UE, se describen en el (reporte).
En este artículo, propongo centrarme exclusivamente en lo que el informe presenta como algunos de los frutos amargos de la Ley de Servicios Digitales, concretamente las acciones de censura llevadas a cabo bajo sus mecanismos de supervisión. El informe se centra principalmente en las interacciones entre la Comisión Europea y TikTok, y suponiendo que los documentos justificativos puedan autenticarse, nos ofrece una visión inquietante de un régimen de censura profundamente arraigado y completamente opaco para el ciudadano medio. Esto es solo la punta del iceberg. Es imposible saber qué más podría descubrirse si un investigador tuviera acceso a pruebas similares en otras plataformas como Meta, YouTube y LinkedIn.
Cómo funciona la supervisión de la DSA en la práctica
Los mecanismos de control de los funcionarios de la UE sobre las políticas de moderación de las plataformas, como se describe en el informe, comparten un patrón común: la propia Comisión Europea, o los reguladores nacionales designados bajo la DSA (conocidos como "Coordinadores de Servicios Digitales" en cada Estado Miembro), consultan a las plataformas sobre sus medidas de "mitigación de riesgos" con respecto a un tema en particular (por ejemplo, vacunas, desinformación electoral, discurso de odio o la guerra en Ucrania), ya sea en comunicaciones escritas o en persona, y solicitan documentación que detalla los pasos tomados o a punto de tomar. Las plataformas luego envían informes que describen sus esfuerzos de cumplimiento y planes para mejorar sus estrategias de mitigación de riesgos, después de lo cual la Comisión puede proporcionar retroalimentación o solicitar medidas adicionales. El informe del Comité Judicial de la Cámara de Representantes caracteriza plausiblemente muchos de estos intercambios como ejercer presión sobre las plataformas para expandir los esfuerzos de moderación con el fin de evitar posibles sanciones.

Pautas para las elecciones de 2024
Pero no se trata solo de una expansión genérica del volumen de moderación lo que está en juego en este informe: también se trata de una influencia unilateral sobre el tenor político e ideológico de las normas de moderación. Después de todo, la Comisión lleva un registro de las políticas de moderación de las grandes tecnológicas, basándose en parte en su propio ejército de...banderilleros de confianza”, a menudo extraído de ONG de izquierda, y no es neutral ideológica ni políticamente. Por lo tanto, no debería sorprender que el resultado de tal proceso sea la restricción de contenido muy crítico con las políticas y los compromisos ideológicos de la Comisión Europea, tanto de izquierda progresista como tecnocrática.
Un ejemplo de ello es el Directrices electorales Emitida por la Comisión Europea en abril de 2024, antes de las elecciones al Parlamento Europeo, instaba a las plataformas a «actualizar sus medidas de mitigación de riesgos, reducir la prominencia de la desinformación (incluida la «desinformación de género»), cooperar con verificadores de datos y desarrollar medidas destinadas a fortalecer la resiliencia frente a las narrativas de «desinformación». La Comisión invitó a Apple, Google, LinkedIn, Meta, Microsoft, Pinterest, Snapchat, Wikimedia, X y YouTube a una «mesa redonda sobre preparación electoral» y les recordó que «está supervisando activamente el cumplimiento» de las obligaciones electorales en virtud de la Ley de Seguridad Digital (DSA) y que «adoptaría medidas de cumplimiento relacionadas con las elecciones».

La función Directrices electorales no formaban parte de la Ley de Servicios Digitales ni eran una ley vinculante. De hecho, se presentaron públicamente como guías y recomendaciones en lugar de obligaciones legalmente vinculantes. Sin embargo, el informe provisional del Comité Judicial de la Cámara alega que, "a puerta cerrada", en una mesa redonda de Meta sobre las Directrices Electorales de la DSA celebrada el 1 de marzo de 2024, Prabhat Agarwal, identificado en el informe como un alto funcionario involucrado en la aplicación de la DSA, describió las Directrices como un "piso" para el cumplimiento de la DSA, afirmando que si las plataformas se desviaban de ellas, necesitarían "tener medidas alternativas que sean iguales o mejores". Por extraña que parezca tal declaración, es coherente con la noción de la DSA de una "obligación de diligencia debida" por parte de las grandes plataformas digitales de tomar medidas razonables para mitigar los riesgos de la plataforma. Si quien aplica una obligación vaga ofrece una forma infalible de satisfacerla, incluso si se presenta como una "directriz", la "directriz" se convierte en una forma atractiva de evitar ser sancionado.

Pruebas de cumplimiento de la plataforma: el caso de TikTok
¿Cumplieron las plataformas las directrices electorales de la Comisión para 2024? Según las comunicaciones internas de las plataformas y los intercambios entre plataformas y funcionarios de la UE reproducidos o resumidos en el informe, parece que al menos some Las plataformas ajustaron sus políticas en respuesta. En particular, el informe del comité afirma que TikTok informó a la Comisión Europea que había eliminado o restringido más de 45,000 contenidos identificados como «desinformación», incluyendo discursos políticos sobre temas como la migración, el cambio climático, la seguridad y la defensa, y los derechos LGBTQ+, antes de las elecciones europeas de 2024.

Un resumen ejecutivo de la actualización de las Pautas de la Comunidad de TikTok del 20 de marzo de 2024, citado en el informe, menciona "actualizaciones" a las pautas de la comunidad de TikTok, "principalmente relacionadas con el cumplimiento de la Ley de Servicios Digitales", que incluían políticas que abordaban la "marginabilidad de la expresión y el comportamiento", la "desinformación que socava la confianza en la integridad del proceso democrático" y la "tergiversación de información fidedigna, como datos científicos". El objetivo principal de estos cambios, según la propia TikTok, era cumplir con la DSA. No se trata de cambios de política determinados por criterios independientes.

Ahora bien, es bastante obvio si piensas en las nuevas políticas de TikTok lanzadas en 2024 para garantizar el cumplimiento de la DSA que pueden significar esencialmente lo que sea que want El significado que les damos. Por ejemplo, el discurso político está intrínsecamente plagado de conflictos, por lo que casi cualquier comentario hostil podría percibirse como una "marginatoria del discurso y la conducta". De igual manera, si alguien critica de buena fe la "integridad del proceso democrático", ¿está "minando la confianza" en él? ¿Y qué hay de la "tergiversación" de la "información fidedigna"? La ciencia solo puede funcionar si las supuestas afirmaciones científicas "fidedignas" no se protegen artificialmente de la crítica contundente.
Presión regulatoria sutil pero real
Es cierto que contornos específicos del régimen de censura de TikTok no fueron directamente impuesta Por la Comisión Europea. La Comisión no suele ordenar la eliminación de publicaciones específicas. Sin embargo, estas se redactaron claramente bajo la presión del régimen regulatorio de la DSA y sus responsables. TikTok, al desarrollar medidas para mitigar el riesgo con miras al cumplimiento de la DSA, tuvo que anticipar de alguna manera las opiniones de los reguladores sobre riesgos vagamente definidos como el discurso de odio, la desinformación y el daño al discurso cívico.
Ahora bien, cabe preguntarse, si estas categorías de riesgo están definidas de forma tan imprecisa, ¿cómo pudo TikTok adaptar sus políticas para que fueran aprobadas por los reguladores de la UE? La respuesta no es complicada. Cuando hay cientos de millones de dólares en juego (sanciones de hasta el 6 % de la facturación global anual de una plataforma), una empresa inteligente y con recursos suficientes se encargaría de "leer entre líneas" y descifrar las inclinaciones políticas e ideológicas de los reguladores de la UE. Podrían hacer una conjetura fundamentada sobre qué tipos de censura eran música para los oídos de la Comisión.
Por ejemplo, la Comisión se ha alineado sistemáticamente con la industria de las vacunas y con organismos sanitarios oficiales como la OMS. La Comisión representa una perspectiva ampliamente izquierdista-progresista sobre cuestiones de género, incitación al odio y medio ambiente. De igual modo, es evidente su interés en suprimir la propaganda bélica prorrusa. Así pues, aunque la DSA no incluya una lista exhaustiva de argumentos que puedan ser objeto de censura, el historial de iniciativas legislativas y declaraciones previas de la Comisión deja muy claro qué tipo de cosas consideran "riesgos sistémicos". Sin duda, estas intuiciones se afinan en las reuniones públicas y privadas con funcionarios de la UE a las que se convoca habitualmente a los ejecutivos de las plataformas.
Marcado de cuentas de TikTok eslovacas "problemáticas"
Si el informe de la Cámara es preciso, parecería que los funcionarios de la UE no dudan en intervenir directamente y pedirle a una plataforma que investigue una cuenta específica o un conjunto de cuentas consideradas "problemáticas". El informe afirma que en septiembre de 2023, cuatro días antes de las elecciones parlamentarias eslovacas, la Comisión envió a TikTok una hoja de cálculo con listas de "cuentas problemáticas de TikTok eslovaco" para su revisión. Se informa que la hoja de cálculo contenía al menos 63 cuentas, con un número de seguidores que oscilaba entre 1,000 y 120 000. Según el informe judicial de la Cámara,
El informe resumido postelectoral de TikTok señaló que, en respuesta directa a la solicitud de la Comisión, se prohibieron 19 de estas cuentas, cinco de ellas por "difundir odio". Dieciséis cuentas señaladas por la Comisión Europea no tenían ninguna infracción o tenían muy pocas, incluyendo "cuentas satíricas centradas en la política". Otras cuentas fueron incluidas en la "lista de vigilancia" de TikTok.
Enfrentamiento entre la Comisión Europea y X
Hay un gigante de las redes sociales que ha desafiado notoriamente las ambiciones regulatorias de la Comisión Europea. En mayo de 2023, X se retiró del código "voluntario" de desinformación, precursor de la Ley de Servicios de Denuncias Digitales (DSA), y aparentemente no está implementando las políticas de moderación que la Comisión ha solicitado bajo el régimen de la DSA. En consecuencia, la Comisión tiene a X en la mira. Le ha impuesto una cuantiosa multa de 120 millones de euros por incumplimiento de la Ley, aunque curiosamente, basada en lo que parecen ser delitos poco comunes, como no respetar el antiguo sistema Blue Check de Twitter o almacenar información de interés público en un formato incorrecto. Esta es la primera multa impuesta bajo la DSA.

Un informe parece corroborar los perjuicios de la DSA para la libertad de expresión
Apenas he empezado a explorar este informe. Pero espero que el patrón ya esté bastante claro: si este informe es preciso —y si las comunicaciones que cita fueron debidamente autenticadas—, entonces sugiere que la DSA está empoderando a un grupo privilegiado de funcionarios públicos para decidir, mediante elaborados mecanismos de supervisión cuya lógica es impenetrable para el ciudadano promedio, qué tipo de información y argumentación son aptas para el consumo público y cuáles nunca deben llegar a oídos de la ciudadanía.
En realidad, no necesitábamos este informe para darnos cuenta de que las élites políticas «progresistas» de la Unión Europea están construyendo una compleja maquinaria de censura multidimensional a plena vista. Eso ya queda bastante claro en el texto del... Ley de servicios digitales En sí mismo. Sin embargo, hasta ahora, nuestro conocimiento de este régimen era bastante legalista, basado más en las ramificaciones lógicas de la redacción de la DSA y los mecanismos de control que crea, que en pruebas contundentes de su aplicación.
Este informe proporciona lo que podría resultar una prueba documental bastante contundente de diversos mecanismos mediante los cuales funcionarios de la UE parecen haber utilizado la DSA para presionar a las grandes tecnológicas a restringir drásticamente la libertad de expresión política europea, so pena de sufrir importantes sanciones económicas. Además, debido a las dificultades técnicas y financieras que supone la fragmentación de las normas de las plataformas, estas restricciones se han aplicado con frecuencia, en la práctica, también fuera de Europa.
Ahora que estas acusaciones y las pruebas que las acompañan han salido a la luz, la Comisión Europea tiene la obligación de explicarse ante todos nosotros. Hasta el momento, el portavoz de asuntos digitales de la UE, Thomas Reigner, acaba de decir: «Sobre las últimas acusaciones de censura. Puro disparate. Totalmente infundado». ¿Acaso Reigner sugiere que un Comité Judicial de la Cámara de Representantes de EE. UU. inventó correos electrónicos y notas de reuniones entre funcionarios de la UE y administradores de plataformas digitales de forma totalmente ficticia?
Espero con gran interés una respuesta más seria de la Comisión Europea.
Reeditado del autor Substack
David Thunder es investigador y profesor del Instituto para la Cultura y la Sociedad de la Universidad de Navarra en Pamplona, España, y ganador de la prestigiosa beca de investigación Ramón y Cajal (2017-2021, prorrogada hasta 2023), otorgada por el gobierno español para apoyar destacadas actividades de investigación. Antes de su nombramiento en la Universidad de Navarra, ocupó varios puestos de investigación y docencia en los Estados Unidos, incluido el de profesor asistente visitante en Bucknell and Villanova, y becario de investigación posdoctoral en el Programa James Madison de la Universidad de Princeton. El Dr. Thunder obtuvo su licenciatura y maestría en filosofía en el University College Dublin y su Ph.D. en ciencias políticas en la Universidad de Notre Dame.
Ver todos los artículos