•
JURÍDICAS Cuc, vol. 17 no. 1, pp. 499–556, Enero - Diciembre, 2021
Un estira y afloja: La definición de las reglas para la libre expresión en las plataformas de redes sociales
Tug of War: The definition of the rules for freedom of expression on social networks
DOI: https://doi.org/10.17981/juridcuc.17.1.2021.18
Fecha de Recepción: 2021/03/03 Fecha de Aceptación: 2021/03/26
Harvard University. Cambridge, MA (EE.UU).
rcetinapresuel@law.harvard.edu
.
Para citar este artículo:
Cetina, R. (2021). Un estira y afloja: La definición de las reglas para la libre expresión en las plataformas de redes sociales. Jurídicas CUC, 17(1), 499–556. DOI: http://dx.doi.org/10.17981/juridcuc.17.1.2021.18
.
Este trabajo estudia la regulación de la libre expresión en las redes sociales para evidenciar que existen dos tendencias encontradas. Una tendencia judicial en la Unión Europea (UE) que busca que las leyes locales sobre libertad de expresión se apliquen más allá de su jurisdicción original para así proteger más efectivamente los derechos de sus gobernados. Otra tendencia, contradictoria, también dentro de la UE, consiste en adoptar leyes que delegan la función de moderar la libertad de expresión online a las plataformas de redes sociales. Esto revela que las mismas plataformas buscan fomentar esta tendencia adoptando esquemas privados de resolución de conflictos relativos a la moderación de contenidos para legitimar sus reglas privadas y probar que son garantía suficiente para los derechos fundamentales, y evitar esfuerzos gubernamentales de adopción de regulación más estricta. Metodológicamente, el trabajo estudia ejemplos extraídos del actuar del Tribunal de Justicia de la Unión Europea, de esfuerzos legislativos de la UE, y del Facebook Oversight Board. El objetivo es analizar dichas tendencias para resaltar sus consecuencias negativas. La principal contribución del trabajo es evidenciar que estas tendencias resultan en un beneficio únicamente para las plataformas de redes sociales, que ven reforzada su posición para regular la libertad de expresión en internet a través de sus propias reglas privadas y unilaterales y para beneficio de sus intereses comerciales. Como argumentamos en nuestras conclusiones, esto va en detrimento de la libertad de expresión, que se ve sometido a reglas estándar y a una falsa universalización de este derecho.
Palabras clave: Libertad de expresión; derechos fundamentales; universalidad; internet; redes sociales; términos de uso
Abstract
This work studies the rules for freedom of expression in social networks to identify two contradicting trends. A judicial trend inside the European Union (EU) that seeks to apply local freedom of expression rules globally to better protect the rights of those who suffer infringements online. A second, contradicting trend, also within the EU, of adopting laws that delegate the enforcement of online freedom of expression to social media platforms. This reveals that social networks seek to accelerate this trend through the adoption of private schemes to solve controversies related to content moderation in an attempt to legitimize their private rules and show that they are enough to guarantee fundamental rights online and thus, fend off future governmental initiatives to impose stricter regulations on them. In terms of methodology, the work analyzes examples from the Court of Justice of the European Union, from EU legislative initiatives and from the so-called Facebook Oversight Board. The goal is to analyze those trends to highlight their negative consequences. The main contribution of this work is to show that these trends only benefit social media platforms in the sense that they allow the platforms to strengthen their position as private regulators of online freedom of expression through their own unilaterally adopted rules and for the benefit of their business model. As we argue in our conclusions, this has a negative impact on freedom of expression, which finds itself subject to these standardized rules and to a false universalization of this right.
Keywords: Freedom of expression; fundamental rights; universality; internet; social networks; community standards
Los derechos humanos siempre han encontrado las condiciones adecuadas para su protección en los sistemas legales de las naciones-estado. Este sistema de protección se construye a partir de una constitución, la norma suprema de la cual todos los poderes legalmente constituidos emanan. A partir de ahí, se establece un sistema de instituciones y leyes que proveen de los medios necesarios para proteger los derechos de los ciudadanos.
Cuando las naciones-estado entienden la necesidad de proteger los derechos humanos fuera del contexto constitucional local, se unen para crear un acquis de derecho internacional que funciona como sistema de protección internacional de los derechos humanos, entendidos como universales en tanto que son reconocidos a todos y considerados inherentes a las personas, por el hecho de serlo. Así, la Declaración Universal de los Derechos Humanos (DUDH, 1948) es un primer paso en el reconocimiento y garantía de estos derechos más allá de las fronteras nacionales. Con ello se pretende otorgar a todos, donde sea que vivan, la capacidad para ejercerlos de manera ventajosa para los individuos y para lo sociedad, aún si los mismos no son reconocidos dentro de algún país específico (Beetham, 2009).
El acquis internacional de protección de los derechos humanos se construyó a hombros de la DUDH a través de tratados internacionales como el Pacto Internacional de Derechos Civiles y Políticos (ICCPR, 1966) y otros tratados internacionales y regionales, todos ellos dotados de organismos para vigilar, proteger y promover los derechos humanos, si bien, históricamente, estos tratados no han sido efectivos a la hora de realmente articular mecanismos que aseguren su aplicabilidad directa.
Mas allá de sus limitaciones conceptuales y prácticas, y un perenne debate sobre la universalidad y el relativismo de los derechos humanos (Sheeran & Rodley, 2013), lo cierto es que los tratados sí han servido para establecer las condiciones mínimas para reconocer derechos humanos, que no es poca cosa. Pero, más allá de los deberes resultado de la adherencia a estos tratados, las constituciones nacionales han retenido el poder para definir el contorno de estos derechos dentro de su orden interno y establecer las limitaciones a estos, de acuerdo con sus contextos locales. Eso sí, los tratados internacionales han sentado los estándares mínimos para justificar la interferencia o limitación de estos derechos. El caso paradigmático, centro de este trabajo, es la libertad de expresión, que en los últimos años sufre embates en cuanto a su definición y límites en el contexto de las redes sociales, plataformas que operan sin consideración de las fronteras nacionales y la jurisdicción, y además buscan adoptar sus propias reglas privadas para la gobernanza de la expresión dentro de sus entornos.
En este sentido, la disrupción causada por la irrupción y crecimiento de empresas basadas en las tecnologías de la información y comunicación como Facebook, Google o Amazon, entre otras, ha llevado a distintas reacciones por parte de las naciones-estado, en cuanto a su regulación y gobernanza. Estas reacciones tienden a coincidir con una u otra visión nacional en torno a las libertades personales y los derechos económicos y suelen estar matizadas por la percepción de los beneficios para la economía que estas plataformas pueden significar mediante la generación de rentas, nuevas oportunidades de mercado y empleo, en contraste con el impacto que sus acciones tienen para los derechos de los ciudadanos.
Por ejemplo, los Estados Unidos (EE.UU), de donde provienen la mayoría de las grandes plataformas de redes sociales, ha intentado imponer su lógica sobre como ha de regularse Internet. Dicha lógica se justifica en un elemento histórico/político: el deseo del gobierno americano por procurar la expansión y dominación mundial —en términos económicos y de mercado— de sus empresas nacionales. Vemos entonces una convergencia entre un modelo constitucional en el que el estado federal busca tener presencia mínima y busca poner el máximo énfasis en las libertades personales, como es el caso de la libertad de expresión definida en la Primera Enmienda de su Constitución (Const., 1787) como una libertad que el gobierno no puede coartar (si bien esto admite matices pues no es una libertad absoluta).
Este énfasis en la libertad personal aunado a impulsar un mercado fuerte que tenga las condiciones para establecer su dominio se refleja de lleno en la ahora muy discutida Communications Decency Act (CDA, 1996, § 230) que establece reglas para eximir de responsabilidades a las plataformas de internet por el contenido de sus usuarios y para dar a estas empresas privadas todo el poder para regular los contenidos que por ella circulan. La sección 230, se dice, ha dado lugar al internet como hoy lo conocemos (Koseff, 2019), teniendo efectos profundos a la hora de moldear los derechos de los ciudadanos y las leyes que gobiernan sus interacciones online (Franks, 2020). De hecho, la ideología de un mercado libre aplicada a Internet está codificada en otra parte de este Communictions Decency Act, (CDA, 1996, § 509), que reconoce a internet como foro que permite la verdadera diversidad en el discurso político y afirma que proporciona oportunidades únicas para el desarrollo cultural y el intelecto, gracias, precisamente, a una regulación mínima por parte del Estado, determinando que las políticas de EE.UU. han de impulsar un mercado libre, vibrante y competitivo en Internet.
Tomando este escenario de supremacía económica y mínima regulación, este artículo busca analizar dicho contexto, desde el punto de vista jurídico, poniéndolo en contraste con las acciones de otras naciones-estado y regiones del mundo y dilucidar cómo están reaccionando ante los embrollos jurisdiccionales en la protección de derechos a los que las plataformas de redes sociales les someten. Se ha decidido poner el foco en la Unión Europea (UE) pues se considera que es una oportunidad única de estudio al ser una región con 27 legislaciones distintas sobre libertad de expresión (constituciones más leyes secundarias) que han de interactuar como parte de una unión supranacional que cuenta con sus propios instrumentos comunes de reconocimiento y protección de derechos fundamentales, equipados además de cortes nacionales y supranacionales para su interpretación y defensa. Esto se debe también a lo relativamente joven de las constituciones europeas y a la naturaleza propia de la Unión Europea y sus competencias. Creemos que de este estudio se pueden extraer lecciones importantes para otras regiones del mundo, incluidos los países latinoamericanos que enfrentan y enfrentarán problemas similares en las cortes nacionales y también a través de la Corte Interamericana de Derechos Humanos (CorteIDH).
Las lecciones a aprender se construyen a través de una aproximación a lo que la UE ha hecho en los últimos años, ilustrado a través del trabajo del Tribunal de Justicia de la Unión Europea (TJUE), y del trabajo legislativo cristalizado en Directivas y en Regulaciones propuestas. Los tres ejemplos permitirán apuntar cuáles son las dificultades a la hora de intentar gobernar y adjudicar la libertad de expresión en el contexto de las redes sociales que actúan más allá de las fronteras nacionales y cómo se aplican las leyes nacionales. Esto servirá también para ilustrar que la UE no es consistente en su accionar.
Analizar estos ejemplos también nos servirá para evidenciar la tensión existente entre las metas de las plataformas de redes sociales y las del Estado en cuanto a la protección de derechos fundamentales y la moderación de contenidos online se refiere. Pero también nos servirá para apuntar como las autoridades europeas se alían con estas plataformas cuando esto resulta útil, a pesar de estas tensiones. También nos ayudará a demostrar que las plataformas se sienten cómodas con este tipo de esquemas, pues al final les ayuda a solidificar el poder para decidir lo que sucede en sus ámbitos privados. Prueba de ello son los intentos de legitimación de sistemas privados de moderación y adjudicación de derechos, a los que nos referimos un poco más adelante.
Este trabajo sostiene la hipótesis de que la reacción de la UE a las redes sociales puede llevar a una imposición de ciertas normas nacionales o regionales de regulación de la libertad de expresión por encima de otras, decidiendo cuál ha de tener supremacía más por poder e influencia, y por efectos colaterales que por verdadera aceptación o acuerdo. Esto beneficia, sobre todo, a las empresas que controlan las redes sociales, que buscan reglas estandarizadas, que no universales, para poder moderar efectivamente los contenidos online en la forma que sea más eficiente para ayudarles a alcanzar sus metas comerciales y de expansión económica, dejando a derechos como la libertad de expresión en un segundo plano.
Facebook ofrece un ejemplo claro sobre cómo las redes sociales están apostando por estructuras privadas de adjudicación de derechos. Este es el caso del Facebook Oversight Board (FOB) que pretende actuar como un tribunal constitucional (pero que, por supuesto, no lo es) teniendo la pretensión de establecer lineamientos a la hora de tomar decisiones sobre la moderación de contenidos, e incluso la aspiración de que en el futuro, cortes y tribunales citarán esos lineamientos como si fueran precedente (Klonick, 2021). La siguiente hipótesis que sostenemos es que más allá de ser un ejercicio de relaciones públicas —pues jugar a la corte suprema intenta ofrecer garantías sobre las decisiones tomadas— el FOB es un intento por validar reglas estándar privadas para la moderación de contenidos y así persuadir a todas las partes involucradas que dichas reglas han de aplicarse mundialmente para la gobernanza de la red social.
Todo esto nos lleva a argumentar que validar aproximaciones que promueven la aplicación de leyes nacionales más allá de sus jurisdicciones originales o que promueven el uso de reglas privadas como el medio para unificar criterios y leyes dispares sobre qué expresiones están permitida o prohibidas en el entorno de las redes sociales representan un paso hacia una estandarización de la libertad de expresión y no hacia su universalidad, la tesis principal de este artículo. La universalidad implica acuerdo y aceptación de una serie de reglas por todos, pero obtenida a través del diálogo y siguiendo las avenidas legales tradicionales que pueden llevar hacia ella, como la interpretación judicial, el derecho comparado o las disposiciones en tratados internacionales que permiten y regulan las interacciones entre los estados. La universalidad en ningún caso implica uniformidad, deja espacio para que las leyes respondan a sus contextos locales. En cambio, la estandarización busca solamente reglas privadas eficientes que permitan a las plataformas de redes sociales moderar contenidos de tal forma que allanen el camino para la consecución de sus fines comerciales, su principal objetivo.
Como resultado del análisis, en la discusión, y luego en las conclusiones, se podrá argumentar que tanto dentro como fuera de la UE, la adopción de las medidas que actualmente podemos observar marca una tendencia que puede tener consecuencias negativas para el ejercicio de la libertad de expresión online y para la libre circulación de ideas e información en todo el mundo.
En la discusión se examinara con más detalle la tendencia que ciertos ejemplos seleccionados muestran: el papel de las plataformas en cuanto a su incidencia en el ejercicio de la libertad de expresión en Internet es cada vez mayor. Las decisiones legislativas y judiciales están llevando, progresivamente, hacia un lugar en el que se vuelven aliados, quizás cómplices, de las naciones-estado, y no sus súbditos, a la hora de establecer las reglas para la expresión en línea y decidir qué contenidos están permitidos y cuales no. Al mismo tiempo, las redes sociales están reaccionando mediante una transición más rápida hacia procesos de adjudicación de derechos con instrumentos privados, buscando profundizar una estandarización en las reglas. Esto levanta serias preocupaciones en cuanto a la garantía del debido proceso, la transparencia y la rendición de cuentas respecto de estas acciones, contrapesos necesarios para un ejercicio adecuado de los derechos fundamentales.
Si bien no es un documento vinculante, la influencia de la DUDH no deja lugar a dudas (Van Boven, 1977, Kartashkin, 1979, Van Boven, 1979, Humphrey, 1979, Brems, 2001). La Declaración ha servido como guía para interpretar el derecho nacional y es considerada parte del derecho internacional consuetudinario (Hannum, 1995) y por lo tanto fuente del derecho internacional de los derechos humanos (Mejía, 2017). Así, puede ser directamente vinculada con múltiples tratados internacionales y nacionales, así como a diversas constituciones nacionales (Schwelb, 1959). La DUDH sirve como ejemplo de un compromiso internacional con los valores subyacentes en ella, y con los derechos que la misma establece, incluyendo derechos como la libertad de expresión, entendida también de forma poliédrica o multifacética como derechos comunicativos o libertades informativas (Corredoira, 2007).
Estos derechos comunicativos han sido concebidos como universales en cuanto al sujeto —se reconocen a todas las personas— en el contenido de sus mensajes —implican la libertad para expresar información, opiniones e ideas—; y en el medio o medios utilizados para transmitir los mensajes —por cualquier medio de expresión— (Corredoira, 2007). También se dice, estos derechos son reconocidos a toda persona más allá de las fronteras (Paust, 1982) implicando que existe un derecho a intercambiar información más allá de las fronteras nacionales (Kessler, 1985, Price, 2003).
En las democracias constitucionales, la liberta de expresión es considerada como un derecho esencial directamente ligado con la habilidad de los ciudadanos para vivir y participar de la vida en una sociedad moderna (Barata & Bassini, 2016). Se entiende que la libertad de expresión promueve la soberanía personal, el desarrollo individual y la autorrealización (Schauer, 1982, Howie, 2018), basándose en el respeto y la igualdad (Abad, 2021), y sirviendo para promover el buen funcionamiento de la democracia (Barendt, 2005; Howie, 2018), y los principios de una sociedad libre en la que una pluralidad de voces pueden participar (Habermas 1991, Calhoun, 1992, Habermas, 1996); de tal forma que dicha participación libre desemboca en el desarrollo de la sociedad a través de la discusión que lleva a la participación informada y a una mayor capacidad para tomar las decisiones adecuadas.
Ahora bien, si se entiende que la libertad de expresión es un derecho que se debe reconocer universalmente, a toda persona, una universalidad absoluta —es decir, que se reconozca exactamente igual en todo el mundo— no solo tal vez no sea posible, sino que tampoco es necesariamente deseable (Ugland, 2021).
Por lo menos en las democracias constitucionales, se entiende que la libertad de expresión está anclada en valores universales que justifican su existencia. Los derechos comunicativos, además, están generalizadamente aceptados como derechos positivos que tienen por fin crear un espacio para la expresión plural, asegurando que la comunicación en sociedad suceda con tan poca interferencia gubernamental como sea posible, y que cuando esta interferencia se de, este justificada por fines legítimos.
Es aquí en donde la universalización total quizás no sea deseable, ni tampoco posible como hemos dicho antes. La misma DUDH evidencia esto al no ofrecer lineamiento alguno acerca de cuáles son los límites justificables de la libertad de expresión y cómo se ha de tratar cuando entra en conflicto con los derechos de terceros. En general, los tratados internacionales sobre libertad expresión se centran en establecer las condiciones mínimas que las limitaciones legales al derecho deben cumplir para poder ser consideradas válidas, pero guardan silencio sobre límites específicos y sobre cuánta discrecionalidad tienen los estados para decidir la manera en que dichos límites serán implementados de la manera que mejor se ajuste al contexto local (Keller, 2011).
Así, por ejemplo, el Convenio Europeo para la Protección de los Derechos Humanos y de las Libertades Fundamentales (CEDH, 1953) permite a los estados firmantes un “margen de apreciación” a la hora de implementar las obligaciones adquiridas (Keller, 2011). Entonces, hasta qué punto la libertad de expresión puede ser sujeta a limitaciones y como han de decidir las cortes y tribunales hasta qué punto dichos límites son constitucionales puede variar de estado a estado.
El ICCPR (1996, art. 19) establece expresamente que la libertad de expresión implica deberes especiales que la hacen sujeta a restricciones legalmente establecidas, a las necesarias para proteger los derechos y reputación de terceros, y para la protección de la seguridad nacional, el orden público, la salud o la moral públicas. Más allá de estas condiciones, se observa variación en los ordenamientos nacionales de todo el mundo, pues el ICCPR habla de las reglas del juego, de los estándares mínimos que se han de cumplir bajo las obligaciones de derecho internacional.
En internet, donde la tecnología posibilita la comunicación casi instantánea y sin fronteras, las diferencias de las que hablamos crean problemas. Una gran parte de la comunicación online se da en plataformas de redes sociales y estas plataformas suelen operar de manera trasnacional, por lo que los contenidos compartidos en ellas están disponibles en distintos territorios al mismo tiempo. Así, internet ha propiciado la interconexión entre sistemas legales y de una intensidad nunca vista (Basedow, 2015), particularmente a través de esas tecnologías digitales que posibilitan que la expresión individual se haga, si no sin limitación de fronteras, por lo menos a pesar de ellas (Badiou, 2003, Antweiler, 2016).
Una de las características que distinguen a las plataformas de redes sociales es que son empresas privadas que ejercen el poder para controlar lo que puede ser comunicado en ellas. Esta moderación es llevada a cabo a través de intervención humana o a través de algoritmos, pero siguiendo reglas privadas creadas y adoptadas unilateralmente por las empresas, y que todo usuario ha de aceptar a través de un contrato de adhesión si desea usar estos servicios.
Las plataformas han desarrollado reglas que les permiten moderar contenidos y eliminar aquellos que no consideren aceptable. Lo hacen siempre condicionadas por su meta como empresas privadas, la obtención de beneficios económicos. En general, estas empresas obtienen beneficios mediante la venta de espacio a anunciantes y la comercialización de datos privados y perfiles basados en la recogida y proceso de los datos de sus usuarios. Para ello necesitan usuarios conectados el mayor tiempo posible y que compartan e interactúen con la mayor cantidad de contenidos posibles.
Si bien las plataformas pueden demostrar un compromiso con la libertad de expresión, este siempre estará condicionado por la necesidad de hacer dinero (Gillespie, 2018). Su meta, al diseñar sus políticas de gobernanza privadas, es encontrar las reglas que permitan ofrecer a los usuarios un servicio atractivo que les impulse a usar las plataformas (Suzor, 2019). Al mismo tiempo también buscan evitar que los gobiernos les castiguen por censurar demasiado o por no moderar contenidos que sean ilegales, lo que puede resultar en sanciones económicas que pueden erosionar sus beneficios, además de generar repudio social y gubernamental. Buscan asegurar que sus reglas privadas cumplan con la legislación de tantos ordenamientos legales como sea posible y que estas puedan hacerse cumplir mediante una combinación de moderación humana y tecnológica de tal manera que se pueda controlar la expresión para evitar responsabilidades por lo que sus usuarios expresan en ellas. Pero, al fin y al cabo, lo que buscan con esta estrategia es proteger sus ganancias (Franks, 2019).
Las plataformas se sienten legitimadas para desarrollar, adoptar y hacer cumplir sus propias reglas unilateralmente, en gran parte porque surgieron en el contexto del capitalismo liberal que animó el desarrollo de Internet en el siglo XX, al que ya hemos hecho alusión. Se han desarrollado en un contexto basado en la visión americana de cómo ha de regularse internet, contextualizado así mismo por la Primera Enmienda de su constitución y leyes secundarias como la Sección 230 que hemos también referenciado.
Dicho contexto, aunado a las metas comerciales de las plataformas es lo que las lleva a buscar que sus reglas se vuelvan, en la medida de lo posible, un estándar para regular la expresión en todo el mundo. Con ello buscan sirvan como herramienta para la moderación de contenidos más que para promover la libre expresión. Así, buscan reglas estandarizadas, no la promoción de valores universales asociados a los derechos comunicativos.
Los críticos de estas empresas argumentan que tienen demasiado poder y que cualquiera que tiene el poder para controlar un estándar de interconexión y transformarlo en poder para dictar cuales han de ser las políticas que controlan otros aspectos —como puede ser la libertad de expresión— no son deseables (Cohen, 2019). La estandarización1 de las reglas que gobiernan la expresión en estas plataformas da demasiado poder a las empresas privadas sobre derechos fundamentales, de importancia superior a las metas de la empresa. Aún si esta estandarización puede ayudar a la moderación de contenidos indeseables como el discurso del odio, los abusos u otros, hemos de tener presente que el poder monopólico sobre el discurso público puede ser pernicioso aún si se ejercita para fines ostensiblemente beneficiosos (Douek, 2020).
Como veremos, más allá de las redes sociales, las leyes que gobiernan la libertad de expresión y establecen sus límites son definidas en las constituciones y leyes nacionales, y por jueces y tribunales siempre limitados por su jurisdicción. Así, los países afrontan el reto de definir, en un contexto de comunicación casi instantánea y transfronterizo, qué leyes han de aplicar a cada caso y si los efectos de las órdenes judiciales que mandan la retirada de contenidos han de aplicarse solo en un territorio en específico o si dicha aplicación ha de ser global para así poder proteger efectivamente los derechos de terceros.
Estos límites jurisdiccionales van a entrar en conflicto con las reglas estandarizadas que las redes sociales buscan aplicar, en particular cuando dichas reglas pueden llevar a la imposición de restricciones a la libertad de expresión que puede ser aceptables de acuerdo con la legislación de un país, pero no de otros. Esto también puede llevar a que la aplicación de las reglas privadas sea desproporcionada y potencialmente inconstitucional, lo que puede dar lugar además a la censura previa y la censura colateral (Balkin, 2018). Las tensiones entre plataformas y gobiernos surgirán puesto que, aunque las plataformas tengan poder para definir sus propias reglas, siempre habrán de atenerse a lo que dispongan las leyes y tribunales de aquellos países en los que operan.
Los estados se han dado cuenta que necesitan expandir el ámbito de aplicación de sus leyes para que estas tengan verdadero efecto (Aswad, 2016, Rosati, 2019, Suzor, 2019) y así proteger los derechos de sus ciudadanos dentro de sus propias jurisdicciones. Para resolver los problemas jurisdiccionales relacionados con la libertad de expresión, como veremos, las naciones parecen estar comenzando a interpretar sus leyes de tal manera que la aplicación más allá de sus fronteras nacionales sea posible, buscando así que las interpretaciones judiciales les permitan coaccionar a los que controlan la infraestructura digital para regular la expresión de los ciudadanos (Balkin, 2018). Con esto, los estados buscan navegar las complejidades que las competencias nacionales y supranacionales representan valiéndose de las estructuras y reglas privadas que las plataformas han creado y adoptado. Las plataformas por supuesto, se muestran dispuestas a cooperar para así evitar responsabilidades, pero también para evitar que el poder regulatorio de los estados se expanda en formas que no sean conducentes para su negocio.
Las redes sociales están reaccionando con una transición aún más pronunciada hacia procesos de adjudicación de derechos con instrumentos privados, buscando profundizar una estandarización en las reglas y al mismo tiempo la legitimación de sus esfuerzos privados de moderación. Esto puede deberse a que las plataformas se sienten cómodas con los modelos legales que alientan la delegación del poder de moderación en estas, es decir, buscan mantener el status quo y evitar que el viento de la regulación sople en otra dirección, quizás incierta, y por lo tanto no necesariamente conducente a sus intereses.
Así, tenemos que, por un lado, las naciones-estado reaccionan a la coyuntura actual o buscando la expansión de la aplicación de sus leyes que rigen límites a la libertad de expresión más allá de sus jurisdicciones nacionales, o bien buscando aprovechar la infraestructura privada, tanto técnica como regulatoria, de estas plataformas para salvar los posibles conflictos jurisdiccionales. Por el otro, las plataformas, reaccionan a su vez buscando legitimar sus sistemas de decisiones para mantener el poder y evitar regulación que pueda cambiar el status quo que entienden, beneficia a sus propios intereses.
Este trabajo se centra en analizar específicamente la manera en que la Unión Europea está navegando los retos que las plataformas de redes sociales plantean en relación a como la libertad de expresión se garantiza, y limita, en el contexto online. Para ello, se han seleccionado tres ejemplos que sirven para ilustrar la manifestación de esta respuesta en la actuación judicial —a través del análisis de jurisprudencia reciente— y legislativa, a través del análisis de una Directiva y una Regulación europeas, cubriendo así los instrumentos legales principales para regular la libertad de expresión en línea. Además, cuando es apropiado el análisis incluye referencias a doctrina académica además de a reportes en prensa para así clarificar y poner en contexto lo que se describe y analiza.
El primer ejemplo analizado se refiere a jurisprudencia dictada por el TJUE en el caso Eva Glawischnig-Piesczek v Facebook Ireland Limited (Caso C-18/18, 2019) en el que el tribunal estableció que el derecho de la Unión Europea no impide que los juzgados de un Estado miembro ordenen a una red social la retirada de comentarios que han sido considerados como difamatorios, ni la retirada de aquellos idénticos o equivalentes. Además, el TJUE estableció que el derecho de la UE tampoco impide que dicha orden tenga efectos en todo el mundo.
Si bien este trabajo se centra en la Unión Europea, cabe mencionar que otros tribunales en otros países han tomado decisiones similares. Tal es el caso de la India, en el que un tribunal decidió en el caso Ramdev v Facebook (CS (OS) 27/2019) que un contenido difamatorio debía ser retirado en todo el mundo, ya que las plataformas tenían la capacidad tecnológica para hacerlo. Este caso, que no es de un tribunal de última instancia, cita el caso europeo que hemos decidido estudiar. Otro caso similar se ha dado en Brasil, en donde el Supremo Tribunal Federal ha multado a Facebook por no cumplir con una orden que le obligaba a bloquear ciertas cuentas de usuarios en todo el mundo (Lyons, 2020, Lomas, 2020, Coletta, 2020).
El segundo ejemplo analizado se refiere a la Directiva de Servicios de Comunicación Audiovisual (DSCA) (Directiva (UE) 2018/1808) todavía pendiente de implementarse por los estados miembros de la UE a nivel nacional. La Directiva incluye disposiciones encaminadas a combatir contenidos nocivos online, del discurso del odio al terrorismo, así como protecciones para menores. Con respecto a las plataformas, incluye un nuevo mecanismo que da a los reguladores de medios nacionales un rol esencial en la implementación local de la ley y en la protección del público contra los contenidos nocivos, pero también contra abusos de las plataformas.
El tercer ejemplo se refiere a la legislación que gobierna el funcionamiento y competencias de Europol (Oficina Europea de Policía) y en concreto, una Regulación de 2018 que regula su relación con las plataformas y la prevención de delitos como la diseminación de contenidos relacionados con el terrorismo online. Una versión de la Regulación contenía un artículo 5 que daba poderes a la autoridad nacional competente para reportar contenidos supuestamente delictivos a las plataformas, que debían entonces instaurar medidas técnicas y operativas para evaluar dichos contenidos y retirarlos si violaban los términos y condiciones de las mismas plataformas. Así, la UE buscaba institucionalizar una práctica de Europol que reportaba contenidos a las plataformas para así evitar los problemas jurisdiccionales a los que se enfrenta al perseguir este tipo de contenidos.
El primer motivo por el que este análisis es valioso es porque permite comparar el modelo Europeo de regulación de internet con el modelo que ha predominado durante las últimas décadas, el modelo norteamericano. A raíz del Tratado de Maastricht (TUE, 1992), la UE adoptó una visión que responde a un modelo económico en particular que significó limitaciones para la Carta de los Derechos Fundamentales de la Unión Europea (CDFUE, 2000) para evitar limitar las libertades de mercado de la UE, que es lo que da sentido a las políticas de gobernanza de internet del bloque europeo.
Segundo, creemos que estos ejemplos son los que mejor representan los problemas relacionados con la regulación de la expresión online, en particular los retos relacionados con aplicar regulación nacional o regional en un contexto global y sin limitación de fronteras.
Analizados los casos de la UE, ponemos brevemente el foco en el Facebook Oversight Board (FOB) pues lo consideramos evidencia de ese juego de estira y afloja, al que se alude en el título de este artículo, puesto que el FOB representa un intento por parte de la compañía, que probablemente busca acallar críticos, frenar iniciativas judiciales de interponer criterios -sea a nivel local, nacional o supranacional- pero sobre todo de auto-legitimación para así consolidar un espacio de poder que le permita dictar decisiones que ayuden a solidificar reglas estándar que sean aplicables a la moderación de contenidos en todo el mundo en la manera que mejor coadyuve a sus intereses comerciales.
Tomando en cuenta los contextos antes descritos, los ejemplos seleccionados nos ayudarán a demostrar como las plataformas tienen un poder tremendo para establecer las condiciones para la expresión en línea (Balkin, 2009, Balkin, 2018, Rosen, 2012, Klonick, 2018) sin las mismas ataduras físicas y jurisdiccionales de los gobiernos nacionales. Este poder les enfrenta con los gobiernos, particularmente cuando las leyes imponen requerimientos distintos a los que imponen las plataformas (Gillespie, 2018, Suzor, 2019).
Es cierto que las autoridades tienen problemas para determinar cuál es la ley aplicable y cuál debe de ser su alcance territorial al proteger a sus ciudadanos ante extralimitaciones en la expresión y frente a contenidos no permitidos por sus leyes, pero que aún así están disponibles en sus territorios, y en todo el mundo al mismo tiempo (Asward, 2016, Rosati, 2019). Sin embargo, como veremos en nuestros ejemplos de la Unión Europea, los estados optan o bien por expandir la aplicación de sus leyes locales más allá de su jurisdicción original o bien, establecen mecanismos para poder utilizar las reglas privadas de las plataformas para navegar estos problemas jurisdiccionales ya sea mediante la búsqueda de estructuras legales que permitan la colaboración con las plataformas, o la delegación de actividades de moderación en ellas, o en su caso, que permitan obligarles a cumplir con lo que las autoridades piden. Lo que el análisis de los ejemplos demostrará es que lejos de quitarle poder a las plataformas, el accionar de los gobiernos contribuye a solidificarlo.
El último ejemplo, que se refiere al FOB, nos mostrará que las plataformas son conscientes de lo anterior y están reaccionando con un intento de fortalecer aún más sus mecanismos privados de gobernanza unilateral, buscando la legitimidad de estos para así evitar que el esfuerzo intervencionista de los gobiernos sea aún mayor y así no perder el poder que con el tiempo han ido ganando.
En esta sección nos aproximamos a los ejemplos seleccionados, explicando en qué consisten, poniéndolos en el contexto adecuado y, tomando en cuenta todo lo que hemos descrito anteriormente en nuestro análisis, discutimos las implicaciones de todos ellos.
Glawischnig-Piesczek v. Facebook: Aplicación global de órdenes judiciales
Los tribunales de Luxemburgo y Estrasburgo han desarrollado, respectivamente, en el Derecho de la Unión Europea y el régimen de Derechos Humanos Europeo, jurisprudencia que otorga un alto grado de protección a los derechos comunicativos, aunque no necesariamente han logrado armonizar del todo su protección dentro del espacio europeo.
El Tribunal Europeo de los Derechos Humanos (TEDH) tradicionalmente ha impuesto un grado más alto de protección para las libertades de expresión e información que el requerido a nivel doméstico (Voorhoof, 2015). Esto es verdad particularmente en casos relacionados con el acceso a la información pública, la difamación de personalidades o las condenas a periodistas, si bien es cerito que en los últimos años ha tenido dificultades para reconciliar los derechos comunicativos con la protección de otros derechos fundamentales (Voorhoof, 2015)2. Y aunque, los casi cuarenta años de jurisprudencia del TEDH han tenido gran influencia en las decisiones del TJUE, para Flauss (2009), el Tribunal se ha enfocado en el fomento estructural de la libertad de expresión y en establecer los contornos de dicha libertad en distintas categorías, pero muestra discrepancias que debilitan la autoridad de su jurisprudencia.
Los esfuerzos de armonizar el derecho de la Unión Europea nunca han estado enfocados en principios constitucionales europeos aún si se ha adoptado una carta de derechos con el Tratado de Lisboa (Keller 2011). En cambio, el TJUE se ha centrado en sentar las bases para la protección de derechos humanos en toda la UE y en el contexto de la meta de integración de un mercado único europeo, asegurándose que las restricciones de la libertad de expresión a nivel doméstico estén basadas en fines públicos y no infrinjan las obligaciones de derechos humanos de la UE (Keller, 2011).
En el contexto del mercado único europeo, el TJUE se ha centrado en problemas jurisdiccionales relacionados con áreas como la propiedad intelectual. Por ejemplo, cuando ha tenido que decidir si la protección de los derechos de propiedad intelectual se extiende por toda la Unión Europea y por lo tanto si las medidas cautelares en ese ámbito también podían tener efectos en toda la UE (Caso C-616/10, 2012).
En el caso Costeja González (Documento 62012CJ0131, 2014), el TJUE reconoció la existencia de un derecho al olvido de aplicación en toda la UE bajo el entendido de que es un derecho que supone una limitación a los derechos comunicativos en tanto que puede restringir la disponibilidad de información personal sobre las personas en internet. El derecho al olvido, además, está ahora codificado en el Reglamento General de Protección de Datos (RGPD) que se aplica uniformemente en toda la UE (Reglamento (EU) 2016/679).
En el caso CNIL v. Google (Caso C-507/17), el TJUE explora el ámbito territorial del derecho al olvido concluyendo que los buscadores de internet deben retirar todos los enlaces en todas las versiones en la UE sin importar el origen de la orden de suprimir resultados de búsqueda (Bevilacqua, 2019, Samonte, 2019). El razonamiento detrás de esta conclusión es que una de las metas de la UE es asegurar un alto grado de protección a los datos personales, incluyendo el derecho al olvido en toda la UE, aún si las autoridades de protección de datos nacionales tienen competencia para determinar las condiciones que justifican que los resultados de búsqueda sean retirados en todas las versiones de una red social, basándose en los estándares nacionales de protección de los derechos fundamentales (Samonte, 2019).
Como hemos dicho, el sistema europeo de protección de los derechos humanos no ha puesto el foco en lograr la uniformidad respecto de las normas nacionales de protección de derechos. Pero lenta pero seguramente, ciertos puntos en común en la interpretación de las libertades de expresión y prensa han ido emergiendo. Sin embargo, el problema ahora parece ser que los tribunales ya no están tan dispuestos a ser pacientes y dejar que el paso del tiempo lleve cada vez más a una unificación de criterios, tal y como el primer caso de nuestro análisis (Caso C-18/18, 2019).
Cuando un usuario anónimo de Facebook compartió un artículo que incluía comentarios difamatorios contra la política austríaca Eva Glawischnig-Piesczek, esta solicitó medidas cautelares al Tribunal Comercial de Viena para retirar el contenido y cualquier otro texto equivalente de dicha red social. Facebook cumplió con la orden emitida por el tribunal, impidiendo el acceso al contenido en Austria, pero una decisión del Alto Tribunal Regional de Viena que limitaba la retirada del contenido equivalente llevó a ambas partes a apelar. El Tribunal Supremo de Austria se dirigió entonces al TJUE para resolver la cuestión de qué tipo de contenidos debían retirarse (solo el contenido original o también los equivalentes) y el ámbito territorial de las medidas cautelares (si los contenidos debían retirarse solo en Austria o también en el extranjero) (Caso C-18/18, 2019).
El artículo 15 de la Directiva sobre comercio electrónico prohíbe la imposición de una obligación general para supervisar todo lo que los prestadores de servicios de la información transmiten o almacenan (Directiva 2000/31/CE). También prohíbe el obligarles a realizar búsquedas activas de hechos o circunstancias que indiquen actividades ilícitas en sus plataformas. El TJUE determinó que la Directiva no impide a los Estados miembros ordenar a un proveedor el retirar o bloquear contenido ilícito, incluyendo aquellos contenidos idénticos o equivalentes a dicho contenido, siempre y cuando el prestador de servicios tenga la capacidad para identificar los contenidos equivalentes o idénticos y pudiera utilizar herramientas automatizadas para ello (Ullrich, 2018, Cavaliere, 2019, White, 2019).
Respecto del ámbito territorial de la medida cautelar que mandaba la eliminación de contenido, el TJUE decidió que la Directiva sobre comercio electrónico tampoco impide a los Estados miembros ordenar la eliminación de contenido declarado como ilícito. Como consecuencia, el Tribunal dejó la determinación del ámbito geográfico de la eliminación en manos de los Estados miembros y de acuerdo con las leyes nacionales e internacionales relevantes.
Hay una diferencia crucial entre los casos Glawischnig-Piesczek v. Facebook y CNIL v. Google más allá de que hay autores que consideran que ambas decisiones se contradicen entre sí (Baron & Lubin, 2018). A saber, la diferencia radica en la definición de los límites de la libertad de expresión son un asunto de derecho nacional que no está armonizado en toda la UE, a diferencia del derecho fundamental a la protección de los datos personales, armonizado en toda la UE por el RGPD. Por lo tanto, el derecho nacional de cada Estado miembro en particular es el de aplicación en casos de libertad de expresión (Morawska-Zakroczymska & Gęsicka, 2020).
El artículo 18 de la Directiva sobre comercio electrónico establece que los Estados miembros deben asegurarse de que los recursos judiciales existentes en virtud de la legislación nacional en relación con las actividades de servicios de la sociedad de la información permitan adoptar rápidamente medidas que puedan poner término a cualquier presunta infracción, y a evitar que se produzca nuevos perjuicios contra los intereses afectados (Directiva 2000/31/CE).
Según la decisión del TJEU en Glawischnig-Piesczek, dicho artículo “no limita en modo alguno, en particular territorialmente, el alcance de las medidas que los Estados miembros pueden adoptar con arreglo a la Directiva citada” (Caso C-18/18, 2019, párr. 49). El Tribunal aseveró que los Estados miembros pueden adoptar estas medidas de acuerdo con lo dispuesto en la Directiva. Dichas medidas incluyen “medidas cautelares (que) produzcan efectos a escala mundial” (Caso C-18/18, 2019, párr. 50) siempre que y cuando se pueda “garantizar la coherencia de las normas de la Unión en ese ámbito con las normas aplicables a nivel internacional” (Caso C-18/18, 2019, párr. 51) habida cuenta de la “dimensión mundial del servicio electrónico (Caso C-18/18, 2019, párr. 51).
Sin embargo, los principios generales del derecho internacional, la jurisdicción es la prerrogativa de las naciones de ejercer sus poderes sobre los ciudadanos, las propiedades y las actividades dentro de sus fronteras (Nunziato, 2018) y la primera y más importante restricción que el derecho internacional impone a cualquier Estado es que —salvo que exista una norma que permita lo contrario— este no ha de ejercer sus poderes en el territorio de otro Estado (The Case of the S.S. Lotus, 1927), principal motivo por el que se considera que el TJEU interpreta el artículo 18 de forma demasiado amplia (Directiva 2000/31/CE).
El TJEU justifica la necesidad de permitir a los Estados miembros disponer “de una facultad de apreciación particularmente amplia en lo que respecta a los recursos y procedimientos que permitan la adopción de las medidas necesarias (Directiva 2000/31/CE, párr. 29) en “la particularidad de los daños y perjuicios que se pueden producir en el marco de los servicios de la sociedad de la información” (Directiva 2000/31/CE, párr. 28), especialmente por “su rapidez y por su extensión geográfica” (Directiva 2000/31/CE, párr. 28).
Para Cavaliere (2019) esta decisión delata tanto las oportunidades como los retos que las tecnologías plantean en relación con la capacidad limitada que tienen los tribunales para hacer cumplir decisiones judiciales más allá de las fronteras nacionales. El TJUE concluyó que era una buena idea permitir que las medidas cautelares puedan tener efectos a escala mundial para proteger los intereses de un individuo que se ve afectado por contenidos potencialmente ilícitos y así poder hacer frente a los retos planteados por la diseminación rápida de contenidos sin importar fronteras o jurisdicciones. El TJUE, sin embargo, no ha sabido o no ha querido ver los problemas que esto implica.
Es cierto que el TJUE deja claro que un requerimiento de pedir a las plataformas retirar o filtrar contenidos no puede ser una obligación general. Sin embargo, claramente deja la puerta abierta a que, en casos específicos, la retirada o filtración se de a escala mundial y, potencialmente en un amplio abanico de circunstancias, dada la obligación de retirar contenidos idénticos a la luz de la incertidumbre que genera la definición de contenidos “equivalentes” (Smith 2019). Las cuestiones de qué se considerada como una obligación general y qué son contenidos “equivalentes” son ciertamente controversiales, pero no forman parte de este análisis (Cavaliere, 2019; White, 2019).
En sus conclusiones, el Abogado General (AG) del Tribunal de Justicia, Maciej Szpunar abunda en los razonamientos detrás de la decisión del TJUE. El AG ha considerado que el contenido subido a internet por los usuarios se reproduce, altera y es intercambiado constantemente entre los usuarios en la plataforma propiedad de Facebook Ireland, filial de Facebook, Inc. (Caso C-18/18, 2019). La empresa “explota una plataforma electrónica únicamente para usuarios situados fuera del territorio de los Estados Unidos y de Canadá” que sin embargo no le impide “la retirada a nivel mundial de datos difundidos a través de esta plataforma” (Caso C-18/18, 2019, párr. 77). Esto implica que cualquier contenido puede estar disponible online, tanto dentro como fuera del “centro de intereses” de una persona que considera sufrir un daño por un contenido en particular.
Lo anterior también implica que quien se considera perjudicado puede:
[...] acudir a un fuero por la totalidad de dicho daño. Ciertamente, lo anterior puede dar pie a considerar que el alcance territorial de la competencia de ese fuero no engloba los hechos acaecidos en el territorio de terceros Estados. No obstante, esa consideración guarda más bien relación con el hecho de que, para ser competente (Caso C-18/18, 2019, p. 15)
En virtud del lugar de materialización del daño, ese fuero debe ser un órgano jurisdiccional de un Estado miembro (Reglamento (UE) N° 1215/2012). Asimismo, dejando al margen esa consideración, el Tribunal de Justicia indicó en muchas ocasiones, “que dicho fuero es competente para resolver sobre la totalidad de los daños ocasionados por esa difamación” (Caso C509/09 y C161/10, 2011, apdo, 48, párr. 85).
En sus conclusiones, el AG considera que “los tribunales de un Estado miembro pueden resolver, en principio, sobre la retirada de contenidos fuera del territorio del citado Estado miembro, pues tienen competencia territorial universal” (Caso C-18/18, 2019, párr. 86) porque “la Directiva 2000/31 no regula la competencia para dictar requerimientos judiciales” (Caso C-18/18, 2019, párr. 82). Para el AG, además, “cabe que los órganos jurisdiccionales de un Estado miembro no puedan pronunciarse sobre una retirada a nivel mundial no ya por un tema de competencia, sino, en su caso, por una cuestión de fondo” (Caso C-18/18, 2019, párr. 86).
Además, Szpunar afirma que nada en el derecho internacional impide “que un requerimiento judicial pueda surtir los llamados efectos «extraterritoriales»” (Caso C-18/18, 2019, párr. 95) y en consecuencia “ese planteamiento implicaría que la constatación del carácter ilícito de los datos de que se trata se extendiese a los territorios de otros Estados miembros, al margen del carácter lícito o ilícito de dichos datos con arreglo a la ley designada como aplicable conforme a las normas de conflicto de tales Estados miembros” (Caso C-18/18, 2019, párr. 95). Esto quiere decir que en los casos relacionados con requerimientos judiciales o medidas cautelares que ordenan la remoción o bloqueo de contenido en un país distinto al que emitió el requerimiento, los tribunales nacionales de los Estados miembros han de contrastar dicha orden con sus propios estándares de protección de la libertad de expresión y la libertad de empresa (Morawska-Zakroczymska y Gesika, 2020).
El análisis de Szpunar no es ajeno a los potenciales problemas. Apunta que es necesario tomar en cuenta los derechos fundamentales que se reconocen en todo el mundo y que necesariamente existirán variaciones, por lo que reconoce que una retirada a nivel mundial podría suponer barreras para el acceso de información en terceros países (Caso C-18/18, 2019). Aún así, el AG parece encontrar valor en el pragmatismo de la decisión del TJUE cuando recuerda “la naturaleza ubicua de los contenidos puestos en línea en un sitio de Internet y de que el alcance de su difusión es, en principio, universal” (Caso C-194/16, 2017, párr. 48). Dice entonces que “conviene que (los) órganos jurisdiccionales adopten una postura comedida. Por consiguiente, por cortesía internacional […] deberían limitar, en la medida de lo posible, los efectos extraterritoriales […] (y que) el cumplimiento de una obligación de retirada no debería ir más allá de lo necesario” (Caso C-18/18, 2019, párr. 100).
Sin embargo, todo esto ha de ser analizado tomando en cuenta la Directiva sobre comercio electrónico a la que nos hemos referido. La Directiva ha creado un marco legal que convierte a las plataformas en actores centrales en la moderación de contenidos. Hace esto imponiendo la condición de moderar a las plataformas para poder mantener su inmunidad, un sistema que:
[...] funciona sobre la base de conceder inmunidad frente a la ausencia de selección o iniciativa y conocimiento efectivo de los intermediarios respecto de contenidos ilícitos y en su diligencia para bloquear o retirar contenidos en cuanto ese conocimiento es obtenido o notificado” (Millaleo, 2015, p. 42).
Está claro que la Unión Europea fomenta la autogobernanza de las plataformas de redes sociales (Jørgensen & Zuleta, 2020). Según Balkin (2018) esto es parte de una tendencia mundial en la que las naciones-estado dependen cada vez más en delegar en las plataformas la tarea de vigilar y moderar la expresión de actores privados en los entornos digitales, más allá de los métodos tradicionales que tiene el Estado, los tribunales y las leyes.
Además, aunque Facebook Ireland opera una sola plataforma para toda la UE, y su matriz lo hace en otros países, siempre existirá el riesgo de que la plataforma decida retirar el contenido en toda la Unión, o incluso más allá, en todo el mundo, para evitar entrar en conflicto con las autoridades o arriesgarse a las consecuencias de incumplir con un requerimiento judicial. La inmunidad condicionada de los intermediarios de internet siempre las llevará a elegir las medidas más pragmáticas a la hora de moderar contenidos, poniendo el proteger su negocio por encima incluso de los derechos fundamentales. Siempre existirá el riesgo de que se excedan en la censura, algo ya demostrado empíricamente respecto de los efectos de las leyes que establecen reglas para la inmunidad de los intermediarios de internet, como la Directiva del comercio electrónico (Keller, 2021).
Creo que ni el análisis del AG ni la decisión del TJUE consideran apropiadamente los posibles efectos de esta interpretación puesto que primero, las medidas cautelares relacionadas con derechos no armonizados como la libertad de expresión pueden terminar teniendo efectos en un ámbito geográfico mayor que las relacionadas con derechos armonizados (Rosati, 2019). Esto lleva a replantearse las justificaciones para la armonización de derechos en la UE pues implicaría que este esfuerzo, limita, no mejora, la protección (Svantesson, 2019) y puede además ir en contra de la idea de que, en ciertas áreas, la armonización implica un aumento en el nivel de protección de los derechos (Rosati, 2019).
La decisión del TJUE en Glawischning-Piesczek tiene implicaciones aún más amplias pues deja abierta la posibilidad de que los requerimientos judiciales basados en una ley nacional que sea especialmente restrictiva con la libertad de expresión sean también aplicables a nivel mundial. Esto tendría el efecto de bloquear el acceso a expresiones e informaciones que no serían consideradas ilícitas en otros países con leyes menos restrictivas. Para una red social como Facebook, esto abre la posibilidad de que se vean obligados a cumplir con medidas cautelares o requerimientos para retirar contenidos ilícitos más allá de la jurisdicción del país que ha ordenado la retirada. Dicho cumplimiento tendría que extenderse a todos los países en donde el contenido pueda estar disponible, sin importar si bajo las leyes de cada país es considerado ilícito o no.
Por ello, no resulta sorprendente que algunos se hayan referido a la decisión en Glawischnig-Piesczek v. Facebook como un serio asalto a la libertad de expresión pues crea la posibilidad de que los Estados miembros de la UE establezcan los criterios para el ejercicio de ese derecho en todo el mundo, posibilitando que solo un país pueda decidir qué es y qué no es libertad de expresión en todo el mundo (Cavaliere, 2019); y una situación en la que posiblemente el país que más tienda a la censura tendrá las de ganar (Daskal & Klonick, 2019).
Para Nunziato (2018), de acuerdo con el principio básico de soberanía nacional, los estados han de tener el derecho a determinar qué es la libertad de expresión dentro de su territorio, y en particular determinar como ha de sopesarse este derecho frente a otros derechos dentro de sus fronteras. Según el mismo autor, las naciones no deben de tener el poder para implementar sus propias leyes de tal manera que puedan restringir la libertad de expresión en terceros países con sus propias normas relativas a la libertad de expresión. Así, desde el punto de vista tanto de los ciudadanos como del tercer país en donde se restringe el acceso a contenidos, esto es tanto un ataque a la soberanía y la jurisdicción como una incompatibilidad con el derecho nacional e internacional que protege los derechos comunicativos.
Todo lo anterior deja claro que no hay solución fácil para el problema jurisdiccional en relación con la libertad de expresión en las redes sociales. También nos demuestra que como la tecnología ofrece soluciones que permiten la retirada de contenidos en más de una jurisdicción con facilidad —técnica, pero no legal—, las autoridades están buscando fórmulas que permitan navegar los retos jurisdiccionales, incluyendo buscar la aplicación de la ley local de forma que tenga efectos en distintas jurisdicciones para así proteger los derechos de sus ciudadanos efectivamente (Woods, 2018). No se trata solo de que los tribunales lleguen a la conclusión de que las decisiones tomadas en un país deben tener efectos en otros, se trata de empujar a las plataformas de redes sociales a tomar decisiones con efectos a escala mundial, pues, así como pueden retirar el contenido en un país, pueden hacerlo en todos desde un punto de vista técnico.
Una crítica al poder que las redes sociales ostentan es que a través de su poder privado establecen reglas distintas para distintos tipos de usuarios, dando distintos recursos materiales y oportunidades, así como protecciones procedimentales distintas (Caplan & Gillespie, 2020). En otras palabras, suelen otorgar mayores protecciones a los más poderosos. Luego entonces, otro hecho problemático a considerar es que el caso Glawischnig ha sentado precedente en un caso que gira en torno a una personalidad con poder político.
El que los individuos en posiciones de poder se encuentren entre los mayores beneficiarios de medidas cautelares que ordenan la retirada de contenidos a nivel mundial puede llevar a consecuencias no deseadas como el llamado “turismo de difamación” o la situación en la que un demandante intenta presentar una reclamación por difamación en la jurisdicción que pueda ser más beneficiosa para esta, que puede dar lugar a órdenes de aplicación en todo el mundo, explotando que los estándares para determinar si un contenido es o no difamatorio tiende a variar de país a país (Staveley-O’Carroll, 2009; Little, 2012; Hopkins, 2019). Además, esto puede permitir que el demandante decida invocar la legislación nacional y no la europea cuando ambas estén a su disposición (Rosati, 2019).
Aunque por lo menos en las democracias constitucionales existe consenso sobre la necesidad de asegurar una protección robusta para una libre expresión con la mínima intervención gubernamental posible, los límites de qué es la libertad de expresión y en dónde están sus limites, puede variar de un país a otro, aún entre dichas democracias constitucionales. Decisiones como Glawischnig abren la puerta a que esto se vuelva una cuestión de poder geopolítico en donde el país o el grupo de países con mayor influencia y con la mayor cantidad de medios a su disposición para obligar a las plataformas a seguir sus designios sean los que dicten las condiciones para la libertad de expresión en todo el mundo.
Por ahora, y durante el desarrollo de Internet a lo largo del Siglo XX y principios del XXI, las plataformas de redes sociales dominantes: Facebook, Google, Twitter y otras son todas empresas Americanas que han alineado sus políticas con la concepción de la libertad de expresión de su país de origen, en gran parte compatible con los valores de otras naciones-estado que garantizan mínima intervención gubernamental y protección de la libre expresión y prensa. Sin embargo, incluso estas empresas no han dudado en adaptarse a los requerimientos de países más restrictivos en cuanto a estos derechos a cambio de expandir la lista de mercados en los que operan (Waddell, 2016).
Kuner (2017) advierte que la Unión Europea debe considerar la posibilidad de que sus propias dinámicas que buscan la aplicación de su derecho más allá de sus fronteras sean imitadas y usadas en su contra. El TJUE ha de preguntarse que pasaría si un país que no reconoce plenamente a la libertad de expresión como un derecho fundamental, o le otorga protección mínima, sea por disposición legal o situaciones coyunturales, es quien ostenta el poder que hemos descrito en este apartado. Todos hemos de preguntarnos qué pasará si una nueva generación de plataformas de redes sociales no demuestra el mismo compromiso con los derechos comunicativos que sus predecesores y cuáles serían los efectos de decisiones como Glawischnig en estos casos.
Otros Ejemplos en la Unión Europea: La Directiva de servicios de comunicación audiovisual y la propuesta de Regulación de Europol
La Directiva de Servicios de Comunicación Audiovisual (DSCA) adoptada en 2018 y en proceso de implementación en los veintisiete Estados miembros de la Unión Europea incluye disposiciones encaminadas a la protección de los menores de contenidos nocivos y de todos los ciudadanos de la incitación al odio, la violencia y el terrorismo en servicios e intercambio de videos a través de plataforma, que incluye a redes sociales como YouTube, pero también como Facebook o Twitter, entre otras, cuando la oferta de programas y videos generados puede considerarse una funcionalidad esencial de estas (Directiva (UE) 2018/1808, cdo 4; cdo 5).
La DSCA incluye además nuevos requerimientos normativos y la adopción de un mecanismo que permita a los reguladores nacionales velar por el cumplimiento de la Directiva y para proteger al público tanto de los contenidos nocivos como de la intromisión arbitraria y desproporcionada en sus derechos por parte de las plataformas.
La Directiva mantiene el principio del país de origen establecido como el núcleo de la DSCA en su versión 2010 (Directiva 2010/13/UE) y que la presente actualizan (Directiva 2010/13/UE, cdo 33; Directiva (UE) 2018/1808, cdo 8). El principio obliga a que cada Estado miembro de la UE sea responsable de la implementación a nivel local de la Directiva a través de sus propias leyes y en relación con los servicios del audiovisual ofrecidos por los prestadores de servicios dentro de sus propias jurisdicciones. El principio tiene su origen y justificación original en el desarrollo de las telecomunicaciones en la posguerra y en el que se desarrolló un mercado de “servicios”, no de “bienes” del audiovisual en el contexto del Tratado de Roma (Caso 155/73, 1974). En aquel tiempo se consideró que la existencia de monopolios en estos servicios se justificaba en el interés público siempre y cuando no se tratara de justificaciones económicas y que el comercio entre Estados miembros no se viera afectado por la discriminación (Michalis, 2014).
Eventualmente, los monopolios de televisión nacionales dieron lugar a las entidades de retransmisión de carácter transfronterizo, lo que llevó a los primeros conflictos en materia de libertad de expresión entre países europeos. En el asunto Debauve (Caso 52/79, 1980), el TJUE permitió a los Estados miembros restringir transmisiones transfronterizas por cable siempre y cuando no se hiciera de manera discriminatoria. A medida que estos problemas se convirtieron en asuntos del Mercado Único, la Directiva de Televisión sin Fronteras (DTSF) adoptó el susodicho principio de país de origen (Directiva 89/552/CEE, 1989, art. 2). Eventualmente, la DSCA de 2010 remplazó a la DTSF como resultado de los cambios tecnológicos, elevando el principio del país de origen a la categoría de principio núcleo del Mercado Único de la Unión Europea en materia de servicios audiovisuales (Directiva 2010/13/UE, cdo 33; art. 10).
El principio del país de origen se ha mantenido prácticamente sin cambios en la actualidad. Persigue el objetivo de dar seguridad jurídica al tiempo que permite las retransmisiones entre países miembros y asegura que haya una armonización mínima en cuanto a la protección al someter al prestador del servicio a la jurisdicción de las leyes nacionales en donde tiene su sede de operaciones. De acuerdo con la Comisión Europea, en la DSCA 2018, el principio se mantiene “más fuerte que nunca” (Comisión Europea, 2018a) y continúa siendo efectivo para garantizar que las retransmisiones que cumplen con la ley en el país de origen no puedan ser prohibidas en otro país miembro de la Unión Europea que importa el servicio (Vlassis, 2017).
Sin embargo, los críticos argumentan que el principio no es más que un instrumento para la liberalización del mercado audiovisual y un ataque frontal contra los intereses de los consumidores (Herold, 2008; Weatherill, 2007; Wilhelmsson, 2004). Otra preocupación es que el principio está desfasado respecto a las posibilidades que las tecnologías ofrecen actualmente, lo que puede crear problemas de índole jurisdiccional. La consecuencia inmediata de lo anterior está relacionada con el “turismo de difamación” al que nos hemos referido ya en su vertiente conocida como “forum shopping” o la elección del país con las leyes menos restrictivas en la materia (Staveley-O’Carroll, 2009, Little, 2012) . Así, para Vlassis (2017), el principio implica que los prestadores de servicios online pueden establecer su sede europea, eligiendo el país con las leyes más beneficiosas para sus intereses en cuanto a la regulación de los servicios audiovisuales.
Tomando en cuenta la importancia de las plataformas online para la libertad de expresión y para mantener al público informado, otra preocupación respecto del principio es que puede permitir que aquellos que buscan implementar campañas de desinformación se beneficien de las reglas permisibles dentro de un determinado Estado miembro de la UE para infiltrar la esfera pública en todos los países de la UE (Volman, 2018).
Además, ya que el principio de país de origen requiere que los proveedores de servicios se apeguen a las reglas del Estado miembro en el que tienen su sede, que para la mayoría de las plataformas de redes sociales es la República de Irlanda, en la práctica la ley irlandesa podría considerarse la ley que rige de facto sobre una parte muy sustancial de los contenidos subidos a dichas plataformas.
Las plataformas de internet operan en todo el mundo y de manera transfronteriza, aún así tienen una sede dentro de las fronteras de uno o varios países en específico. En este caso, se trata de un país de la UE y en el contexto del mercado común europeo. Tomando esto en cuenta, estamos de nuevo ante una situación que puede resultar en un socavamiento en la jurisdicción de terceros estados, esta vez dentro de la misma UE, en asuntos relacionados con la libertad de expresión.
Al igual que en Glawischnig las leyes que gobiernan la libertad de expresión en un país terminan aplicándose más allá de su ámbito jurisdiccional original. Esta vez no es el resultado de una interpretación jurisprudencial demasiado amplia o inapropiada, si no una consecuencia no prevista, resultado de una interacción entre lo que dice la ley y las realidades de un mercado de servicios de internet altamente concentrado. En la práctica se ha creado un escenario regulatorio único que se aleja completamente de la aplicación del mismo principio a los medios audiovisuales “tradicionales” (Barata, 2020).
A continuación, se analiza otro ejemplo que puede ser una señal de hacia donde van las leyes de la UE en el futuro. El ejemplo sirve para confirmar la tendencia de delegación de la adjudicación de derechos en plataformas privadas. En concreto nos referimos a reformas al Reglamento UE 2016/794 relativo a Europol, y en específico a ciertas reformas que buscan que dicha organización pueda combatir el terrorismo online de manera más efectiva.
El artículo 3 de dicho reglamento establece que Europol apoyará y reforzará la actuación de las autoridades competentes de los Estados miembros y su cooperación mutua en la prevención y la lucha contra la delincuencia grave que afecte a dos o más Estados miembros, el terrorismo y las formas de delincuencia que afecten a un interés común protegido por una política de la Unión (Reglamento UE 2016/794, art. 3).
El artículo 4 del mismo reglamento establece que dicho apoyo incluye respaldar las acciones de los Estados miembros para prevenir y combatir las formas de delincuencia facilitadas, fomentadas o cometidas a través de Internet, incluyendo, en cooperación con los Estados miembros, la notificación de contenidos de internet a través de los cuales se facilitan, fomentan o cometen estas formas de delitos, a los proveedores de servicios en línea interesados para que examinen de manera voluntaria la compatibilidad de esos contenidos de internet con sus propias condiciones contractuales (Reglamento UE 2016/794, art. 4, inc. 1, lit. m). Esto se hace a través de la EU-IRU (Internet Referral Unit) (Europol, 2018) u Oficina de referencias de Internet, parte del Centro Europeo de Lucha contra el Terrorismo (CELT) (Europol, 2020).
Si bien la EU-IRU no decide sobre la ilegalidad del contenido online y no tiene la potestad de ordenar a las plataformas de internet la retirada del contenido, sigue teniendo poder para crear presión y hacer que las empresas retiren los contenidos, aunque aún no se haya determinado la ilegalidad por autoridad competente alguna. (European Digital Rights-EDRi, 2016).
La justificación para el actuar de la EU-IRU es que los Tratados Europeos no dan competencias a Europol para poder determinar la ilegalidad de supuestos contenidos terroristas puesto que la legislación antiterrorismo, y su aplicación, son competencia exclusiva de los Estados miembros. Por ello, Europol implementa un esquema que le permite contrastar cualquier contenido que considera potencialmente terrorista con los términos y condiciones privados que rigen qué contenidos están prohibidos en una red social determinada. La EU-IRU hace entonces, no una determinación sobre la legalidad del contenido —lo que está fuera de sus competencias— si no una determinación de si viola dichas reglas privadas para así recomendar a las plataformas la remoción de dicho contenido.
Aunque como hemos dicho, las plataformas no tienen obligación de hacer caso de las recomendaciones de Europol, de acuerdo con un reporte de la Comisión Europea de 2016, alrededor de un 91% de los contenidos que han sido reportados por Europol fueron retirados de manera voluntaria por empresas privadas como las plataformas de redes sociales (Comisión Europea, 2016).
Es difícil ver como esto cumple con la obligación consagrada en la CDFUE de que las restricciones a los derechos fundamentales han de estar consagradas en la ley. También es difícil entender cómo la libertad de expresión puede ser efectivamente protegida contra algún posible abuso de Europol o las plataformas privadas de redes sociales ya que este procedimiento, a todas luces, está falto de transparencia, de garantías de debido proceso y de un adecuado control judicial (Riis & Schwemer, 2019). Como hemos dicho, la EU-IRU es reflejo de la tendencia por la cual la adjudicación del derecho fundamental a la libertad de expresión se delega a empresas privadas, en este caso, en nombre de la lucha contra el terrorismo (Belli & Sappa, 2017).
Otra muestra de dicha tendencia es una propuesta de Reglamento para la prevención de la diseminación de contenido terrorista en línea (Comisión Europea, 2018b). Dicha propuesta, de 2018, incluía un artículo 5 que finalmente fue descartado en su totalidad por el Parlamento Europeo. Dicho artículo 5, bajo el título de “Requerimientos” tal y como fue propuesto, daba nuevos poderes a la autoridad nacional competente para que pudieran referir a un “prestador de servicios de alojamiento de datos” posible contenido terrorista. Los servicios estaban obligados además a poner en funcionamiento medidas operativas y técnicas que facilitasen la evaluación con celeridad de los contenidos objeto del requerimiento enviado por las autoridades competentes y, cuando procediese, los organismos de la Unión pertinentes para su toma en consideración voluntaria acerca de si el contenido debía ser retirado o bloqueado. En otras palabras, buscaba trasladar los métodos usados por la UE-ERI a las autoridades nacionales competentes de los Estados miembros.
El artículo 3 de la misma propuesta de reglamento exige a los prestadores de servicios de alojamiento de datos incluir y aplicar en sus términos y condiciones disposiciones para evitar la difusión de contenidos terroristas y también les obliga a actuar de manera “adecuada, razonable y proporcionada” para hacer frente a la difusión de contenidos terroristas y proteger a los usuarios de dichos contenidos, teniendo en cuenta la importancia “capital” de la libertad de expresión y de información para una sociedad abierta y democrática (Comisión Europea, 2018b, art. 3).
Por su parte, el artículo 6 de la propuesta establecía la obligación para los proveedores de servicios de adoptar, cuando proceda, medidas proactivas para proteger sus servicios frente a la difusión de contenidos terroristas, incluyendo métodos automatizados de detección de estos contenidos (Comisión Europea, 2018b, art. 6). Estas medidas automatizadas también plantean problemas relacionados con la falta de transparencia y la incapacidad de garantizar el debido proceso pues se trata de medidas con gran potencial no solo para ser mal usadas, sino para presentar fallos en su funcionamiento (Riiss & Schwemer, 2019).
Esta propuesta de Reglamento es un intento más de habilitar a una autoridad competente para delegar decisiones relativas a la libertad de expresión a plataformas privadas. Además, a diferencia de Europol, las autoridades nacionales ya deberían de ser las competentes para poder determinar si un contenido disponible online es ilegal de acuerdo con sus propias leyes nacionales y de acuerdo con sus tribunales. Una regulación de esta naturaleza entonces busca que una autoridad administrativa, y no una judicial, sea la que tenga el poder de delegar estas tareas a una plataforma privada y de acuerdo con sus propios términos y condiciones. No debemos olvidar que estas reglas privadas están diseñadas primordialmente en base a los intereses comerciales de las plataformas que las adoptan unilateralmente (Gillespie, 2018) y no necesariamente teniendo a la libertad de expresión como su interés primordial, más allá de que la propuesta de regulación intente ofrecer garantías en ese sentido.
Tanto la UE-ERI como la propuesta de Reglamento pueden ser entendidas como medidas pragmáticas adoptadas o propuestas por las autoridades de la Unión Europea para poder navegar aquellas limitaciones legales que les dificultan combatir con eficiencia contenidos ilegales online. Ya que no es posible armonizar completamente la legislación antiterrorista en la UE, lo más práctico es ahondar en las estructuras que permiten la delegación de estas tareas en las plataformas que pueden retirar los contenidos rápidamente, y hacer evaluaciones también relativamente rápidas sobre si deben de hacerlo, basándose en sus propias estructuras privadas, técnicas y humanas, de moderación de contenidos. El hecho de que las plataformas operan en múltiples países de la UE al mismo tiempo; aplican y hacen cumplir sus términos y condiciones con los mismos métodos en todos ellos a la vez es una ventaja que puede ser explotada por las autoridades.
Lo anterior es problemático porque supeditar las decisiones sobre qué contenido no es legal en los términos y condiciones de las plataformas y no en la ley aplicable, incrementa el riesgo de una interferencia desproporcionada con los derechos de libertad de expresión y acceso a la información. Hemos de tomar en cuenta que si bien hay ciertos contenidos que las plataformas pueden decidir prohibir en sus entornos, estos contenidos pueden no ser ilegales de acuerdo con las leyes vigentes en los estados (Kuczerawy, 2018).
Cabe preguntarse también por qué esto ha de ser así si ya existen leyes nacionales y autoridades capaces de decidir si un contenido es ilegal o no. Los tribunales de todos estos países, y de la UE, tienen la capacidad para garantizar que estas decisiones sean conformes las leyes vigentes en un estado de derecho, con las garantías de debido proceso y con el control judicial adecuado.
Contrarreacción: El Facebook Oversight Board
Facebook ofrece un ejemplo claro sobre cómo las redes sociales están apostando por estructuras privadas de adjudicación de derechos. Este es el caso del Facebook Oversight Board (FOB) que pretende actuar como un tribunal, si bien por supuesto, no lo es.
Esto puede entenderse como una contrarreacción a los movimientos judiciales que intentan expandir el ámbito de aplicación de las leyes de libertad de expresión, mediante la aceptación de la tendencia a delegar la moderación de contenidos en empresas privadas, como hemos visto en los ejemplos inmediatamente anteriores.
Esto puede deberse a que las plataformas, en realidad, se sienten cómodas con el tipo de esquemas que la ley intenta alentar pues les ayuda a solidificar el poder para autogobernarse al convertirse en receptores de la delegación de la función de moderar la expresión en sus ámbitos. Puede deberse también al hecho de que las plataformas buscan controlar el debate de cómo deben de ser reguladas, y así, buscan legitimidad para sus sistemas de autorregulación.
Según la descripción de la propia Facebook (2019), el FOB tiene como propósito proteger la libertad de expresión mediante decisiones independientes y basadas en principios sobre contenidos importantes y mediante la adopción de opiniones sobre las políticas de contenidos de Facebook.
En concreto, el FOB es un comité de expertos cuya función es asesorar a la empresa sobre sus políticas de contenidos y para dar a los usuarios la oportunidad de obtener una revisión sobre una decisión tomada sobre algún contenido en particular. Aquí una de las claves, al margen de que Facebok dice que el Board ha de conocer solo sobre “contenidos importantes” (Facebook, 2019, p. 2) el FOB solo acepta —de manera optativa— casos relacionados con la remoción de contenidos en Facebook e Instagram —no valora si un contenido debe continuar disponible o no— y no incluye contenidos retirados en relación con obligaciones legales, propiedad intelectual, mensajes, spam, entre otros (Klonick, 2020). Además, Facebook se reserva la potestad para remitir casos al FOB cuando así lo considere, incluyendo un procedimiento de revisión expedita y automática en caso de que considere que se trata de circunstancias excepcionales, incluyendo contenidos que puedan tener “consecuencias urgentes en el mundo real” (Facebook, 2019, p. 7).
El FOB tiene la pretensión de establecer lineamientos para decisiones sobre la moderación de contenidos, e incluso la aspiración de que en el futuro, cortes y tribunales citarán esos lineamientos como si fueran precedente (Klonick, 2021). Según sus estatutos, el FOB ha de decidir en base a las “políticas de contenido de Facebook y sus valores” y dichas decisiones han de “sentar precedente” en otros casos similares de los que el FOB conozca y en sus decisiones, ha de tener en cuenta las normas de derechos humanos que protegen a la libertad de expresión (Facebook, 2019, p. 5).
Los estatutos del FOB las consideran que sus decisiones son obligatorias para la empresa y sus usuarios y han de implementarse siempre y cuando no constituyan una violación de alguna ley aplicable. Sin embargo, hemos de notar que la obligatoriedad se extiende solamente al contenido específico sobre el que el FOB ha tenido conocimiento y no aplica a contenidos similares o idénticos (Facebook, 2019). Además, las recomendaciones sobre las políticas de moderación se quedan en eso, en simples recomendaciones sobre las que Facebook solo se compromete a informar sobre cualquier acción tomada en ese sentido. Se trata de un sistema débil de revisión que sin embargo podría fortalecerse si se convirtiera en un sistema público de rendición de cuentas (Klonick, 2020).
Según la misma Klonick (2020), en enero de 2018, el profesor de la Harvard Law School, Noah Feldman, escribió un memorándum en donde desarrollaba los detalles de lo que él mismo llamó la “Corte Suprema de Facebook” estableciendo las virtudes de esta como un sistema “cuasi-legal” para la protección de la libertad de expresión en línea. Los mismos estatutos fueron “concebidos, redactados y descritos” como una Constitución que incluso menciona a la libertad de expresión como un derecho, si bien no lo garantiza explícitamente (Klonick, 2020, p. 2477).
Pese a lo anterior, lo cierto es que el FOB no tiene característica alguna que permita definir las normas que crean y gobiernan su estructura como constitucional, ni tampoco nada que le haga un tribunal constitucional o una corte suprema. McGinnis y Rappaport (2009), por ejemplo, llegarían a la conclusión de que los estatutos del FOB no presentan ninguna de las características de una “buena constitución”.
No limita el ejercicio de poder gubernamental alguno ni se establecen en realidad limitaciones institucionales y procedimentales pues Facebook no es un gobierno, solo es una empresa. No hay una verdadera separación de poderes ni en realidad un debido proceso puesto que lo que se busca es legitimar las decisiones, no darles garantía jurídica y constitucional que simplemente por definición, una empresa no puede dar. Como hemos dicho, tampoco garantiza derechos como la libertad de expresión más allá de mencionarlo y de establecer que se ha de prestar particular atención al impacto que la remoción de contenidos tendría para las normas de derechos humanos que protegen la libertad de expresión.
No existen contrapesos reales, Facebook retiene todo el poder. Todos los documentos que obligan a Facebook, como sus términos de uso, pueden ser modificados bajo la sola discreción de Facebook. Además, crucialmente, nada de esta estructura proviene de una expresión de la soberanía popular puesto que está basada en reglas adoptadas unilateralmente por una empresa. El FOB es un intento de legitimar decisiones ante la opinión pública, pero no tiene ni la capacidad ni la estructura para poder otorgarles verdadera legitimidad constitucional.
Algún autor, si bien reconoce que el FOB no representa un establecimiento de un sistema de gobernanza o de rendición de cuentas democrático, ha resaltado que el FOB logra recrear un sistema de separación de poderes dentro de Facebook, donde el Board es un órgano independiente parecido a uno judicial, distinto de otros dos, uno que establece las reglas de moderación de contenidos y otro que las ejecuta (Douek, 2019).
Lo cierto es que no existe tal garantía de independencia más allá de que el FOB está constituido como una empresa privada separada de la matriz Facebook —Oversight Board LLC— que nada tiene que ver con cómo un tribunal constitucional garantiza su independencia del resto de poderes de un estado. Apenas se puede hablar de “independencia”, mucho menos de “independencia judicial.” Simplemente no hay tal.
Iniciativas como el FOB, más allá de ser un ejercicio de relaciones públicas, son un intento por legitimar las decisiones privadas de la empresa, de ahí que se le intente describir como una corte suprema o tribunal constitucional, o se intente dar a sus estatutos un estatus de constitucionales. No es ni una ni la otra. Lo que sí es, un intento de establecer un sistema para explicar el por qué de ciertas decisiones de moderación sobre ciertos contenidos con la intención de demostrar que en general, las reglas de Facebook pueden funcionar como alternativa para decidir sobre la libertad de expresión en línea.
Lo que el FOB sí es, entonces, es un intento por avanzar en el establecimiento de reglas estándar privadas para la moderación de contenidos, decididas por la empresa privada que busca así mantener en sus manos esta potestad y evitar otras formas de control gubernamental, desviando además la atención de otros problemas asociados con su modelo de negocio (Klonick, 2020) como los efectos para la libertad de expresión que tiene el diseño de Facebook como plataforma en sí (Jaffer & Bass, 2021). Con el FOB se busca persuadir a todas las partes involucradas que estas reglas estándar son la alternativa a aplicar mundialmente para la gobernanza de la red social y que el Estado ha de mantenerse en la línea en la que se ha mantenido hasta ahora: limitándose a establecer esquemas que permitan la delegación de esas tareas de moderación y adjudicación de derechos como la libertad de expresión, tarea que ha de recaer en manos privadas en el contexto de las redes sociales.
En este trabajo se han analizado varios ejemplos que ilustran un “estira y afloja” en cuanto a quién ha de regular la libertad de expresión en internet, particularmente en el contexto de las redes sociales.
Decisiones como la del CJEU en Glawischnig-Piesczek v Facebook abren la puerta a que la situación de la libertad de expresión en internet se vuelva una cuestión de poder geopolítico y no solo de competencias jurisdiccionales. Esto llevaría a que el país, o grupo de países con mayores medios para hacer que las plataformas cumplan con sus decisiones, tengan el poder para dictar cómo se ha de ejercitar la libertad de expresión en todo el mundo, siempre en el contexto online. Esto debe llevar a preguntarnos qué pasará si un país que no reconoce a la libertad de expresión como un derecho esencial, o que lo reconoce de manera sumamente limitada es el que termina imponiendo las condiciones para la expresión online.
Dentro de la UE, el ejemplo de la Directiva del audiovisual dentro de la Unión Europea ilustra las consecuencias indeseadas que pueden surgir como resultado de aplicar leyes diseñadas en otro contexto a las realidades económicas de Internet, una industria demasiado concentrada en pocas manos. Este ejemplo sirve además para ilustrar los retos jurisdiccionales que enfrenta la UE a la hora de regular la libertad de expresión en el contexto online.
También dentro de la UE, las enmiendas propuestas a la legislación de Europol son un claro ejemplo de cómo se está intentando validar un sistema de vigilancia privada de la expresión online y que refleja un intento de buscar soluciones pragmáticas a los problemas jurisdiccionales antes mencionados, de tal manera que permitan a ciertas instituciones de la UE, y a autoridades nacionales de los Estados miembros controlar expresiones potencialmente prohibidas más allá de sus fronteras nacionales, navegando así la diversidad de órdenes constitucionales que existen dentro de la Unión Europea.
Todos los ejemplos que hemos estudiado nos han servido para reflejar las diferentes manifestaciones del derecho de la Unión Europea a distintos niveles. Una conclusión que puede sacarse en claro es que la UE no parece tener una estrategia consistente que determine sus acciones en relación con la libertad de expresión online. Por un lado, el TJUE admite una ampliación de la aplicación de las leyes nacionales más allá de su jurisdicción original con miras a otorgar protección más efectiva a los derechos de sus ciudadanos; y por el otro, los legisladores y autoridades europeas buscan ahondar en las tendencias legislativas que admiten la delegación del control de la libre expresión en internet a empresas privadas. Todos estos ejemplos evidencian que la UE tiene su propio “estira y afloja” interno con el que debe lidiar, reflejado en políticas reaccionarias que no parecen ser parte de una visión coherente.
Podemos concluir también que el aparente distanciamiento del modelo constitucional europeo de protección de derechos fundamentales que las reacciones antes descritas evidencian no se debe a las limitaciones presentes en el acquis de derechos de la UE ni a la disparidad existente en los niveles de protección en cada Estado miembro. En cambio, parece ser resultado de una tensión resultado de la confrontación entre el modelo económico escogido por la Unión y las libertades básicas que la misma se ha comprometido a proteger.
Por su parte, las redes sociales parecen estar reaccionando a todo lo anterior mediante un intento de acelerar la transición hacia procesos de adjudicación de derechos a través de instrumentos privados, como refleja el intento por establecer el Facebook Oversight Board.
Facebook ha intentado promover al FOB como una suerte de tribunal constitucional o corte suprema privada, pero más allá del ejercicio de relaciones públicas que esto supone, no tiene las características ni de una ni de otra, ni nunca podrá serlo. El FOB es un simplemente un intento de establecer un sistema para explicar el por qué de ciertas decisiones de moderación sobre ciertos contenidos con la intención de demostrar que en general, las reglas de Facebook pueden funcionar como alternativa privada para tomar decisiones sobre la libertad de expresión en línea.
Así, el FOB representa un intento por parte de la compañía de frenar iniciativas judiciales que buscan interponer criterios contenidos en sus leyes, sea a nivel local, nacional o supranacional. Sobre todo, es un intento de auto-legitimación para intentar consolidar un espacio de poder que permita a la empresa tomar decisiones en base a reglas estándar adoptadas de manera unilateral. Empresas como Facebook buscan legitimar estas reglas privadas pues piensan que son la manera más eficiente de moderar contenidos en todo el mundo en la manera que mejor coadyuve a sus intereses comerciales.
El accionar de Facebook, aunado a los intentos legislativos de delegación de las decisiones sobre la libertad de expresión en línea son parte de una misma tendencia hacia la estandarización de las reglas que rigen a la libertad de expresión en internet. Dicha estandarización representa una subversión de la idea de la libertad de expresión como un derecho reconocido universalmente que ha de ocupar un lugar privilegiado en las democracias deliberativas.
Dichas reglas privadas, sin embargo, no deberían en ningún caso suponer la suplantación de las normas adoptadas soberanamente a través de constituciones nacionales y de tratados internacionales. En sí, representan una falsa universalización de la libertad de expresión que está solo al servicio de los intereses de ciertas empresas privadas.
Así, en nuestro mundo actual, permanentemente interconectado a través de las tecnologías de la comunicación e información, y que permiten la expresión más allá de cualquier frontera nacional o jurisdicción, existe el riesgo de confundir la homogeneización de las reglas con la universalidad. Las redes sociales tienden a preferir dicha homogeneización o estandarización -que no dudan en vender como universalidad- pues es ventajosa para sus intereses comerciales.
Cuando el TJUE abre la puerta a la aplicación de leyes locales que regulan la libertad de expresión más allá de su jurisdicción original, aún si es con la intención de proteger los derechos de sus ciudadanos, se arriesgan a que tanto sus instituciones como las naciones-estado contribuyan a la estandarización de las reglas. De la misma manera, cuando las instituciones o las leyes de la UE optan por delegar la vigilancia del ejercicio de la libertad de expresión en manos privadas, como las plataformas de redes sociales, están contribuyendo a lo mismo. Al final, esto solo resultará en una consolidación del enorme poder sobre la libertad de expresión online que las plataformas de redes sociales ostentan actualmente.
El ceder ante el impulso de la estandarización y la privatización de la libertad de expresión resultará en que las naciones-estado más poderosas sean las que puedan definir las reglas, el exacto opuesto del ideal de universalización, que ha de basarse en el consenso, la búsqueda de valores comunes y la aceptación de diferencias, siempre que haya un estándar mínimo de protección a los derechos considerados como básicos y fundamentales. Un cambio de rumbo es necesario.
Abad, L. (2021). Communication Rights in the United Nations System: From Declarations to “SoftLaw”. In: I. Bel Mallén, L. Corredoira y Alfonso, y R. Cetina Presuel (Eds.), Handbook of Communication Rights, Law and Ethics: Seeking Universality, Equality, Freedom and Dignity (pp. 47–56). Hoboken: Wiley-Blackwell.
Antweiler, C. (2016). Our Common Denominator: Human Universals Revisited. New York: Berghahn Books.
Aswad, E. (2016). The Role of U.S. Technology Companies as Enforcers of Europe’s New Internet Hate Speech Ban. Columbia Human Rights Law Review, 1(1), 1–14. https://dx.doi.org/10.2139/ssrn.2829175
Badiou, A. (2003). Saint Paul: The Foundation of Universalism. Stanford: Stanford University Press.
Balkin, J. M. (2018). Free Speech is a Triangle. Columbia Law Review, 118(7). Available from https://columbialawreview.org/content/free-speech-is-a-triangle/
Balkin, J. M. (2009). The Future of Free Expression in a Digital Age. Pepperdine Law Review, 36(2), 427–444. Available from https://digitalcommons.law.yale.edu/cgi/viewcontent.cgi?article=1222&context=fss_papers
Barata, J. (February 25, 2020). Regulating content moderation in Europe beyond the AVMSD. [blog post]. https://blogs.lse.ac.uk/medialse/2020/02/25/regulating-content-moderation-in-europe-beyond-the-avmsd/
Barata, J. & Bassini, M. (2016). Freedom of Expression in the Internet: Main Trends of the Case Law of the European Court of Human Rights. In: O. Pollicino and G. Romeo (Eds.), The Internet and Constitutional Law: The Protection of Fundamental Rights and Constitutional Adjudication in Europe (pp. 79–101). New York: Routledge.
Barendt, E. M. (2005). Freedom of Speech (2 ed.). New York: Oxford University Press.
Baron, S. & Lubin, A. (2018). Extraterritorial Enforcement: Developing Norms for the Information Society. [Workshop White Paper]. New Haven: ISP/ Floyd Abrams Institute for Freedom of Expression. Available from https://law.yale.edu/sites/default/files/area/center/isp/documents/extraterritorial_enforcement_paper.pdf
Basedow, J. (2015). The Law of Open Societies: Private Ordering and Public Regulation in the Conflict of Laws. Amersfoort: Brill Nijhoff.
Beetham, D. (2009). Democracy: Universality and Diversity. Ethics y Global Politics, 2(Special 4), 284–296. https://doi.org/10.3402/egp.v2i4.2111
Belli, L. & Sappa, C. (2017). The Intermediary Conundrum: Cyber-Regulators, Cyber-Police or Both? JIPITEC, (8). Available: en https://www.jipitec.eu/issues/jipitec-8-3-2017/4620
Bevilacqua, G. (2019). The Territorial Scope of the Right to Be Forgotten Online in the Opinion of the Advocate General on the Case Google CNIL. European Papers, 4(2), 655–657. https://dx.doi.org/10.15166/2499-8249/312
Brems, E. (2001). Human Rights: Universality and Diversity (International Studies in Human Rights. The Hague: Martinus Nijhoff Publishers.
Calhoun, C. J. (1992). Habermas and the Public Sphere. Cambridge: MIT Press.
Caplan, R. & Gillespie, T. (2020). Tiered Governance and Demonetization: The Shifting Terms of Labor and Compensation in the Platform Economy. Social Media + Society, 6(2), 1–13. https://doi.org/10.1177%2F2056305120936636
Cavaliere, P. (2019). Glawischnig-Piesczek v Facebook on private enforcement of speech regulation and international jurisdiction. European Data Protection Law Review, 5(4), 573–578. https://dx.doi.org/10.2139/ssrn.3519389
Cohen, J. E. (2019). Truth and Power: The Legal Constructions of Informational Capitalism. New York: Oxford University Press.
Coletta, R. (aug. 1, 2002). Facebook bows to Brazil judge, blocks 12 accounts worldwide. Associated Press News.com. Available: https://apnews.com/article/brazil-technology-latin-america-caribbean-jair-bolsonaro-4320db5b9ed7bd9aaa478beba330819d
Corredoira, L. (2007). A new reading of Article 19 of the UDHR (1948) in our information societies. MCP, 3(3), 336–341. Available: https://www.mcponline.org/
Daskal, J. & Klonick, K. (June 27, 2019). When a Politician is Called a ‘Lousy Traitor,’ Should Facebook Censor It? The New York Times. Available: https://www.nytimes.com/2019/06/27/opinion/facebook-censorship-speech-law.html
Douek, E. (2020). The Rise of Content Cartels. Knight First Amendment Institute at Columbia, 1–12. https://dx.doi.org/10.2139/ssrn.3572309
Douek, E. (2019). Facebook’s ‘Oversight Board:’ Move Fast with Stable Infrastructure and Humility. North Carolina Journal of Law y Technology, 21(1), 1–78. Available: https://ncjolt.org/articles/6436-2/
EDRi. (May 18, 2016). Europol: Non-transparent cooperation with IT companies. EDRi. Available: https://edri.org/europol-non-transparent-cooperation-with-it-companies/
EE.UU. Convención Constitucional de Filadelfia. (17 de septiembre de 1787). Constitución de los Estados Unidos de América. [Online]. Disponible en https://www.archives.gov/espanol/constitucion
EE.UU. USC. (February 8, 1996). Public Law 104–104. [CDA]. 110 STAT. 56 / S. 652. Available: https://www.congress.gov/104/plaws/publ104/PLAW-104publ104.pdf
Facebook. (2019). Oversight Board Charter. [Online]. Available from https://about.fb.com/wp-content/uploads/2019/09/oversight_board_charter.pdf
Flauss, J.-F. (2009). The European Court of Human Rights and the Freedom of Expression. Indiana Law Journal, 84(3), 809–849. Available: https://www.repository.law.indiana.edu/ilj/vol84/iss3/3/
Franks, M. A. (2020). How the Internet Unmakes the Law. Ohio State Technology Law Journal, 16(1), 10–24. Available: https://kb.osu.edu/handle/1811/91840
Gillespie, T. (2018). Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions that Shape Social Media. New Haven: Yale University Press.
Habermas, J. (1996). Between Facts and Norms: Contributions to a Discourse Theory of Law and Democracy. Studies in Contemporary German Social thought. Cambridge: MIT Press.
Habermas, J. (1991). The Structural Transformation of the Public Sphere. An Inquiry into a Category of Bourgeois Society. Cambridge: MIT Press.
Hannum, H. (1995). The Status of the Universal Declaration of Human Rights in National and International Law. Georgia Journal of International and Comparative Law, 25(12), 289–397. Available: https://digitalcommons.law.uga.edu/gjicl/vol25/iss1/13/
Herold, A. (2008). Country of Origin Principle in the EU Market for Audiovisual Media Services: Consumer’s Friend or Foe? Journal of Consumer Policy, 31(8), 5–24. https://doi.org/10.1007/s10603-007-9054-1
Hopkins, C. (November 9, 2019). Territorial scope in recent CJEU cases: Google v CNIL/Glawischnig-Piesczek v Facebook–Cathryn Hopkins. [blog post]. Available: https://inforrm.org/2019/11/09/territorial-scope-in-recent-cjeu-cases-google-v-cnil-glawischnig-piesczek-v-facebook-cathryn-hopkins/
Howie, E. (2018). Protecting the Human Right to Freedom of Expression in International Law. Journal of Speech-Language Pathology, 20(1), 12–15. https://doi.org/10.1080/17549507.2018.1392612
Humphrey, J. (1979). The Universal Declaration of Human Rights: Its History, Impact and Judicial Character. In: B. G. Ramcharan (ed.), Human Rights: Thirty Years after the Universal Declaration: Commemorative Volume on the Occasion of the Thirtieth Anniversary of the Universal Declaration of Human Rights (pp. 21–37). Leiden: Brill | Nijhof.
Jaffer, J. & Bass, K. (February 17, 2021). Facebook’s ‘Supreme Court’ Faces Its First Major Test. The New York Times. Available: https://www.nytimes.com/2021/02/17/opinion/facebook-trump-suspension.html
Jørgensen, R. & Zuleta, Z. (2020). Private Governance of Freedom of Expression on Social Media Platforms. Nordicom Review, 41(1), 51–67. Available: https://www.nordicom.gu.se/sv/publikationer/nordicom-review/nordicom-review-41-1-2020
Kartashkin, V. (1979). Human Rights and the Modern World (thirty Years of the Universal Declaration of Human Rights). International Affairs, 48–56.
Keller, D. (February 8, 2021). Empirical Evidence of Over-Removal by Internet Companies under Intermediary Liability Laws: An Updated List. [blog post]. Available: http://cyberlaw.stanford.edu/blog/2021/02/empirical-evidence-over-removal-internet-companies-under-intermediary-liability-laws
Keller, P. (2011). European and International Media Law: Liberal Democracy, Trade, and the New Media. Oxford: Oxford University Press.
Kessler, B. S. (1985). Politics among the Airwaves: An Analysis of Soviet and Western Perspectives on International Broadcasting and the Right to Exchange Ideas and Infromation Regardless of Frontiers. Houston Journal of International Law, 7(2), 237–274. Available from http://hjil.org/articles/hjil-7-2-kessler.pdf
Klonick, K. (February 12, 2021). Inside the Making of Facebook’s Supreme Court. The New Yorker. Available: https://www.newyorker.com/tech/annals-of-technology/inside-the-making-of-facebooks-supreme-court
Klonick, K. (2020). The Facebook Oversight Board: Creating an Independent Institution to Adjudicate Online Free Expression. The Yale Law Journal, 129(8), 2418–2499. Available: https://www.yalelawjournal.org/feature/the-facebook-oversight-board
Klonick, K. (2018). The New Governors: The People, Rules, and Processes Governing Online Speech. Harvard Law Review, 131(6), 598–670. Available: https://harvardlawreview.org/2018/04/the-new-governors-the-people-rules-and-processes-governing-online-speech/
Koseff, J. (2019). The Twenty-Six Words That Created the Internet. London: Cornell University Press. Available: https://www.jstor.org/stable/10.7591/j.ctvr7fcrd
Kuczerawy, A. (2018). The Proposed Regulation on Preventing the Dissemination of Terrorist Content Online: Safeguards and Risks for Freedom of Expression. Belgium: CDT. https://dx.doi.org/10.2139/ssrn.3296864
Kuner, C. (2017). Internet and the Global Reach of EU Law. In: M. Cremona y J. Scott (eds.), EU Law Beyond EU Borders: The Extraterritorial Reach of EU Law (pp. 112–145). Oxford: Oxford University Press. Available: https://dx.doi.org/10.1093/oso/9780198842170.003.0004
Little, L. E. (2012). Internet Defamation, Freedom of Expression, and the Lessons of Private International Law for the United States. In: A. Bonomi and P. (eds.), European Yearbook of Private International Law, (14), 181–204. Available from http://www.e-collection.isdc.ch/zoom/4329/view?page=9&p=separate&view=0,0,1867,2835
Lomas, N. (August 3, 2020). Facebook fights order to globally block accounts linked to Brazilian election meddling. [blog post]. Available: https://techcrunch.com/2020/08/03/facebook-fights-order-to-globally-block-accounts-linked-to-brazilian-election-meddling/
Lyons, K. (August 3, 2020). Brazil Supreme Court orders Facebook to block accounts of several Bolsonaro allies. The Verge. Available: https://www.theverge.com/2020/8/2/21351892/brazil-supreme-court-facebook-block-bolsonaro-twitter
McGinnis, J. & Rappaport, M. (2009). Originalism and the Good Constitution. Osgoode Hall Law Journal, 52(2), 676–678. Available: https://digitalcommons.osgoode.yorku.ca/ohlj/vol52/iss2/15/
Mejía, M. R. (2017). El derecho internacional de los derechos humanos, un nuevo concepto. Justicia, 22(32), 38–63. https://doi.org/10.17081/just.23.32.2904
Michalis, M. (2014). Focal Points of European Media Policy from Inception till Present: Plus ça change? In: K. Donders, C. Pauwels y J. Loisen, The Palgrave Handbook of European Media Law [pp. 128–142]. Palgrave: Macmillan. https://doi.org/10.1057/9781137032195_8
Millaleo, S. (2015). Los intermediarios de Internet como agentes normativos. Revista de derecho (Valdivia), 28(1), 33–54. https://dx.doi.org/10.4067/S0718-09502015000100002
Morawska-Zakroczymska, Z. & Gęsicka, D. (٢٠٢٠). Case Note to the Judgment of the Court of Justice of 3 October 2019 in Case Eva Glawischnig- -Piesczek v. Facebook Ireland, C-18/18. Comparative Law Review, 25(345), 345–356. http://dx.doi.org/10.12775/CLR.2019.013
Nunziato, D. (2018). The Fourth Year of Forgetting: The Troubling Expansion of the Right to Be Forgotten. University of Pennsylvania Journal of International Law, 39(4), 101–152. http://dx.doi.org/10.2139/ssrn.3191068
ONU. Asamblea General. (16 de diciembre de 1966). Pacto Internacional de Derechos Civiles y Políticos. [ICCPR]. Resolución 2200, A(XXI). Disponible en https://www.ohchr.org/sp/professionalinterest/pages/ccpr.aspx
ONU. Asamblea General. (10 de diciembre de 1948). Declaración Universal de Derechos Humanos. [DUDH]. Resolución 217, A(III). Recuperado de https://www.ohchr.org/EN/UDHR/Documents/UDHR_Translations/spn.pdf
Paust, J. J. (1982). Transnational Freedom of Speech: Legal Aspects of the Helskinki Final Act. Law and Contemporary Problems, 45(1), 53–70. Disponible en https://scholarship.law.duke.edu/lcp/vol45/iss1/4/
Permanent Court of International Justice. (7 de septiembre de 1927). The Case of the S.S. Lotus. [France v. Turk]. 1927 P.C.I.J. (ser. A) No. 10. Available: http://www.worldcourts.com/pcij/eng/decisions/1927.09.07_lotus.htm
Price, M. (2003). Public Diplomacy and the Transformation of International Broadcasting. Cardozo Arts y Entertainment Law Journal, 21(1), 51–86. https://repository.upenn.edu/asc_papers/120
República de la India. Tribunal Superior de la India. (23 de octubre de 2019). Swami Ramdev v. Facebook. [CS (SO) 27/2019] I.A. 855/2019. Disponible en https://globalfreedomofexpression.columbia.edu/cases/ramdev-v-facebook/
Riis, T. & Schwemer, S. F. (2019). Leaving the European Safe Harbor, Sailing Towards Algorithmic Content Regulation. Journal of Internet Law, 22(7), 1–21. https://dx.doi.org/10.2139/ssrn.3300159
Rosati, E. (2019). Material, Personal and Geographic Scope of Online Intermediaries’ Removal Obligations beyond Glawischnig-Piesczek, C-18/18 and Defamation. European Intellectual Property Review. 41(1), 669–671. Available: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3438102
Rosen, J. A. (2012). The Deciders: The Future of Privacy and Free Speech in the Age of Facebook and Google. Fordham Law Review, 80(4), 1525–1538. Available from https://ir.lawnet.fordham.edu/cgi/viewcontent.cgi?article=4774&context=flr
Samonte, M. (October 29, 2019). Google v. CNIL Case C-507/17: The Territorial Scope of the Right to be Forgotten Under EU Law. [blog spot]. Available: https://europeanlawblog.eu/2019/10/29/google-v-cnil-case-c-507-17-the-territorial-scope-of-the-right-to-be-forgotten-under-eu-law/
Schauer, F. (1982). Free Speech: A Philosophical Enquiry. Cambridge: Cambridge University Press.
Schwelb, E. (1959). The Influence of the Universal Declaration of Human Rights on International and National Law. Proceedings of the American Society of International Law at Its Annual Meeting (1921-1969), 53(1959), 217–229. https://doi.org/10.1017/S0272503700023417
Sheeran, S. & Rodley, N. (2013). Routledge Handbook of International Human Rights Law. London: Routledge.
Smith, R. (November 12, 2019). Monitoring online content: the impact of Eva Glawischnig-Piesczek v Facebook Ireland Limited. ReedSmith. Available: https://www.reedsmith.com/en/perspectives/2019/11/monitoring-online-content-the-impact-of-eva-glawischnig-piesczek-v-facebook
Staveley-O’Carroll, S. (2009). Libel Tourism Laws: Spoiling the Holiday and Saving the first Amendment? NYU Journal of Law y Liberty, 4(3), 252–292. Available from https://www.law.nyu.edu/sites/default/files/ECM_PRO_062709.pdf
Suzor, N. (2019). Lawless: The Secret Rules That Govern Our Digital Lives, Cambridge: Cambridge University Press.
Svantesson, D. (2019). Grading AG Szpunar’s Opinion in Case C-18/18 – A caution against worldwide content blocking as default. Masaryk University Journal of Law and Technology, 13(2), 389–400. https://doi.org/10.5817/MUJLT2019-2-10
UE. (7 de febrero de 1992). Tratado de Maastricht. [92/C 191/01]. Diario Oficial: C191. Disponible en https://eur-lex.europa.eu/eli/treaty/teu/sign
UE. (25 de marzo de 1957). Tratado constitutivo de la Comunidad Económica Europea. [Tratado de Roma]. Diario Oficial: C 340. Disponible en https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:12002E/TXT&from=ES
UE. Commisión Europea. (diciembre 5, 2018a). Revisión de la Directiva sobre servicios de medios audiovisuales (AVMSD). [Online]. Disponible en https://ec.europa.eu/digital-single-market/en/revision-audiovisual-media-services-directive-avmsd?etrans=es
UE. Comisión Europea. (19 de septiembre de 2018b). Propuesta de Reglamento del Parlamento Europeo y del Consejo para la prevención de la difusión de contenidos terroristas en línea. Documento 52018PC0640. Disponible en https://eur-lex.europa.eu/legal-content/ES/ALL/?uri=CELEX:52018PC0640
UE. Commisión Europea. (2016). Aplicación de la Agenda Europea de Seguridad para luchar contra el terrorismo y allanar el camino hacia una Unión de la Seguridad genuina y efectiva. [Comunicación de la Comisión al Parlamento europeo, al Consejo europeo y al Consejo]. Documento 52016DC0230. COM/2016/0230 final. Disponible en https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX%3A52016DC0230
UE. Consejo Europeo. (3 de octubre de 1989). Sobre la coordinación de determinadas disposiciones legales, reglamentarias y administrativas de los Estados Miembros relativas al ejercicio de actividades de radiodifusión televisiva. [Directiva 89/552/CEE]. Diario Oficial: L 298. Disponible en: https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:31989L0552&from=EN
UE. Consejo Europeo. (3 de septiembre de 1953). Convenio para la Protección de los Derechos Humanos y de las Libertades Fundamentales. [CEDH]. BOE: 243. Recuperado de https://www.echr.coe.int/documents/convention_spa.pdf
UE. Europol. (jul. 23, 2018). EU internet referral UNIT - EU IRU. [Online]. Disponible en https://www.europol.europa.eu/about-europol/eu-internet-referal-unit-eu-iru
UE. Europol. (aug. 10, 2020). European Counter Terrorism Centre - ECTC. [Online]. Disponible en https://www.europol.europa.eu/about-europol/european-counter-terrorism-centre-ectc
UE. Parlamento Europeo y Consejo. (14 de noviembre de 2018). Por la que se modifica la Directiva 2010/13/UE sobre la coordinación de determinadas disposiciones legales, reglamentarias y administrativas de los Estados miembros relativas a la prestación de servicios de comunicación audiovisual (Directiva de servicios de comunicación audiovisual), habida cuenta de la evolución de las realidades del mercado. [Directiva (UE) 2018/1808]. DO: L303/69. Disponible en https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:32018L1808&from=ES
UE. Parlamento Europeo y Consejo. (27 de abril de 2016).Relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos). [Reglamento (UE) 2016/679]. Disponible en: https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:32016R0679&from=ES
UE. Parlamento Europeo y Consejo. (11 de mayo de 2016).Relativo a la Agencia de la Unión Europea para la Cooperación Policial (Europol) y por el que se sustituyen y derogan las Decisiones 2009/371/JAI, 2009/934/JAI, 2009/935/JAI, 2009/936/JAI y 2009/968/JAI del Consejo. [Reglamento (UE) 2016/794]. DO: 135/53. Disponible en https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:32016R0794&from=ES
UE. Parlamento Europeo y Consejo. (12 de diciembre de 2012). Relativo a la competencia judicial, el reconocimiento y la ejecución de resoluciones judiciales en materia civil y mercantil. [Reglamento (UE) N° 1215/2012]. BOE: L351/1. Recuperado de https://www.boe.es/doue/2012/351/L00001-00032.pdf
UE. Parlamento Europeo y Consejo. (10 de marzo de 2010). Sobre la coordinación de determinadas disposiciones legales, reglamentarias y administrativas de los Estados miembros relativas a la prestación de servicios de comunicación audiovisual (Directiva de servicios de comunicación audiovisual). [Directiva 2010/13/UE]. DO: L95/1. Disponible en: https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:32010L0013&from=ES
UE. Parlamento Europeo y Consejo. (8 de junio de 2000).Relativa a determinados aspectos jurídicos de los servicios de la sociedad de la información, en particular el comercio electrónico en el mercado interior (Directiva sobre el comercio electrónico). [Directiva 2000/31/CE]. Disponible en: https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:32000L0031&from=EN
UE. Parlamento Europeo. Consejo Unión Europea. Comisión Europea. (7 de diciembre de 2000). Carta de los Derechos Fundamentales de la Unión Europea. [2012/C 326/v02]. DO: C326. Disponible en https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex%3A12012P%2FTXT
UE. TJUE. (24 de septiembre de 2019). Google LLC v Commission nationale de l’informatique et des libertés (CNIL). [Case C-507/17]. ECLI:EU:C:2019:772. Disponible en https://curia.europa.eu/juris/document/document.jsf?text=&docid=218105&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=4211727
UE. TJUE. (4 de junio de 2019). Eva Glawischnig-Piesczek v. Facebook Ireland Limited. [Caso C-18/18]. ECLI:EU:C:2019:458. Disponible en https://curia.europa.eu/juris/document/document.jsf?docid=214686&doclang=EN
UE. TJUE. (17 de octubre de 2017). Ingrid Ilsjan y Svensk Handel AB. [Caso C-194/16]. EU: C:2017:766. Disponible en https://curia.europa.eu/juris/document/document.jsf?text=&docid=195583&pageIndex=0&doclang=ES&mode=req&dir=&occ=first&part=1&cid=4208715
UE. TJUE. (13 de mayo de 2014). Google Spain SL y Google Inc. contra Agencia Española de Protección de Datos (AEPD) y Mario Costeja González. [Documento 62012CJ0131]. ECLI:EU:C:2014:317. Disponible en https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX%3A62012CJ0131
UE. TJUE. (12 de julio de 2012). Solvay SA v. Honeywell Fluorine Products Europe BV, Honeywell Belgium NV, Honeywell Europe NV. [Case C-616/10]. EU:C:2012:445. Disponible en https://curia.europa.eu/juris/document/document.jsf?text=&docid=124996&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=4209056
UE. TJUE. (25 de octubre de 2011). Olivier Martinez y Robert Martinez contra MGN Limited. [Caso C509/09 y C161/10]. EU:C:2011:685. Disponible en https://curia.europa.eu/juris/document/document.jsf?text=&docid=130827&pageIndex=0&doclang=ES&mode=req&dir=&occ=first&part=1&cid=4208547
UE. TJUE. (18 de marzo de 1980). Sentencia Debauve. [Caso 52/79]. European Court Reports: 834. Recuperado de https://curia.europa.eu/juris/showPdf.jsf;jsessionid=9ea7d2dc30d6ffe5b0d610dd4bddba2abbf9a8ea6476.e34KaxiLc3qMb40Rch0SaxyMb350?text=&docid=90467&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=237477
UE. TJUE. (30 de abril de 1974). Giuseppe Sacchi. [Caso 155/73]. European Court Reports: 411. Disponible en https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX%3A61973CJ0155
Ugland, E. (2021). U.S. and International Communication Rights Frameworks and the Pursuit of Global Consensus. In I. Bel Mallén, L. Corredoira y Alfonso and R. Cetina Presuel (Eds.), Handbook of Communication Rights, Law and Ethics: Seeking Universality, Equality, Freedom and Dignity (pp. 75–86). Hoboken: Wiley-Blackwell.
Ullrich, C. (2018). A risk-based approach towards infringement prevention on the internet: adopting the anti-money laundering framework to online platforms. International Journal of Law and Information Technology, 26(3), 226–251. https://doi-org.proxy.bnl.lu/10.1093/ijlit/eay008
Van Boven, T. (1979). United Nations Policies and Strategies: Global Perspectives? In: B. G. Ramcharan (ed.), Human Rights: Thirty Years after the Universal Declaration (pp. 83–92). Boston: Brill|Nijhoff.
Van Boven, T. (1977). Partners in the Promotion and Protection of Human Rights. Netherlands International Law Review, 24(1-2), 55–71. https://doi.org/10.1017/S0165070X00016156
Vlassis, A. (2017). The review of the Audiovisual Media Services Directive. Many political voices for one digital Europe? Politique européenne, 2(56), 102–123. https://doi.org/10.3917/poeu.056.0102
Volman, L. (2018). Is the cornerstone loose? Critical analysis of the functioning of the ‘country of origin’ principle in the Audiovisual Media Services Directive, taking into account the rapid changes in the audiovisual industry and the recent challenges brought by Brexit. [Online]. Available: https://www.bai.ie/media/sites/2/2018/09/BAI-Media-Content-Regulation-Essay-Lucas-Volman.pdf
Voorhoof, D. (may. 2015). Freedom of Expression and Information and the Case Law of the European Court of Human Rights and the Court of Justice of the EU. Overview and highlights 2014. Proceedings presented at the Justice for Free Expression in 2014, A review of global freedom of expression jurisprudence in 2014 (pp. 1–55). Columbia University, New York, USA. Available: http://hdl.handle.net/1854/LU-6900863
Waddell, K. (January 19, 2016). Why Google Quit China- And Why It’s Heading Back. theatlantic.com. Available: https://www.theatlantic.com/technology/archive/2016/01/why-google-quit-china-and-why-its-heading-back/424482/
Weatherill, S. (2007). Maximum or Minimum Harmonisation – What Kind of “Europe” Do We Want? In: K. Boele-Woelki and F. W. Grosheide (eds), The Future of European Contract Law (pp. 140–141). Netherlands: Wolters Kluwer,
Wilhelmsson, T. (2004). The abuse of the “confident consumer” as a justification for EC consumer law. Journal of Consumer Policy, 27(3), 317–337. https://doi.org/10.1023/B:COPO.0000040517.34781.7d
White, C. (2019). Defamation Drama: Facebook Expresses Concern over ‘Freedom of Expression’ following AG Opinion in Defamation Case. Intellectual Property Magazine. Available: https://www.intellectualpropertymagazine.com/
Woods, A. (2018). Litigating Data Sovereignty. The Yale Law Journal, 128(2), 328–406. Available: https://www.yalelawjournal.org/article/litigating-data-sovereignty
1 Utilizamos el término “estandarización” como la ha utilizado Cohen (2020, p. 217) definiendo como reglas estándar aquellos a protocolos estructurados que los distintos nodos de una red han de seguir. Con ello buscamos reflejar que la falsa universalización se basa en los estándares privados adoptados por empresas para controlar la expresión en línea.
2 Véase, entre otros, los casos de la Convención Europea de Derechos Humanos -ECHR, Tierbefreier E.V. v. Germany (ene. 2014) y De Lesquen du Plessis-Casso v. France (ene. 2014), que tratan de la difamación; y Yaman Akdeniz v. Turkey, Appl. no. 20877/10 (dic., 2014) que trata del bloqueo de sitios web por las autoridades públicas.
Rodrigo Cetina Presuel es Doctor en Derecho de la Comunicación por la Universidad Complutense de Madrid (España). Investigador de la Harvard Law School y Director Ejecutivo del Real Colegio Complutense en Harvard (Cambridge, MA, EE.UU). https://orcid.org/0000-0002-1061-0166
.
© The author; licensee Universidad de la Costa - CUC.
JURÍDICAS CUC vol. 17 no. 1, pp. 499–556. Enero - Diciembre, 2021
Barranquilla. ISSN 1692-3030 Impreso, ISSN 2389-7716 Online