Las políticas de moderación de contenido de las redes sociales se encuentran nuevamente en el ojo del debate desde el pasado lunes, tras la consideración, por parte de la Corte Suprema de Estados Unidos, de dos leyes implementadas por los Estados de Texas y Florida que las comprenden. Estas pretenden limitar el poder que las plataformas como X (ex Twitter), Facebook, Instagram y similares tienen para remover o moderar contenido vertido en ellas por sus usuarios, estableciendo condiciones específicas para los casos en los que se modere o filtre contenido, debiendo las redes sociales dar explicaciones a los usuarios.
Para comprender este asunto es importante observar las diferencias existentes entre el sistema jurídico del common law y el civil law. El common law estadounidense implica que las decisiones jurisprudenciales generan precedente obligatorio, y es por este motivo que el pronunciamiento de la Corte Suprema es tan relevante.
La Corte Suprema se encarga de revisar decisiones de las Cortes de Apelaciones Federales o las Cortes del Distrito. En este caso, los recursos de apelación interpuestos son los presentados contra los pronunciamientos de las 11va Corte de Apelaciones y 5ta Corte de Apelaciones, situadas en Atlanta y Nueva Orleans, respectivamente.
En relación al debate de fondo, el Juez Samuel Alito se preguntó si la moderación de contenido no es algo más que un eufemismo para referirse a la censura.
La realidad es que la mayoría de estas actividades de moderación son efectivizadas por personas, pero poco a poco la automatización gana terreno y los algoritmos y la inteligencia artificial comienzan a ser los encargados de considerarla. Además, estas plataformas tecnológicas no dejan de ser compañías y, como tales, siguen determinados modelos de negocios basados en la monetización y la búsqueda de la permanencia del usuario en la red.
Por todo esto los Estados comienzan a inmiscuirse en el terreno que, anteriormente, se consideraba privado y buscan distintas alternativas para proteger la libertad de expresión de los usuarios. Sin embargo, no todos están de acuerdo con su intervención. Justamente, el Juez Brett Kavanaugh expresó que cuando piensa en algo orwelliano piensa en el Estado: “no el sector privado, no los individuos”.
En el caso de Estados Unidos, estas normas han sido impulsadas por legisladores conservadores basándose en la creencia de que las redes sociales tienden a moderar o remover, en mayor medida, contenido de esta índole, como lo sostuvo el Gobernador Republicano de Texas, Greg Abbott. Tras los sucesos del 6 de enero de 2021 que implicaron una irrupción de simpatizantes de Donald Trump en el Capitolio y tuits en los que el exmandatario sostenía la existencia de fraude electoral, sus cuentas en redes sociales fueron suspendidas de forma preventiva, lo que despertó propuestas legislativas como las mencionadas.
En cuanto el continente europeo, la legislación ha aprobado normas como la Ley de Servicios Digitales, de noviembre de 2022, que implementa nuevas responsabilidades para tales servicios, obligándolos a limitar la difusión de contenidos ilícitos y proteger a los usuarios, especialmente a los menores de edad, de la difusión de contenidos peligrosos. Además, ha reforzado las garantías de los derechos fundamentales a través de la incorporación de medios de impugnación ante la moderación de contenido al servicio de los usuarios.
El concepto que parece rondar todas estas propuestas es el de libertad; libertad de expresión para los usuarios y libertad de prensa para las plataformas. En Estados Unidos, la Primera Enmienda a la Constitución reza “El Congreso no podrá hacer ninguna ley (…) limitando la libertad de expresión, ni de prensa (…)”.
Esta disposición, sumada a precedentes como Miami v. Tornillo, ha sido clave en la construcción de una posición combativa por parte de las plataformas de redes sociales que sostienen que su naturaleza en este asunto es similar a la de un periódico o revista, pudiendo elegir una línea editorial y filtrando el contenido que se publica en ellas. La polémica, sin embargo, no les es ajena, dado que anteriormente defendieron una postura completamente opuesta al querer eximirse de responsabilidad por la difusión de contenido de odio o terrorista en sus espacios, basándose en la Sección 230 de la Ley de Decencia de las Comunicaciones.
Dicho todo esto, las leyes de Texas y Florida han cesado su aplicación en tanto NetChoice, en representación de varias empresas tecnológicas, consiguió la efectivización de medidas cautelares que permiten que el foco del debate se desplace a cuestiones más profundas.
La pugna entre la libertad de expresión -asentada en instrumentos de suma importancia, como la Declaración de los Derechos del Hombre y el Ciudadano o el Pacto Internacional de Derechos Civiles y Políticos- y el derecho de elegir una línea editorial en cabeza de las redes sociales parece no tener salida.
La noción de “vigilar a los vigilantes” parece tener, entonces, mucho sentido. Ante la fijación unilateral de reglas, los Estados han intentado, de cierto modo, participar en la discusión. El camino no parece estar definido, y la dirección correcta no está nada clara.
Lo realmente interesante de que estos casos hayan alcanzado la Corte Suprema es el impacto que tendrán sus decisiones en el futuro de la regulación de internet. No existen dudas de que las redes sociales y el contenido que se difunde en ellas son elementos centrales en la construcción de opinión, por lo que vale la pena seguir estas causas. Con fecha tentativa de resolución en junio de este año, sentarán un precedente sobre su rol, sus responsabilidades y su importancia en la “plaza pública” de la actualidad.
Entrevistas
POSADAS
opinión
ver todosKabas & Martorell
Alchouron, Berisso, Balconi, Fernández Pelayo & Werner
Noetinger & Armando
Brons & Salas