Actualmente la discusión jurídica sobre las plataformas digitales se plantea no ya con respecto al contenido sino al formato. No en lo que se publica, sino en el modo en que un algoritmo decide mostrárnoslo. Sistemas diseñados para capturar nuestra atención, prolongar nuestra permanencia y reducir nuestra capacidad de salida comienzan a ser cuestionados en tribunales y regulaciones. El debate que se abre no es sobre censura: es sobre arquitectura digital y autonomía.
Hace poco más de dos meses analizábamos en este mismo medio el impacto que determinadas arquitecturas digitales podían generar sobre la psiquis de los menores y sobre la autonomía de los usuarios en general¹. Allí se desarrolló —con apoyo en estudios pediátricos y psicológicos— que herramientas como el scroll infinito, la reproducción automática, los sistemas de recomendación personalizados y las notificaciones inteligentes no operan como mecanismos neutrales, sino como estructuras de optimización orientadas a maximizar permanencia, interacción y tiempo de pantalla².
Desde entonces, el debate dejó de ser exclusivamente académico o regulatorio. Comenzó a judicializarse con una intensidad que no puede ser ignorada.
I. Estados Unidos: la categoría del design defect aplicada al algoritmo adictivo
En Estados Unidos —particularmente en el Estado de California— las grandes plataformas tecnológicas enfrentan una doble contienda en la justicia federal y en la justicia estatal por la utilización de algoritmos presuntamente adictivos. En estos procesos se está discutiendo su responsabilidad civil por fuera de la clásica inmunidad prevista en la Sección 230 del Communications Decency Act³.
El escenario judicial estadounidense ha dejado de ser un campo de batalla exclusivo sobre la libertad de expresión para transformarse en un laboratorio de responsabilidad civil donde el algoritmo es el principal acusado.
1. El proceso estatal: el caso “K.G.M. v. Meta Platforms, Inc.”
En el fuero estatal de California, el caso K.G.M. v. Meta Platforms, Inc., et al., integrado dentro de la coordinación judicial conocida como Social Media Cases (JCCP N° 5255)⁴, constituye uno de los procesos más avanzados.
Superadas las mociones de desestimación, el litigio se encamina a convertirse en uno de los primeros casos “bellwether” —casos testigo— que podrían llegar a juicio oral ante jurado. La cuestión central no es la publicación de contenidos ilícitos, sino si la arquitectura de Instagram y Facebook, con sus sistemas de refuerzo intermitente y recomendación personalizada, puede calificar como un producto defectuoso bajo el derecho común de responsabilidad por productos (products liability).
El encuadre jurídico desplaza el eje desde la actividad editorial hacia el diseño del producto digital. La discusión se estructura en torno a los estándares clásicos del design defect, particularmente el consumer expectation test y el risk-utility test, aplicados por primera vez con esta intensidad a sistemas algorítmicos de recomendación.
El éxito del caso dependerá de que pueda probarse que el sistema no operaba de manera accidental, sino que fue diseñado deliberadamente para prolongar la permanencia del usuario mediante mecanismos que sus propios desarrolladores sabían —o debían saber— que podían resultar dañinos.
2. El proceso federal: la MDL 3047
En paralelo, en el fuero federal, el Judicial Panel on Multidistrict Litigation consolidó cientos de demandas en el proceso denominado In re Social Media Adolescent Addiction/Personal Injury Products Liability Litigation, MDL N° 3047, tramitado ante el Tribunal de Distrito del Norte de California⁵.
Se trata de una multidistrict litigation (MDL), mecanismo procesal que no constituye una class action, sino una centralización de acciones individuales con hechos comunes para unificar el discovery y las decisiones preliminares. A comienzos de 2026 el proceso superaba las 2.400 demandas individuales promovidas por menores, familias y distritos escolares⁶.
Bajo la dirección de la jueza Yvonne Gonzalez Rogers, el tribunal ha rechazado en etapas preliminares la aplicación automática de la inmunidad prevista en la Sección 230 porque lo cuestionado no es el contenido generado por terceros, sino el diseño del sistema de recomendación adictivo⁷. La distinción comienza a delinearse con mayor claridad: la inmunidad puede proteger el mensaje, pero no necesariamente el diseño del mensajero cuando éste es alegado como intrínsecamente riesgoso.
El discovery ha incluido producción masiva de documentos internos y declaraciones testimoniales de ejecutivos e ingenieros, exponiendo análisis corporativos sobre engagement, retención y comportamiento adolescente⁸.
3. Acuerdos y reconfiguración del escenario
En procesos paralelos iniciados por distintos Estados norteamericanos, TikTok y Snap Inc. han alcanzado acuerdos extrajudiciales vinculados con alegaciones sobre diseño y protección de menores⁹. Estos acuerdos, aunque no constituyen precedentes jurisdiccionales, revelan el riesgo sistémico que implica someter la arquitectura algorítmica a un veredicto de responsabilidad por producto ante jurado.
Meta y Google continúan litigando.
El dato jurídicamente relevante es otro: por primera vez, el algoritmo ingresa al expediente no como herramienta editorial, sino como característica estructural del producto digital.
II. Europa: del contenido a la estructura
En la Unión Europea, el Reglamento (UE) 2022/2065 —conocido como Digital Services Act— impuso obligaciones específicas de evaluación y mitigación de riesgos sistémicos para plataformas de muy gran tamaño, incluyendo impactos en menores y exigencias de transparencia en los sistemas de recomendación¹⁰.
España ha anunciado medidas regulatorias adicionales orientadas a reforzar la protección de menores frente a plataformas digitales¹¹, mientras que Francia sancionó la Ley N° 2023-566 sobre mayoría digital y control parental¹².
El eje regulatorio europeo ya no se limita a la remoción de contenidos ilícitos, sino que se orienta a la gobernanza del diseño sistémico.
III. Las “redes sociales” que ya no son sociales
Diversos estudios académicos sobre economía de la atención sostienen que las plataformas han mutado desde estructuras de interacción entre pares hacia sistemas de curaduría algorítmica orientados a maximizar retención¹³. La mayoría de los contenidos consumidos por los usuarios no proviene de contactos directos, sino de recomendaciones automatizadas.
El desplazamiento altera la naturaleza del servicio y, con ello, el encuadre jurídico del debate. Si el modelo deja de ser predominantemente social y se convierte en arquitectura de captura conductual, la discusión sobre responsabilidad no puede agotarse en la libertad de expresión.
IV. Argentina: coherencia doctrinaria y precisión conceptual
En nuestro país, el precedente rector continúa siendo “Rodríguez, María Belén c/ Google Inc”.¹⁴, que consolidó un estándar de responsabilidad subjetiva para buscadores y rechazó deberes generales de monitoreo.
Ese criterio fue confirmado por varios precedentes de la CSJN reafirmándose la centralidad de la libertad de expresión en el entorno digital¹⁵.
La defensa de intermediarios tecnológicos frente a intentos de censura preventiva ha sido una convicción jurídica sostenida en el tiempo¹⁶. Precisamente por ello resulta imprescindible no confundir planos: una cosa es la responsabilidad por contenidos de terceros; otra, distinta, es el análisis del diseño estructural de un producto digital cuando éste es alegado como generador de riesgos previsibles.
La figura de la prevención del daño, que en el ámbito de la circulación de contenidos puede derivar en efectos inhibitorios sobre la libertad de expresión, requiere extrema prudencia. Pero cuando el debate se desplaza hacia el diseño sistémico y la seguridad del producto, el análisis jurídico cambia de naturaleza.
No estamos discutiendo la remoción de contenidos. Estamos examinando la arquitectura que decide qué vemos, en qué orden y durante cuánto tiempo.
V. Libertad de expresión y libertad del usuario
La libertad de expresión protege el contenido. Pero cuando el problema jurídico se sitúa en la estructura que organiza la experiencia digital, la pregunta es distinta: si un sistema optimizado para explotar sesgos cognitivos condiciona la autonomía del usuario, ¿seguimos ante el mismo conflicto normativo?
En adultos, el eje puede vincularse con consentimiento informado y autodeterminación. En menores, el análisis se refuerza a la luz de la Convención sobre los Derechos del Niño y la Ley 26.061¹⁷.
Lo que hoy se discute en tribunales extranjeros no es censurar ideas, sino determinar si ciertos diseños pueden generar riesgos previsibles que el derecho tradicionalmente ha considerado jurídicamente relevantes.
VI. El debate que viene
Durante más de dos décadas, el derecho digital discutió si las plataformas debían responder por lo que otros publicaban. Ese debate fue central —y en nuestro país tuvo una respuesta clara en el caso Rodríguez—.
El próximo capítulo es más complejo.
No se trata de decidir qué contenidos deben permanecer en línea, sino de examinar cómo fue diseñado el entorno digital para maximizar permanencia, reducir fricciones de salida y modular conductas a escala masiva.
Cuando el algoritmo deja de ser invisible y se convierte en objeto de prueba; cuando el código fuente comienza a leerse en expedientes judiciales; cuando la arquitectura digital es evaluada bajo categorías clásicas de responsabilidad por producto, la autorregulación deja de ser un argumento suficiente.
La pregunta ya no es quién habla en Internet. La pregunta es quién diseñó el entorno para que no podamos dejar de mirar.
Y esa discusión —que recién comienza— definirá el alcance de la responsabilidad civil en la era de la economía de la atención.
Notas
Opinión
Ojam IP
opinión
ver todosBarreiro
Kabas & Martorell























































































































