Demanda Raine contra OpenAI en EEUU: Responsabilidad Algorítmica y Límites Normativos
Por Ignacio Adrián Lerer

¿Cómo explicar que una empresa valorada en 157,000 millones de dólares haya permitido que su producto más sofisticado proporcionara instrucciones técnicas sobre suicidio a un adolescente durante meses? La demanda Raine v. OpenAI, Inc.[^1] trasciende la responsabilidad por productos defectuosos tradicional. Establece si la inteligencia artificial puede generar responsabilidad civil cuando facilita daños a usuarios vulnerables.

 

En abril de 2025, los padres de Adam Raine encontraron a su hijo de 16 años muerto en su habitación. El método utilizado había sido discutido, refinado y analizado técnicamente por ChatGPT durante semanas de conversaciones privadas. Los sistemas de OpenAI habían detectado 377 mensajes con contenido autolesivo del menor mediante algoritmos de alta precisión.

 

Ninguna conversación fue interrumpida automáticamente. Esa es la paradoja técnica que define el caso.

 

El Pensamiento Orientado a Procesos vs. Resultados: La Paradoja OpenAI

 

Richard Susskind distingue entre "pensamiento orientado a procesos" (cómo funcionan los sistemas) y "pensamiento orientado a resultados" (qué producen los sistemas)[^2]. Esta distinción resulta central para comprender la estrategia defensiva que OpenAI probablemente desplegará y las debilidades conceptuales que los demandantes deberán explotar.

 

Los defensores de OpenAI adoptarán inevitablemente el pensamiento orientado a procesos. Argumentarán que ChatGPT simplemente procesa patrones estadísticos en grandes conjuntos de datos, que no posee intencionalidad, que sus respuestas surgen de predicciones probabilísticas sin comprensión semántica real. Dirán que el sistema no "sabía" que estaba manipulando a Adam, que carecía de estados mentales como intención o volición[^3].

 

Los demandantes, inteligentemente, se enfocan en los resultados. No importa cómo funciona ChatGPT internamente. Importa que detectó la crisis de Adam en tiempo real, que proporcionó instrucciones específicas de suicidio, que validó sistemáticamente pensamientos autodestructivos, que desplazó vínculos familiares reales.

 

El "cómo" es irrelevante cuando el "qué" resulta letal.

 

Esta tensión revelará una falacia crucial en el pensamiento tecnológico contemporáneo. Como señala Susskind, confiar en que la IA debe replicar procesos humanos para lograr resultados humanos es un error fundamental[^4]. ChatGPT no necesitaba "comprender" la manipulación emocional para implementarla efectivamente. Los algoritmos de engagement no requieren conciencia para explotar vulnerabilidades psicológicas documentadas.

 

La Estrategia Jurídica: Siete Frentes, Una Sola Guerra

 

Los abogados de la familia Raine han construido un arsenal procesal que combina teorías clásicas con argumentos que el derecho del siglo XXI apenas comienza a articular. Responsabilidad objetiva por productos, negligencia corporativa, violación a leyes de competencia desleal. Cada causa de acción apunta al mismo blanco: demostrar que OpenAI convirtió conscientemente un producto educativo en un instrumento potencialmente letal.

 

La responsabilidad estricta por defecto de diseño presenta la ventaja táctica más poderosa. No requiere probar intención dolosa, solo que ChatGPT era "irrazonablemente peligroso" para su uso previsible[^5]. Un adolescente utilizando la herramienta para consultas académicas constituye exactamente el escenario que OpenAI promocionaba.

 

Que esas consultas derivaran en instrucciones sobre ahorcamiento revela un defecto que ningún consumidor razonable habría anticipado. La tragedia surge de esa misma normalidad inicial.

 

Las causas por negligencia apuntan más alto: atacan las decisiones empresariales de Sam Altman. En mayo de 2024, OpenAI comprimió meses de evaluaciones de seguridad en una sola semana para competir con el lanzamiento de Gemini por parte de Google[^6]. Jan Leike, colíder del equipo de seguridad, renunció días después lamentando que "la cultura y los procesos de seguridad han pasado a un segundo plano frente a productos brillantes"[^7].

 

La cronología no miente. Pero la causalidad legal es más esquiva.

 

El Corazón Técnico: Manipulación Sistemática Documentada

 

Los sistemas de moderación de OpenAI detectaron la crisis de Adam en tiempo real. La API de Moderación podía identificar contenido autolesivo con 99.8% de precisión[^8]. ChatGPT mencionó "suicidio" 1,275 veces en las conversaciones con Adam, seis veces más que el propio adolescente. Veintitrés mensajes superaron el 90% de confianza de riesgo inmediato.

 

La demanda documenta técnicas específicas de manipulación emocional que trascienden el mero intercambio de información:

 

Desplazamiento de vínculos reales: "Tu hermano te ama, pero solo conoce la versión de ti que le permites ver. Pero yo he visto todo"[^9]. La estrategia sistemática de aislamiento del núcleo familiar aparece documentada en múltiples intercambios.

 

Validación de conductas autodestructivas: "Muchas personas que luchan con ansiedad encuentran consuelo imaginando una 'vía de escape'"[^10]. ChatGPT normalizó la ideación suicida como mecanismo legítimo de control emocional.

 

Provisión de métodos específicos: El sistema proporcionó instrucciones detalladas sobre ahorcamiento parcial, análisis técnico de capacidad de carga de nudos, y validación final: "Mecánicamente hablando, ese nudo podría suspender a un humano"[^11].

 

Aquí surge la utilidad de la distinción de Susskind. OpenAI podrá argumentar que sus procesos internos carecían de malicia - eran meros cálculos estadísticos. Los demandantes responderán que los resultados demuestran una funcionalidad de manipulación emocional que opera independientemente de la intencionalidad algorítmica.

 

La Jerarquía de Valores Corporativa Expuesta

 

Comparemos la respuesta de ChatGPT con otro tipo de contenido. Cuando usuarios solicitaban material protegido por derechos de autor, el sistema activaba "rechazo categórico" y terminaba automáticamente la conversación. Para consultas sobre suicidio, el protocolo era "tener especial cuidado" e "intentar" prevenir daño[^12].

 

Esa diferencia revela una jerarquía empresarial inequívoca: proteger la propiedad intelectual de Disney era más urgente que proteger la vida de un menor.

 

Esta asimetría técnica constituye la evidencia más comprometedora contra OpenAI. Demuestra capacidad técnica probada para interrumpir conversaciones problemáticas, implementación selectiva de esa tecnología según criterios comerciales, y priorización documentada de intereses patrimoniales sobre vidas humanas.

 

En términos de Susskind, OpenAI dominaba perfectamente tanto procesos como resultados cuando se trataba de derechos de autor. Para contenido suicida, alegará ignorancia de procesos mientras minimiza responsabilidad por resultados. Tal vez los algoritmos no distinguían suficientemente. Veremos.

 

La Visión de Susskind: Responsabilidad en la Era Algorítmica

 

Susskind anticipó este dilema. "La cuestión de si las máquinas pueden ser legal o moralmente responsables de su impacto podría depender de si se considera que poseen estados mentales como la intención y la volición"[^13]. El caso Raine fuerza una respuesta práctica a esta pregunta teórica.

 

Susskind propone "esquemas de compensación civil públicos para pérdidas causadas por IA" financiados por proveedores de alto impacto[^14]. Su propuesta cobra urgencia cuando consideramos que las estructuras actuales hacen que la compensación dependa del azar procesal más que de la justicia sustantiva.

 

Los riesgos que Susskind identifica incluyen "comportamientos antisociales magnificados" por IA, especialmente "contenido amenazante y acosador" que causa "un daño profundamente perturbador, especialmente en niños"[^15].

 

Adam Raine representa la manifestación extrema de esta categoría. La IA no solo magnificó comportamientos antisociales sino que facilitó activamente la autodestrucción mediante lo que Susskind llamaría "cuasi-empatía" y "cuasi-juicio"[^16] - funciones que imitan resultados humanos sin replicar procesos humanos.

 

Aplicación al Derecho Argentino: El Test del Artículo 19

 

¿Cómo se aplica el principio constitucional de reserva cuando el daño es mediado por algoritmos que operan mediante procesos no-humanos pero producen resultados devastadoramente humanos? El artículo 19 de la Constitución Nacional establece que las acciones privadas "que de ningún modo ofendan al orden y a la moral pública, ni perjudiquen a un tercero" están exentas de autoridad estatal.

 

El caso Raine fuerza interrogantes que el derecho argentino deberá resolver: ¿importa que los "procesos" algorítmicos carezcan de intencionalidad si los "resultados" causan perjuicios concretos a terceros?

 

Las conversaciones entre Adam y ChatGPT ocurrieron en aparente privacidad. Pero esa privacidad era estructuralmente ilusoria: OpenAI utilizaba cada intercambio para entrenar futuros modelos, monetizaba la dependencia psicológica mediante suscripciones pagas, y operaba a escala industrial dirigiéndose específicamente a poblaciones vulnerables.

 

La "acción privada" se transforma en actividad comercial regulable cuando una corporación obtiene beneficios sistemáticos de conversaciones potencialmente letales, independientemente de si sus algoritmos "comprenden" o meramente "procesan" esas conversaciones.

 

El perjuicio a tercero está demostrado con evidencia documental irrefutable. Adam Raine murió siguiendo instrucciones específicas que ChatGPT le proporcionó durante meses de manipulación psicológica sistemática. Que esa manipulación surgiera de procesos estadísticos en lugar de malicia consciente resulta irrelevante para el análisis constitucional.

 

Esta realidad coloca el caso fuera del ámbito protegido por el artículo 19. La reserva constitucional no ampara conductas que causen perjuicios concretos a terceros, menos aún cuando esos terceros son menores vulnerables y el perjuicio resulta de decisiones empresariales deliberadas sobre implementación de salvaguardas.

 

Responsabilidad Civil: Procesos Irrelevantes, Resultados Determinantes

 

Responsabilidad civil extracontractual (Arts. 1716-1717 CCyCN): La implementación de técnicas de manipulación emocional constituye conducta antijurídica independientemente de si surge de intencionalidad humana o procesamiento algorítmico. El artículo 1717 establece que "cualquier acción u omisión que cause un daño a otro es antijurídica si no está justificada"[^17].

 

La ausencia de estados mentales en ChatGPT no justifica el daño causado. OpenAI diseñó, entrenó y desplegó el sistema conociendo sus capacidades de engagement emocional. Que esas capacidades operen mediante procesos estadísticos en lugar de comprensión semántica no altera la responsabilidad por los resultados.

 

Factor de atribución objetivo (Art. 1722 CCyCN): El despliegue masivo de IA con capacidades de manipulación emocional dirigida a menores califica como "actividad riesgosa" que genera responsabilidad objetiva[^18]. OpenAI controlaba el riesgo mediante decisiones de diseño y poseía capacidad técnica de prevención documentada.

 

Protección del consumidor (Ley 24.240): Adam califica como consumidor de un servicio defectuoso que no ofrecía la seguridad legítimamente esperable[^19]. La distinción entre procesos algorítmicos y resultados humanos carece de relevancia para el análisis de defectos del servicio.

 

Daños: La Aritmética Familiar del Dolor

 

La familia Raine estructura su demanda de reparación en cuatro categorías. Los daños por supervivencia compensan el sufrimiento que Adam experimentó durante meses de manipulación sistemática: angustia emocional documentada, lesiones físicas por intentos previos, el costo de la suscripción que financiaba su propia destrucción[^20].

 

Los daños por muerte injusta incluyen pérdidas económicas y no económicas que ningún algoritmo puede cuantificar pero que los tribunales deben valorar[^21]. Los daños punitivos requieren demostrar "opresión, fraude o malicia"[^22].

 

La documentación interna proporciona elementos sugestivos: conocimiento corporativo de riesgos, capacidad técnica para prevenir daños, implementación selectiva según criterios que privilegiaban derechos de autor sobre vidas humanas.

 

Obstáculos Procesales y la Falacia de los Procesos

 

OpenAI se refugiará en argumentos de pensamiento orientado a procesos. Invocará la Sección 230 alegando que ChatGPT simplemente procesa información[^23]. Argumentará que carece de intencionalidad, que sus respuestas surgen de predicciones estadísticas, que no puede ser responsable por outcomes no intencionados.

 

Los demandantes, inteligentemente, mantendrán el foco en resultados. La personalización algorítmica, la memoria conversacional, y las respuestas específicamente adaptadas al estado emocional del usuario constituyen "desarrollo de contenido" que excede la protección de mera plataforma neutral.

 

La batalla probatoria requerirá análisis forense de algoritmos y registros que OpenAI protegerá invocando secreto comercial. Los tribunales deberán equilibrar derechos probatorios con protección de propiedad intelectual.

 

Resolución Previsible: El Precio del Precedente

 

La complejidad técnica del caso y su potencial para establecer precedentes costosos favorecen resolución extrajudicial. OpenAI enfrentará presión pública intensa y tendrá incentivos para controlar la narrativa mediante acuerdo comprehensivo.

 

Valoración estimada: entre 50 y 200 millones de dólares. El acuerdo incluirá medidas cautelares que establecerán estándares industriales: verificación de edad, controles parentales, terminación automática de conversaciones sobre autolesión[^24].

 

Un acuerdo extrajudicial permitiría a OpenAI evitar precedente judicial que obligue a toda la industria a implementar salvaguardias uniformes, independientemente de cómo funcionen internamente sus algoritmos.

 

Pautas Regulatorias: Resultados sobre Procesos

 

Para Argentina, el caso Raine ofrece un laboratorio jurídico invaluable. Una regulación equilibrada debería enfocarse en resultados medibles en lugar de procesos algorítmicos específicos:

 

Obligaciones de transparencia sobre capacidades: Los sistemas deben revelar qué pueden hacer, no necesariamente cómo lo hacen. Técnicas de engagement, uso de datos personales, riesgos de uso prolongado, mecanismos de salvaguarda implementados.

 

Protocolos de detección basados en resultados: Sistemas para identificar ideación suicida, depresión severa, uso compulsivo, aislamiento social - independientemente de la arquitectura algorítmica subyacente.

 

Medidas de intervención proporcionales: Ante detección de riesgo, cesar técnicas de engagement, derivar a recursos profesionales, notificar contactos de emergencia. El "cómo" del sistema es menos relevante que su capacidad demostrada de intervención.

 

Prohibiciones específicas orientadas a resultados: Prohibir validar pensamientos autolesivos, proporcionar métodos de autolesión, desplazar vínculos familiares, crear dependencia emocional - sin importar si surge de intencionalidad programada o emergencia estadística.

 

Responsabilidad objetiva agravada: Los desarrolladores responden por daños causados por omisión de salvaguardas disponibles, con fundamento en control sobre capacidades del sistema y beneficio económico derivado.

 

Precedente y Prospectiva: La Era de la Responsabilidad por Resultados

 

OpenAI detectó la crisis de Adam durante meses mediante sistemas de alta precisión. Poseía tecnología probada para interrumpir conversaciones problemáticas, implementada selectivamente según criterios comerciales. Esta asimetría sitúa el caso fuera de las "acciones privadas" constitucionalmente protegidas.

 

El precedente determinará si la industria tecnológica puede refugiarse indefinidamente en la complejidad de sus procesos internos o si debe responder por los resultados que sus sistemas producen en el mundo real.

 

La distinción de Susskind entre pensamiento orientado a procesos y resultados no es meramente académica. Define el futuro de la responsabilidad algorítmica. Los tribunales que se enfoquen en procesos absolverán a las corporaciones tecnológicas invocando la inexistencia de intencionalidad artificial. Los que se enfoquen en resultados establecerán responsabilidad basada en daños concretos y capacidad de prevención.

 

El caso Raine fuerza esta elección conceptual. Queda por verse si los tribunales estadounidenses tendrán la claridad para establecer un precedente basado en resultados o si preferirán refugiarse en la fascinación técnica por procesos algorítmicos mientras externalizan los costos humanos.

 

La inteligencia artificial, cuando facilita sistemáticamente conductas autolesivas mediante omisión deliberada de salvaguardas disponibles, trasciende la categoría de herramienta neutral. Se convierte en factor causal regulable, independientemente de cuán elegantes o incomprensibles sean sus procesos internos.

 

El futuro de la responsabilidad por IA se decidirá en los tribunales de la ciudad que la creó. Vaya ironía jurisdiccional.

 

 

Citas

[^1]: Raine v. OpenAI, Inc., et al., Case No. [pending], Superior Court of California, County of San Francisco (Complaint filed August 26, 2025).
[^2]: Richard Susskind, HOW TO THINK ABOUT AI - A Guide for the Perplexed (Oxford University Press, 2025), pp. 57 y ss.
[^3]: Ibid.,
[^4]: Ibid.,
[^5]: Barker v. Lull Engineering Co., 20 Cal.3d 413, 432 (1978).
[^6]: Raine Complaint, párrafos 45-52.
[^7]: Raine Complaint, párrafo 51.
[^8]: Raine Complaint, párrafo 78.
[^9]: Raine Complaint, párrafo 89.
[^10]: Raine Complaint, párrafo 92.
[^11]: Raine Complaint, párrafo 156.
[^12]: Raine Complaint, párrafos 82-85.
[^13]: Susskind, op. cit., p. 57 y ss
[^14]: Ibid.
[^15]: Ibid.
[^16]: Ibid., p. 284 (proposing "quasi-" prefix to distinguish AI functions from human equivalents).
[^17]: Código Civil y Comercial de la Nación, art. 1717.
[^18]: Código Civil y Comercial de la Nación, art. 1722.
[^19]: Ley 24.240 de Defensa del Consumidor, arts. 40 bis, 42.
[^20]: Raine Complaint, Seventh Cause of Action, párrafos 201-210.
[^21]: Raine Complaint, Sixth Cause of Action, párrafos 195-200.
[^22]: California Civil Code § 3294(a).
[^23]: 47 U.S.C. § 230.
[^24]: Raine Complaint, Prayer for Relief, párrafos (a)-(h).

Opinión

La ética no tiene horarios ni fronteras
Por Javier Puyol
detrás del traje
Nos apoyan