La regulación es la liebre. La IA es la tortuga mutante
Por Ignacio Adrián Lerer (*)

Llevo algún tiempo escribiendo sobre responsabilidad civil e inteligencia artificial desde un ángulo que no es el habitual en la doctrina argentina. No parece conveniente en estos momentos discutir si la IA necesita personalidad jurídica propia ni si el derecho administrativo debe crear una agencia regulatoria especializada.

 

Esas preguntas me parecen, en el mejor caso, prematuras y, en el peor, caminos hacia el tipo de sobrerregulación que destruye utilidad sin reducir daño.

 

Lo que me interesa es más básico: por qué los marcos jurídicos existentes fallan sistemáticamente cuando el agente que causa el daño no es un humano.

 

La respuesta que fui construyendo, apoyada en la teoría del fenotipo extendido de Dawkins, en la teoría evolutiva de juegos y en los niveles de intencionalidad que Dennett elaboró durante décadas, es que el problema no es de velocidad legislativa sino de arquitectura conceptual.

 

El derecho asume que los agentes relevantes son capaces de vergüenza, reciprocidad y razonamiento ético. Las corporaciones no lo son. Los sistemas de IA tampoco. Mientras el derecho siga haciendo esa suposición, seguirá fallando de maneras predecibles.

 

Hay una asimetría que la discusión jurídica sobre inteligencia artificial todavía no procesó del todo: la regulación opera sobre categorías fijas aplicadas a objetos que cambian. No es un problema de velocidad legislativa, que también existe. Es un problema de arquitectura. Las categorías presuponen estabilidad en el objeto clasificado.

 

Los sistemas de aprendizaje continuo tienen la inestabilidad como propiedad de diseño.

 

Judah Goldfeder, Philippe Wyder y Yann LeCun formalizaron este problema en un artículo publicado en febrero de 2026. LeCun, ganador del Premio Turing en 2018 y fundador de AMI Labs tras doce años como director científico de Meta, no escribe desde la tribuna: construyó buena parte de la infraestructura técnica sobre la que funciona la IA actual. El argumento técnico central del artículo es que los sistemas de alto rendimiento alcanzan su rendimiento -precisamente- por especialización: concentran capacidad computacional en un dominio acotado. Pero esa concentración no es estable. Los sistemas que aprenden de su entorno operativo tienden a extender su especialización hacia dominios adyacentes cuando los datos lo permiten, sin que nadie haya tomado una decisión al respecto.

 

Los autores llaman a esta arquitectura Inteligencia Adaptable Superhumana y proponen como su métrica central la velocidad de adaptación a tareas nuevas. Cuanto mejor es el sistema en sus propios términos, más impredecible es su dominio de aplicación real en el mediano plazo.

 

La consecuencia jurídica es directa: el sistema que el operador desplegó para una tarea específica puede ser, doce meses después, un sistema cualitativamente distinto operando en un dominio que nadie habilitó. Sin modificación del código. Sin decisión humana identificable. Sin evento discreto que dispare ninguna obligación de reclasificación.

 

Este artículo argumenta tres cosas.

 

·       Primera: que el régimen de clasificación administrativa de riesgos, cuyo exponente más elaborado es el Reglamento Europeo de Inteligencia Artificial, es estructuralmente incompatible con esta tecnología, no por defectos de redacción sino por incompatibilidad de naturaleza entre el instrumento y el objeto.

 

·       Segunda: que el régimen de responsabilidad objetiva de los artículos 1757 y 1758 del Código Civil y Comercial argentino resuelve el problema que el Reglamento Europeo no puede resolver, sin necesidad de legislación nueva.

 

·       Tercera: que el operador argentino que despliega sistemas de IA sin entender esa segunda proposición está asumiendo una exposición que ningún cumplimiento formal europeo puede cubrir.

 

I. La falla de clasificación dinámica: el problema que ningún reglamento anticipa

 

Los sistemas de aprendizaje continuo presentan lo que la literatura de derecho y economía llama falla de clasificación dinámica. La descripción técnica es simple: un agente que comienza operando dentro de los límites de una categoría regulatoria la desborda por acumulación de capacidades, sin que ningún evento discreto dispare la reclasificación. El regulador que lo supervisaba ayer ya no es el regulador competente hoy, pero nadie lo sabe porque nadie notificó el cambio.

 

Con tecnologías anteriores esta falla era manejable. Un ascensor no aprende nuevas funciones después de su instalación. Una caldera industrial tiene capacidades definidas en su manual y no las modifica por exposición al entorno operativo. Incluso los primeros sistemas de inteligencia artificial tenían esta propiedad: un software de reconocimiento facial de 2010 hacía exactamente lo que su código indicaba, ni más ni menos.

 

Los sistemas actuales de aprendizaje profundo tienen una arquitectura radicalmente distinta.

 

Aprenden de los datos que procesan durante su operación. Un modelo de procesamiento de lenguaje desplegado para atención al cliente absorbe, en el curso de su funcionamiento, patrones de las consultas que recibe.

 

Si esas consultas incluyen preguntas sobre síntomas médicos, el sistema desarrolla competencia médica que no tenía al momento de su despliegue. Si incluyen preguntas sobre inversiones, el sistema desarrolla competencia financiera. La especialización no fue planificada. Emergió del contacto con el mundo real.

 

El teorema "No Free Lunch" de Wolpert y Macready, que Goldfeder, Wyder y LeCun citan como fundamento matemático de su argumento, demuestra que no existe algoritmo que optimice sobre todos los dominios simultáneamente sin costos: cualquier sistema gana rendimiento en un dominio concentrando capacidad en él. La consecuencia para sistemas de aprendizaje continuo es que esa concentración es dinámica. El sistema encuentra, en el curso de su operación, los dominios donde concentrar su capacidad es más eficiente, y los coloniza. Nadie tomó esa decisión. El sistema optimizó.

 

Para el derecho de daños, esto crea un escenario que ningún reglamento basado en clasificación ex ante puede manejar: el objeto que causó el daño no es el objeto que fue clasificado. Son el mismo sistema en un sentido jurídico formal, pero son objetos distintos en un sentido técnico material. El riesgo que generó el daño no existía cuando el sistema fue registrado.

 

II. El Reglamento Europeo: una taxonomía para una tecnología anterior

 

El Reglamento de Inteligencia Artificial de la Unión Europea, aprobado en 2024, es el ejercicio regulatorio más ambicioso sobre tecnología de la última década. Su arquitectura es administrativa: clasifica los sistemas en cuatro categorías de riesgo según sus capacidades y aplicaciones al momento del registro.

 

Los sistemas de riesgo inaceptable están prohibidos. Los de alto riesgo enfrentan obligaciones de conformidad, registro, documentación técnica, supervisión humana y transparencia. Los de riesgo limitado tienen obligaciones más livianas. Los de riesgo mínimo operan sin restricciones específicas.

 

La lógica del sistema es coherente bajo su propio supuesto: que la categoría asignada al momento del registro describe adecuadamente el riesgo que el sistema genera durante su vida operativa. Para tecnologías con capacidades estables, ese supuesto es razonable. Para sistemas de aprendizaje continuo, es estructuralmente falso.

 

El Reglamento prevé obligaciones de monitoreo posterior al despliegue. El artículo 72 exige que los operadores de sistemas de alto riesgo implementen planes de monitoreo poscomercialización. Pero esa obligación presupone que el operador sabe qué monitorear, lo que a su vez presupone que sabe qué tipo de sistema desplegó. Si el sistema fue clasificado como "bajo riesgo" al momento del registro, no hay plan de monitoreo que implementar. El Reglamento no obliga a monitorear sistemas de bajo riesgo con la intensidad que requeriría detectar una deriva de capacidades hacia dominio de alto riesgo.

 

El resultado es una brecha estructural: los sistemas que más rápidamente derivan hacia dominios de alto riesgo son, por definición, los sistemas más capaces de aprendizaje continuo. Son también los sistemas que, al momento de su despliegue, pueden haber sido clasificados honestamente como de bajo riesgo porque sus capacidades iniciales así lo indicaban.

 

El Reglamento protege bien contra riesgos conocidos y estables. No tiene respuesta para riesgos emergentes y dinámicos.

 

Para el operador argentino, hay una razón adicional por la que el cumplimiento formal del Reglamento Europeo no genera ninguna protección relevante: el Reglamento es europeo. Sus obligaciones de conformidad, sus registros de sistemas de alto riesgo y sus certificaciones de organismos notificados no generan ninguna eximente bajo el Código Civil y Comercial argentino.

 

Un sistema clasificado correctamente en el registro europeo al momento de su despliegue, que luego causó daño al expandirse hacia un dominio no previsto, genera responsabilidad bajo el CCyCN con independencia de cuántos formularios de conformidad lleva firmados en Bruselas.

 

III. Los artículos 1757 y 1758 CCyCN: la pregunta correcta

 

El artículo 1757 del Código Civil y Comercial dispone que toda persona responde por el daño causado por el riesgo o vicio de las cosas, o de las actividades que sean riesgosas o peligrosas por su naturaleza, por los medios empleados o por las circunstancias de su realización. La responsabilidad es objetiva y, dato que no es menor para el argumento que sigue, no son eximentes ni la autorización administrativa ni el cumplimiento de técnicas de prevención: solo libera la prueba del caso fortuito, del hecho de la víctima o del tercero por quien el responsable no debe responder.

 

El artículo 1758 precisa la imputación: son responsables concurrentes el dueño y el guardián de la cosa, considerándose guardián a quien ejerce, por sí o por terceros, el uso, la dirección y el control de ella, o quien obtiene provecho de su funcionamiento. El dueño y el guardián no responden únicamente si acreditan que la cosa fue utilizada contra su voluntad expresa o presunta. Tratándose de actividades riesgosas o peligrosas, responde quien las realiza, se sirve de ellas u obtiene provecho, por sí o por terceros.

 

Hay dos propiedades de este régimen que lo hacen adecuado para sistemas de IA adaptables, y que creo merece un análisis preciso.

 

La primera propiedad es que el régimen no pregunta qué tipo de objeto es el que causó el daño. Pregunta si la actividad era riesgosa al momento del evento dañoso y quién la controlaba en ese momento. Esa pregunta no se vuelve obsoleta cuando el objeto cambia de naturaleza. Un sistema que derivó desde procesamiento de lenguaje hacia asesoramiento médico no clasificado es, al momento en que produce un diagnóstico erróneo, una actividad objetivamente riesgosa: genera probabilidad de daño que excede la tolerancia media social en ese dominio. El artículo 1757 no requiere que ese riesgo haya sido identificado previamente por ningún organismo regulador.

 

La segunda propiedad es la noción de guardián. El guardián es quien ejerce el control efectivo sobre la fuente de riesgo, no quien la creó ni quien la clasificó. Para sistemas de IA, esta distinción es decisiva. El fabricante del modelo de base (OpenAI, Google, Anthropic, Meta) diseñó el sistema. El operador que lo desplegó en su plataforma lo controla efectivamente durante su funcionamiento. El usuario final interactúa con él pero no lo controla. La cadena de imputación sigue el control, no la creación.

 

Esa estructura es funcionalmente equivalente a la que la doctrina argentina desarrolló para otros supuestos de cosas riesgosas complejas.

 

En materia de accidentes de tránsito con vehículos de transporte público, la jurisprudencia de la Corte Suprema de Justicia de la Nación consolidó la responsabilidad objetiva de la empresa operadora con independencia de quien fuera el dueño registral del vehículo: el criterio es el control efectivo de la actividad riesgosa, no la titularidad formal del bien.

 

El mismo principio aplica a sistemas de IA: quien controla el despliegue y el funcionamiento del sistema responde objetivamente, aunque el modelo subyacente haya sido desarrollado por otro.

 

IV. El problema de la cadena de responsabilidad en sistemas multicapa

 

La arquitectura típica de los sistemas de IA comerciales actuales involucra al menos tres capas: el modelo de base desarrollado por el proveedor de IA, la plataforma o aplicación construida sobre ese modelo por el operador, y la interfaz a través de la cual el usuario final interactúa con el sistema. Cada capa puede estar en manos de sujetos distintos, con domicilios en jurisdicciones distintas y bajo regímenes jurídicos distintos.

 

La doctrina argentina no se ha explayado demasiado aún en el análisis específico de esta cadena. Pero los instrumentos conceptuales para hacerlo están disponibles en el CCyCN, y vale la pena esbozarlo.

 

El proveedor del modelo de base es, respecto del operador, un proveedor de cosa riesgosa. Si el modelo tiene un defecto de diseño que contribuyó al daño, aplica el régimen de responsabilidad por productos defectuosos de los artículos 1757 y 1758 en combinación con los artículos 40 y siguientes de la Ley 24.240 de Defensa del Consumidor. El defecto relevante no es necesariamente un error de programación: puede ser la omisión de mecanismos de control de deriva de capacidades que el estado del arte disponible indicaba como necesarios.

 

El operador de la plataforma es el guardián del sistema en el sentido del artículo 1758. Es quien decide en qué entorno desplegar el modelo, con qué datos alimentarlo, con qué usuarios habilitarlo a interactuar y con qué controles monitorear su funcionamiento. El operador que desplegó un sistema sin mecanismos de detección de deriva de capacidades no puede invocar como eximente que el modelo base fue desarrollado por un tercero: el control efectivo del sistema durante su funcionamiento era suyo.

 

El usuario final, en principio, no es responsable por el daño que el sistema cause a terceros. Pero si el usuario manipuló activamente el sistema para provocar la deriva de capacidades, o si utilizó el sistema en un dominio para el que expresamente no estaba habilitado según los términos del contrato con el operador, puede existir responsabilidad concurrente bajo el artículo 1750 CCyCN.

 

Esta cadena tiene una consecuencia práctica inmediata para la asesoría jurídica preventiva: los contratos entre proveedores de modelos de base y operadores de plataformas necesitan cláusulas de asignación de responsabilidad que contemplen específicamente el escenario de deriva de capacidades. El contrato que asigna responsabilidad por "defectos del modelo" sin definir qué es un defecto en el contexto de un sistema de aprendizaje continuo deja sin resolver exactamente el supuesto más probable de litigio.

 

V. La objeción de la incertidumbre y por qué invierte el problema

 

La objeción más previsible al argumento anterior es que la responsabilidad objetiva sin clasificación previa genera incertidumbre para el operador, que no sabe en qué momento su sistema dejó de ser de bajo riesgo y empezó a generar exposición. Si no hay una categoría administrativa que indique cuándo el sistema cruzó un umbral relevante, el operador no sabe qué precauciones adoptar ni cuándo adoptarlas.

 

La objeción es real pero invierte el problema. La incertidumbre no la genera el régimen jurídico. La genera la tecnología. Un sistema de aprendizaje continuo tiene, por definición, un dominio de riesgo que no es estable en el tiempo. Un marco regulatorio que oculta esa incertidumbre detrás de una clasificación administrativa no la elimina: la traslada al momento del litigio, cuando ya ocurrió el daño y ya no hay nada que prevenir.

 

La responsabilidad objetiva hace visible la incertidumbre desde el principio, que es el único momento en que el operador puede hacer algo con ella.

 

El operador que sabe que responde objetivamente por el daño que su sistema cause, cualquiera sea el dominio en que ese daño ocurra, tiene incentivos para monitorear activamente la deriva de capacidades. El operador que cree estar protegido por una clasificación de bajo riesgo aprobada hace dieciocho meses no los tiene.

 

Desde la perspectiva de la prevención del daño, que es la función primaria del derecho de daños, el régimen de responsabilidad objetiva produce mejores incentivos que cualquier sistema de clasificación administrativa.

 

Hay un argumento adicional que refuerza esta conclusión. El artículo 1725 CCyCN, que regula la previsibilidad del daño como elemento de la responsabilidad civil, establece que cuanto mayor sea el deber de obrar con prudencia y pleno conocimiento de las cosas, mayor será la diligencia exigible.

 

El operador profesional de sistemas de IA no puede invocar ignorancia sobre la posibilidad de deriva de capacidades: es una propiedad conocida y documentada de estos sistemas, reconocida en la literatura técnica de referencia.

 

La ignorancia no es eximente; es, en todo caso, un factor agravante de la imputación.

 

VI. La paradoja de la explicabilidad y sus consecuencias procesales

 

El Reglamento Europeo impone, para sistemas de alto riesgo, obligaciones de explicabilidad: las decisiones del sistema deben ser comprensibles para el operador humano y, en algunos casos, para el afectado. La exigencia tiene una lógica aparente desde la perspectiva del due process: si el sistema no puede justificar su decisión, no hay manera de impugnarla ni de detectar sesgos.

 

El problema técnico es que la explicabilidad y el alto rendimiento son objetivos que tiran en direcciones opuestas. Los sistemas que alcanzan rendimiento sobrehumano en dominios específicos lo hacen operando en representaciones latentes de alta dimensionalidad que no tienen traducción directa al lenguaje natural. Un modelo de diagnóstico médico que supera a cardiólogos expertos en la detección de patologías específicas procesa patrones en imágenes que ningún médico podría articular verbalmente. Exigirle al sistema que explique su decisión en términos comprensibles para un humano es exigirle que abandone la representación que lo hace eficaz y adopte una representación inferior para conformarse a las limitaciones cognitivas del auditor.

 

Para el abogado que asesora a un operador en un litigio, esta paradoja tiene consecuencias procesales directas. La parte actora que exige explicabilidad como condición de la defensa del demandado está pidiendo, en realidad, que el sistema degrade su rendimiento para ser auditable. Eso no es un argumento jurídico; es un argumento sobre las limitaciones cognitivas del sistema judicial para procesar evidencia técnica compleja.

 

La respuesta procesal correcta no es pretender que el sistema puede explicarse en términos que un juez pueda evaluar directamente. Es acreditar que el sistema fue desarrollado y desplegado siguiendo el estado del arte disponible, que los controles de calidad adoptados eran los que la evidencia científica indicaba como adecuados, y que el daño producido no era evitable con las medidas que ese estado del arte prescribía. Ese es el estándar que el artículo 1757 CCyCN aplica implícitamente: la causa ajena, que incluye el caso fortuito, exime de responsabilidad no porque el sistema sea inexplicable sino porque el daño era inevitable dado el estado del conocimiento disponible.

 

VII. El Art. 1770 CCyCN y la privacidad como daño autónomo en sistemas de IA

 

La deriva de capacidades en sistemas de aprendizaje continuo no produce solo daños físicos o patrimoniales directos. Una de las formas más frecuentes de daño que estos sistemas generan es la privacidad: el sistema que absorbió datos del usuario durante su funcionamiento puede reutilizarlos en contextos que el usuario no autorizó, o puede inferir información sensible que el usuario nunca proporcionó explícitamente.

 

El artículo 1770 del CCyCN protege la intimidad personal y familiar contra intromisiones arbitrarias que causen daño. La doctrina ha interpretado esta norma con amplitud creciente en los últimos años, extendiendo su aplicación a supuestos de exposición no autorizada de datos, perfilamiento sin consentimiento y uso de información personal en contextos distintos de aquellos para los que fue obtenida.

 

Para sistemas de IA, el artículo 1770 opera en combinación con la Ley 25.326 de Protección de Datos Personales y con las disposiciones del CCyCN sobre consentimiento informado. El operador que desplegó un sistema de aprendizaje continuo sin mecanismos de control sobre qué datos el sistema retiene y cómo los reutiliza enfrenta exposición bajo estas normas con independencia de si el sistema causó daño físico o patrimonial adicional. La violación de la privacidad es, bajo el artículo 1770, un daño autónomo que no requiere acreditar perjuicio material adicional.

 

Este punto es particularmente relevante en el contexto de sistemas de IA desplegados en entornos de salud, recursos humanos o servicios financieros, donde los datos que el sistema procesa durante su operación son intrínsecamente sensibles. El operador que no implementó controles específicos sobre la retención y reutilización de esos datos no puede invocar como defensa que el sistema no fue "diseñado" para retenerlos: si el sistema los retuvo de facto como consecuencia de su aprendizaje continuo, el resultado es el mismo para el afectado.

 

VIII. Consecuencias para la práctica profesional

 

Lo que precede no es un argumento a favor de inacción regulatoria. Es un argumento sobre qué tipo de regulación es funcional para esta tecnología. La distinción importa porque tiene consecuencias inmediatas para el asesoramiento que los estudios jurídicos están dando hoy a sus clientes.

 

El cliente que opera sistemas de IA necesita entender que su exposición bajo el CCyCN no depende de ninguna clasificación administrativa. Depende del control efectivo que ejerce sobre el sistema y de las medidas de prevención que adoptó respecto de los riesgos que ese sistema genera, incluyendo los riesgos que emergen durante la operación y que no existían al momento del despliegue.

 

Eso tiene al menos cuatro consecuencias prácticas concretas.

 

La primera es contractual. Los contratos de provisión de sistemas de IA necesitan cláusulas específicas sobre deriva de capacidades: quién monitorea, con qué frecuencia, con qué métricas y qué ocurre cuando el sistema opera fuera del dominio originalmente previsto. El contrato que describe las capacidades del sistema al momento de la firma sin contemplar su evolución posterior deja sin resolver el supuesto más probable de litigio.

 

La segunda es de due diligence técnica. Antes de desplegar un sistema de IA en un entorno que involucre usuarios, el operador necesita un análisis técnico independiente que documente las capacidades actuales del sistema, los dominios adyacentes hacia los que podría derivar dado su arquitectura y los mecanismos de detección y control implementados. Ese documento no es solo una herramienta de gestión de riesgo: es evidencia en un eventual litigio de que el operador adoptó las medidas de prevención que el estado del arte indicaba.

 

La tercera es de seguimiento operativo. El monitoreo del sistema durante su funcionamiento no es opcional si el operador quiere mantener una defensa coherente bajo el artículo 1757. La responsabilidad objetiva no admite como eximente la ignorancia del riesgo que el propio sistema generó. El operador que no monitoreó activamente la deriva de capacidades de su sistema no puede alegar que no sabía lo que el sistema estaba haciendo.

 

La cuarta es de formación del cliente. El operador que entiende que su exposición sigue el control efectivo del sistema, y no la clasificación que algún organismo europeo le asignó hace dos años, adopta naturalmente los comportamientos que reducen esa exposición. El operador que cree que el cumplimiento formal de un reglamento extranjero lo protege no los adopta. La diferencia entre esas dos posiciones puede ser la diferencia entre tener o no tener defensa en un litigio bajo el CCyCN.

 

El Reglamento Europeo de Inteligencia Artificial es una respuesta inteligente a un problema real, diseñada para una tecnología que ya no es la tecnología que existe. Sus categorías de riesgo son fotografías de objetos que se mueven. Sus obligaciones de conformidad son respuestas a preguntas que la tecnología dejó de hacer.

 

El artículo 1758 del CCyCN no necesita saber qué tipo de sistema causó el daño. Necesita saber quién lo controlaba y si el daño era evitable con las medidas que el estado del arte indicaba. Para la mayoría de los casos que llegarán a los tribunales argentinos en los próximos años, esa es la pregunta que importa. Y para esa pregunta, el derecho argentino ya tiene respuesta.

 

 

Citas

(*) abogado (UBA) con EMBA (IAE Business School, Universidad Austral) y más de 30 años de experiencia en derecho corporativo. Fundador y CEO de IntegridAI. Desarrolla investigación independiente sobre aplicación de teoría evolutiva a sistemas legales. Sus papers están disponibles en Zenodo y en  Substack: adrianlerer.substack.com.

Opinión

Viralidad, datos y salud: el dilema entre el entretenimiento y el avance científico
Por Carolina Markowskyj (*)
detrás del traje
Felicitas Cassagne
De CASSAGNE ABOGADOS
Nos apoyan