El 11 de febrero de 2025, la Comisión Europea anunció el retiro de la propuesta de Directiva de Responsabilidad por Inteligencia Artificial. La razón oficial: ausencia de consenso entre Estados miembros. La razón real: nadie pudo resolver una pregunta que parece simple, pero resulta devastadora para cualquier régimen de responsabilidad civil tradicional.
Esa pregunta es: ¿la inteligencia artificial es un producto o un servicio?
La respuesta determina quién paga cuando algo sale mal. Y en el caso de la IA, las cosas salen mal de maneras que ningún legislador del siglo XX pudo imaginar.
El hueco europeo
El marco regulatorio europeo para IA descansa sobre tres pilares: el Reglamento de IA (AI Act), la Directiva de Productos Defectuosos reformada (PLD) y la frustrada Directiva de Responsabilidad por IA (AILD). Con el retiro de esta última, el edificio quedó con un agujero estructural.
La nueva Directiva de Productos Defectuosos, vigente desde diciembre de 2024, extendió la responsabilidad objetiva al software y los sistemas de IA. Esto significa que el fabricante responde por los daños causados por un sistema defectuoso sin necesidad de probar culpa, es decir -en términos conocidos- tiene responsabilidad objetiva. Un avance significativo que equipara al software con cualquier producto industrial.
Pero aquí aparece el problema que se identificó en un reciente artículo[1]: la responsabilidad objetiva funciona bien para productos cuyo comportamiento es predecible y consistente. Una licuadora defectuosa se comporta igual en Berlín que en Lisboa. Un sistema de IA, no.
Los sistemas de machine learning producen resultados diferentes según el entorno de implementación, la calidad de los datos de entrada, la configuración realizada por el operador y hasta el momento en que se los consulta. El propio AI Act reconoce esta variabilidad. ¿Puede llamarse "producto" a algo cuyo rendimiento depende tanto de quién lo usa y cómo?
La paradoja del sistema que aprende
La responsabilidad por productos defectuosos tiene una lógica industrial: el fabricante controla el proceso productivo, por lo tanto responde por las fallas. Esta lógica funcionó durante cuatro décadas porque los productos, una vez fabricados, no cambian. Un automóvil con un defecto de fábrica tiene ese defecto desde el día uno hasta que se lo repara.
La IA rompe este esquema de dos maneras. Por un lado, los sistemas con aprendizaje continuo evolucionan después de ser puestos en el mercado. El modelo que un desarrollador entregó en enero puede comportarse de manera sustancialmente diferente en julio, sin que nadie haya modificado su código. Por otro lado, el mismo sistema puede generar resultados distintos según quién lo opere. Un chatbot médico podría dar respuestas razonables cuando lo usa un profesional de la salud y respuestas peligrosas cuando lo usa un paciente ansioso que formula preguntas de cierta manera.
Esta variabilidad operacional se parece más a la prestación de un servicio profesional que a la venta de un producto. Cuando un médico comete un error, no decimos que el servicio médico era "defectuoso"; analizamos si actuó con la diligencia debida. ¿Por qué debería ser diferente con un sistema de IA cuyo output depende críticamente de cómo se lo implementa, entrena y supervisa?
El vacío de la responsabilidad por culpa
La Directiva de Productos Defectuosos cubre los daños causados por defectos del sistema. Pero ¿qué pasa cuando el daño no surge del sistema en sí, sino de cómo lo implementó un integrador, lo configuró un operador, o lo supervisó (o dejó de supervisar) un usuario empresarial?
Estos casos requieren analizar la culpa: alguien actuó sin la diligencia debida. Y es justo aquí donde Europa tiene ahora un problema serio. Sin la Directiva de Responsabilidad por IA, cada Estado miembro aplicará sus propias reglas de responsabilidad civil extracontractual. Veintisiete jurisdicciones con estándares diferentes de prueba, presunciones distintas de causalidad y criterios variables sobre qué constituye negligencia en el manejo de sistemas de IA.
Para una víctima que sufrió un daño por un sistema de IA operado transfronterizamente, esta fragmentación es una pesadilla procesal. Para las empresas que operan en múltiples países, es un laberinto de incertidumbre regulatoria. La Comisaria Henna Virkkunen defendió el retiro argumentando que una Directiva habría generado implementaciones divergentes. Pero el resultado del retiro es precisamente eso: divergencia, solo que sin siquiera un piso mínimo común.
La advertencia para el federalismo argentino
La Argentina observa el debate europeo desde una posición curiosa: sin regulación específica sobre responsabilidad por IA, pero con un Código Civil y Comercial que ofrece herramientas potencialmente aplicables y un sistema federal que podría replicar exactamente el problema europeo de fragmentación.
El artículo 1757 del CCCN establece responsabilidad objetiva por actividades riesgosas. El artículo 1758 extiende esa responsabilidad a quienes se sirven de la cosa o actividad. El artículo 1768 regula la responsabilidad de los profesionales liberales. Y el artículo 40 de la Ley de Defensa del Consumidor impone responsabilidad solidaria a toda la cadena de comercialización por daños causados por productos o servicios.
Estas normas podrían, con interpretación judicial creativa, cubrir muchos supuestos de daños por IA. La pregunta es si los tribunales argentinos las aplicarán de manera consistente, o si cada jurisdicción desarrollará su propia doctrina sobre cuándo la IA constituye actividad riesgosa, qué estándar de diligencia se exige a quien la opera, y cómo se prueba la causalidad en sistemas opacos.
Mientras tanto, las provincias empezaron a moverse. La Resolución 9/2025 de la Subsecretaría de Gobierno Digital de Buenos Aires, publicada el 20 de noviembre pasado, establece reglas para el uso de IA en la administración pública provincial. Incluye clasificación de riesgos, principios de transparencia y trazabilidad, obligaciones de evaluación de impacto algorítmico y hasta un registro de sistemas de IA.
Pero si cada provincia dicta su propia normativa, con definiciones diferentes de "riesgo alto", requisitos distintos de gobernanza de datos y estándares variables de responsabilidad, la Argentina replicará a escala el problema que Europa no supo resolver. Veinticuatro jurisdicciones (provincias y CABA) más el nivel nacional. Un mosaico regulatorio que beneficia solo a los litigantes que saben elegir foro, y perjudica el desarrollo autóctono con IA.
El modelo híbrido como salida
El análisis citado sugiere que la respuesta no está en elegir entre producto y servicio, sino en reconocer que la IA es ambas cosas, según el momento del ciclo de vida y el actor involucrado. El desarrollador que pone un modelo en el mercado tiene responsabilidad de producto por los defectos de diseño y entrenamiento. El operador que lo implementa en un contexto específico tiene responsabilidad de servicio por la calidad de esa implementación. El implementador (deployer) que lo supervisa en producción tiene obligaciones de monitoreo continuo.
Este enfoque multinivel requiere distinguir claramente los roles en la cadena de valor de la IA. El AI Act europeo ya lo hace: define proveedor, importador, distribuidor, deployer. Lo que falta es articular regímenes de responsabilidad diferenciados para cada rol, con estándares de diligencia proporcionales al grado de control que cada actor tiene sobre el sistema.
Para la Argentina, esto implica pensar en coordinación federal antes de que proliferen normativas incompatibles. Un piso mínimo nacional de definiciones, clasificaciones de riesgo y estándares de responsabilidad, sobre el cual las provincias puedan construir requisitos adicionales para sus contextos específicos. Lo contrario es fragmentación garantizada.
La pregunta incómoda
Europa retiró su Directiva de Responsabilidad por IA invocando la simplificación regulatoria. Algunos celebraron la decisión como un gesto pro-innovación. Otros advirtieron que simplemente trasladó el problema a los tribunales nacionales, que deberán resolver caso por caso lo que el legislador no quiso definir.
La Argentina tiene la oportunidad de aprender de ese experimento fallido. No se trata de copiar el AI Act ni de importar directivas europeas. Se trata de reconocer que un sistema federal sin coordinación en materia de IA producirá exactamente lo que Europa quería evitar: fragmentación, incertidumbre y víctimas que no saben a quién demandar.
La IA muta. Sus outputs cambian según quién la usa y cómo. Sus efectos cruzan fronteras jurisdiccionales. Su opacidad técnica dificulta probar causalidad. Pretender que el régimen de productos defectuosos del siglo XX basta para regular estas características es, como mínimo, optimismo ingenuo.
Quizás el mayor desafío no sea decidir si la IA es producto o servicio. Es posible que sea aceptar que necesitamos un modelo de responsabilidad nuevo, uno que reconozca la naturaleza híbrida de estos sistemas y distribuya riesgos a lo largo de toda la cadena de valor, siguiendo las pautas del art. 19 CN y el sistema de responsabilidad del CCyCN. Europa no lo logró. Argentina todavía puede intentarlo.
Citas
(*) Ignacio Adrián Lerer es abogado (UBA), Executive MBA (IAE Business School), asesor legal de empresas, director independiente y consultor en gobierno corporativo compliance e integridad.
[1] Petruta Pirvan, “AI as product vs. AI as service: Unpacking the liability divide in EU safety legislation”: https://iapp.org/news/a/ai-as-product-vs-ai-as-service-unpacking-the-liability-divide-in-eu-safety-legislation
Opinión
opinión
ver todosAGUIRRE SARAVIA & GEBHARDT ABOGADOS
PASSBA
Kabas & Martorell



















































































































