I. CUANDO MEDIO MILLÓN DE DÓLARES COMPRA UN LIBRO FANTASMA
En agosto de 2024, el Departamento de Relaciones Laborales del Gobierno Federal australiano pagó USD 440.000 a una de las cuatro firmas globales de auditoría y consultoría, (en este caso, Deloitte Australia) por un informe técnico sobre detección automatizada de fraude en prestaciones sociales. El encargo tenía peso institucional: evaluar críticamente el uso de sistemas computarizados para fiscalizar el comportamiento de ciudadanos que reciben asistencia estatal. El documento de 234 páginas que Deloitte entregó contenía un catálogo de errores que, en retrospectiva, resulta casi didáctico en su claridad.
El Dr. Christopher Rudge, académico del Sydney Health Law Research Centre, detectó las irregularidades durante una revisión independiente. No requirió tecnología sofisticada ni algoritmos de fact-checking. Bastó con verificar manualmente las fuentes citadas para constatar que una proporción significativa simplemente no existía. El informe citaba diez veces un libro titulado "The Rule of Law and Administrative Justice in the Welfare State". El problema: ninguna biblioteca académica, ningún catálogo editorial, ninguna base de datos bibliográfica registraba su existencia. Era una referencia fantasma.
Pero los errores no terminaban allí. El documento atribuía declaraciones judiciales a una magistrada federal cuyo apellido había sido transcrito incorrectamente. Las recomendaciones de política pública derivadas de esa investigación académica inexistente contradecían, en varios pasajes, las conclusiones de estudios reales que sí habían sido publicados sobre el tema. Confrontada con la evidencia, Deloitte Australia emitió un comunicado que, en su brevedad, revelaba la magnitud del problema: la firma admitió haber utilizado GPT-4o mediante la plataforma Azure de Microsoft en la elaboración del informe. La empresa acordó un reembolso parcial con el cliente, y proveyó un informe de reemplazo que (esta vez) reconocía explícitamente la asistencia de software de inteligencia artificial en su elaboración.
La ironía estructural del caso es demasiado evidente para ignorarla: un informe contratado para evaluar en forma crítica los riesgos de la automatización gubernamental fue comprometido por una automatización corporativa insuficientemente supervisada. Como señaló el Dr. Rudge en declaraciones a la prensa, resulta particularmente problemático que un documento destinado a cuestionar el uso de computadoras para juzgar el comportamiento humano haya sido escrito, en parte significativa, por una computadora cuyo comportamiento nadie se encargó de verificar en forma adecuada antes de entregar el informe.
La pregunta jurídica fundamental trasciende el escándalo puntual: ¿quién responde cuando un profesional delega tareas cognitivas críticas en un sistema de inteligencia artificial y entrega un producto defectuoso sin verificar el producto final (“output”)? ¿Es este un problema que requiere nuevas categorías legales, regímenes especiales de responsabilidad, autoridades de aplicación específicas para IA? ¿O estamos, simplemente, ante negligencia profesional clásica con ropaje tecnológico contemporáneo?
II. LA RESPUESTA QUE YA TENEMOS
Salvando las distancias geográficas, creo que es interesante analizar el caso que ocurrió en Oceanía pero puede ocurrir en cualquier parte del mundo, y desde ya en nuestro país.
Creo fervientemente que el derecho argentino vigente ya tiene la respuesta. No requiere legislación especial ni burocracias regulatorias adicionales. El artículo 1725 del Código Civil y Comercial establece un estándar de diligencia profesional que se extiende en forma natural, sin forzamientos interpretativos o “tortura de normas” (como las llamaba Juan Octavio Gauna en sus clases de derecho administrativo), a la vigilancia de herramientas tecnológicas. La negligencia en verificar outputs de inteligencia artificial es negligencia profesional clásica, con un factor agravante que la torna inexcusable: la previsibilidad del daño está técnicamente documentada en forma exhaustiva, tanto en la literatura científica como en las advertencias oficiales de los propios fabricantes de estas herramientas.
Antes de analizar cualquier régimen de responsabilidad, es imprescindible establecer el límite constitucional que opera como frontera infranqueable. El artículo 19 de la Constitución Nacional no es una norma decorativa ni un principio vago que pueda ser "ponderado" caso por caso. Es una garantía estructural que define el perímetro de lo regulable: las acciones privadas que de ningún modo ofendan al orden público ni perjudiquen a un tercero están reservadas a Dios y exentas de la autoridad de los magistrados. Esta formulación, que puede sonar anacrónica, contiene una de las declaraciones más radicales de libertad individual jamás incorporadas a un texto constitucional.
Aplicado a la inteligencia artificial, este principio establece una conclusión inequívoca: el Estado no puede restringir preventivamente qué herramientas cognitivas utiliza un profesional. Un abogado puede usar cualquier metodología para elaborar un escrito, una opinión, un dictamen: análisis manual de jurisprudencia, consulta a bases de datos privadas, asistencia de colegas más jóvenes, o delegación en sistemas de IA generativa. Todas esas decisiones metodológicas son constitucionalmente irrelevantes. El Estado puede y debe sancionar aquellos resultados que causen daño verificable a terceros, pero no puede exigir autorizaciones previas, registros obligatorios, auditorías preventivas, o certificaciones de conformidad para el simple uso de una herramienta.
III. EL ESTÁNDAR DE DILIGENCIA: PRUDENCIA Y CONOCIMIENTO
Cabe analizar el caso bajo nuestro plexo normativo de responsabilidad. El Código Civil y Comercial establece en su artículo 1725 que el prestador de servicios, actuando con prudencia y pleno conocimiento de las cosas, no responde por los daños causados al cliente o a terceros, excepto que se haya comprometido a obtener un resultado concreto. Esta norma aparentemente simple contiene una arquitectura conceptual sofisticada, que se aplica sin necesidad de reforma a la era de la inteligencia artificial.
El estándar exige dos componentes diferenciados. Primero, prudencia: cuidado, previsión, adopción de recaudos razonables para evitar daños previsibles. Es el componente subjetivo que apunta a la voluntad y la precaución. Segundo, pleno conocimiento de las cosas: expertise técnica, dominio del estado del arte, comprensión de las herramientas utilizadas y sus limitaciones. Es el componente objetivo que apunta a la competencia profesional. Esta dualidad es crucial para entender la responsabilidad por el uso de IA. No basta con tener buenas intenciones. Es necesario conocer las herramientas que se emplean, entender sus limitaciones documentadas, y verificar sus outputs antes de incorporarlos al mundo jurídico.
Cuando Deloitte Australia contrató elaborar un informe técnico de USD 440.000 para un gobierno federal, asumió implícitamente entregar un producto que cumpliera estándares mínimos de exactitud verificable. No es razonable interpretar que una consultora de primer nivel, cobrando honorarios de ese orden de magnitud, puede entregar un documento con diez referencias a un libro inexistente y alegar que solo prometió esfuerzo, no resultado. El tipo de contrato, el monto involucrado, la jerarquía del cliente y el objeto específico configuran una obligación de resultado en cuanto a la exactitud básica de las fuentes citadas. La firma usó IA, decisión metodológica protegida por el artículo 19 de la Constitución, pero entregó un producto defectuoso, resultado que genera responsabilidad contractual. El vehículo cognitivo empleado es irrelevante. El output defectuoso es lo determinante.
IV. LA PREVISIBILIDAD QUE DESTRUYE TODA DEFENSA
Uno de los elementos más devastadores para cualquier defensa que Deloitte Australia hubiera intentado es que las limitaciones de GPT-4 no son especulaciones académicas ni descubrimientos revelados tras el escándalo. Están documentadas oficialmente por OpenAI en su reporte técnico publicado en marzo de 2023, más de un año antes del incidente. OpenAI advierte explícitamente sobre tres categorías de riesgos directamente relevantes: alucinaciones (el sistema genera información falsa con confianza tipográfica indistinguible de información genuina), tendencia a reafirmar errores cuando se le señalan inconsistencias, y riesgo de sobre-dependencia (los usuarios tienden a confiar excesivamente en los outputs, reduciendo la supervisión crítica humana).
Estas advertencias convierten el riesgo de alucinaciones en un daño previsible en los términos del Código Civil. Un profesional razonablemente diligente que utiliza GPT-4 debe conocer o tiene el deber de conocer estas limitaciones. Son un claro caso de información pública, provista por el fabricante, en un documento técnico accesible sin restricciones. La ignorancia de estas advertencias no puede ser invocada como eximente. Sería equivalente a que un conductor alegara no haber leído el manual del auto que advierte sobre limitaciones del sistema de frenado en superficies heladas, y luego pretenda eximirse de responsabilidad por un accidente causado precisamente por esa limitación no considerada.
Las advertencias de OpenAI no son aisladas. Reflejan un consenso científico que se cristalizó públicamente en 2021, cuando Emily Bender y un gurpo de colegas publicaron un paper que se convirtió en referencia obligada sobre los "loros estocásticos": los Grandes Modelos de Lenguaje (LLM) reproducen patrones estadísticos del lenguaje sin comprensión semántica genuina del contenido. Ellos optimizan verosimilitud lingüística, no veracidad referencial. Los LLMs pueden generar textos sintácticamente impecables pero fácticamente falsos. La calidad del output lingüístico no se correlaciona con su veracidad. En octubre de 2025, con GPT-5 operativo desde mayo y múltiples casos públicos documentados, un profesional que delega verificación de fuentes bibliográficas a un LLM sin implementar controles humanos posteriores está asumiendo un riesgo conocido, documentado y cuantificado.
V. PROTOCOLO DE DILIGENCIA GRADUADA
Los estudios jurídicos y consultoras que utilizan IA deben implementar protocolos documentados que gradúen la intensidad de verificación según tres variables: criticidad del output, tipo de contenido generado, y destinatario final. Para tareas exploratorias como borradores internos o lluvia de ideas, donde el documento no circula externamente, basta verificación sumaria por el mismo profesional que generó el output. Estos productos son instrumentales, no sustantivos, y funcionan como herramienta cognitiva equivalente a tomar notas.
Para documentos internos con circulación, como memorandos de análisis legal o minutas de contratos que serán revisadas antes de firma, se requiere verificación selectiva: control por muestreo de fuentes clave (al menos veinte por ciento de citas verificadas contra fuente original es un estándar que se está utilizando en el mundo), revisión por segundo profesional independiente, y documentación del proceso. La verificación selectiva balancea costo-beneficio: detecta errores sistemáticos sin exigir revisión exhaustiva de cada dato.
Para productos finales con consecuencias jurídicas, como contratos que se firmarán, dictámenes legales que el cliente usará para tomar decisiones, presentaciones judiciales, e informes gubernamentales como el caso Deloitte, se requiere verificación exhaustiva: cada cita bibliográfica debe ser contrastada con la fuente original, cada precedente judicial consultado en alguna base oficial o privada confiable, cada dato estadístico rastreado hasta su fuente primaria, doble revisión humana independiente, y logs documentados de fecha, revisor y verificaciones efectuadas.
El caso de Deloitte Australia calificaba inequívocamente como de riesgo alto: un informe para una agencia gubernamental de USD 440.000 destinado a informar decisiones de política pública sobre la fiscalización de prestaciones sociales. La firma aplicó, sin embargo, un protocolo de riesgo bajo. Esta discrepancia de dos niveles entre el riesgo real y el control implementado define la esencia misma de la negligencia profesional.
VI. CONVERGENCIA CON EL MODELO EUROPEO
El Reglamento de la Unión Europea sobre IA, vigente desde agosto de 2024, clasifica sistemas según riesgo: inaceptable (prohibición absoluta), alto (regulación estricta), limitado (obligaciones de transparencia), y mínimo (sin obligaciones específicas). Para sistemas de alto riesgo, que incluyen servicios públicos esenciales como el asesoramiento gubernamental del caso Deloitte, el Reglamento exige supervisión humana significativa: los sistemas deben diseñarse de manera que puedan ser supervisados eficazmente por personas físicas durante su uso.
Aunque la Argentina carece de una ley específica de IA, los principios generales del Código Civil, interpretados en forma dinámica, conducen a resultados notablemente similares al modelo europeo. Esta convergencia refleja principios subyacentes compartidos sobre responsabilidad y proporcionalidad. El régimen europeo opera mediante regulación administrativa preventiva: evaluación de conformidad previa, certificación obligatoria, sistema de gestión de riesgos documentado. El régimen argentino opera mediante responsabilidad civil correctiva: otorga libertad absoluta de uso protegida por el artículo 19 constitucional, pero asigna responsabilidad ex post por resultados defectuosos que causen daño verificable.
Ambos sistemas convergen en exigir que la intensidad de supervisión humana sea proporcional al riesgo generado. Ninguno permite uso negligente de IA en contextos de alto riesgo. La diferencia fundamental es que el modelo europeo genera costos regulatorios significativos que benefician a empresas establecidas y perjudican a startups e innovadores individuales, mientras que el modelo argentino preserva la libertad de innovación sin burocratización preventiva.
VII. EL PELIGRO LEGISLATIVO LATENTE
Mientras este artículo se redacta, el Congreso argentino tiene en tratamiento al menos diez proyectos de ley sobre inteligencia artificial. Prácticamente todos proponen crear organismos nuevos: Consejo Asesor, Observatorio Federal, Autoridad de Aplicación. Varios exigen que desarrolladores o usuarios registren sus sistemas ante autoridad estatal. Otros proponen certificaciones voluntarias que dispensan de responsabilidad ulterior, invirtiendo perversamente los incentivos: si se obtiene certificación se está protegido incluso si un sistema causa daño; si no se la obtiene, se presume que el desarrollador es negligente.
Este patrón replica un vicio argentino: cada nuevo desafío requiere, supuestamente, una nueva burocracia. La Argentina ya tiene dificultades para financiar y gestionar las estructuras estatales existentes. Crear organismos adicionales sin financiamiento genuino genera instituciones zombie que existen formalmente pero no operan efectivamente. La regulación preventiva, aún bien intencionada, genera costos ocultos: barrera de entrada para innovadores, obsolescencia regulatoria inevitable cuando la tecnología evoluciona más rápido que la legislación, captura regulatoria por las empresas tecnológicas más grandes que moldean estándares para proteger sus intereses, e ilusión de seguridad que reduce la vigilancia crítica del usuario final.
Si el Congreso insiste en legislar, debería regular resultados, no procesos. No legislar sobre cómo funciona un sistema de IA, sino sobre qué daños específicos y verificables están prohibidos. Confiar en el derecho común: el Código Civil ya regula responsabilidad profesional sin necesidad de normas especiales. Aplicar subsidiariedad: legislar únicamente cuando existe vacío genuino que genera inseguridad jurídica intolerable. Incluir “sunset clauses”: toda norma sobre tecnología debe caducar automáticamente en cinco años y requerir renovación expresa, forzando adaptación o derogación de normas anacrónicas. Lo contrario generará incertidumbre y perjudicará el desarrollo innovador local.
VIII. VOLVER A LOS PRINCIPIOS
La inteligencia artificial generativa no requiere un régimen especial de responsabilidad profesional. El artículo 1725 del Código Civil proporciona un marco suficiente, interpretado con el dinamismo que el derecho privado siempre ha tenido frente a la evolución tecnológica. Cuando el Código exige actuar con prudencia y pleno conocimiento de las cosas, ese conocimiento incluye en forma natural las herramientas empleadas y sus limitaciones documentadas. Un profesional que en octubre de 2025 usa GPT-5 sin saber que puede alucinar viola el estándar de conocimiento exigible. Un profesional que lo sabe pero no verifica el output viola el estándar de prudencia.
El límite constitucional establecido por el artículo 19 es insoslayable: el Estado no puede restringir preventivamente qué herramientas usa un ciudadano, pero puede sancionar resultados que causen daño verificable a terceros. Las limitaciones de los Grandes Modelos de Lenguaje no son hipótesis académicas. Están exhaustivamente documentadas por fabricantes, literatura científica y casos públicos. La previsibilidad del daño está técnicamente pre-probada, destruyendo toda defensa basada en ignorancia.
El caso Deloitte Australia no revela un fallo de la IA, que actuó según lo previsto por el estado del arte de su desarrollo, sino omisión humana. Una consultora de primer nivel delegó tareas críticas en una herramienta con limitaciones documentadas, sin implementar verificación suficiente. Esto no es un problema tecnológico que requiera nueva legislación. Es negligencia profesional tradicional por violación del deber de vigilancia sobre herramientas empleadas, que se resuelve con derecho vigente.
La inteligencia artificial genera ansiedad porque expone con claridad una verdad incómoda: siempre delegamos funciones cognitivas en herramientas que no comprendemos completamente. Hace siglos eran los ábacos, después las calculadoras, luego las computadoras, ahora la IA generativa. La diferencia no es de naturaleza, sino de velocidad y escala. Y esa diferencia, por más impactante que parezca, no justifica abandonar principios constitucionales de libertad individual ni crear regímenes especiales de responsabilidad que no necesitamos. El derecho argentino vigente tiene las respuestas. Solo necesitamos aplicarlo con inteligencia genuina, la humana.
REFERENCIAS
Fuentes Técnicas
- OpenAI, "GPT-4 System Card", marzo 2023 (disponible en openai.com)
- Bender, Emily M. et al., "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?", ACM Conference on Fairness, Accountability, and Transparency (FAccT), 2021
Caso Deloitte
- Patrick, Aaron, "Law lecturer Christopher Rudge slams Deloitte's government-funded report written with AI", The Nightly, 6 octubre 2024
Citas
(*) IGNACIO ADRIÁN LERER. Abogado (UBA) | Executive MBA (IAE Business School – Universidad Austral). Director Independiente | Consultor en Gobierno Corporativo. Especialización: Asesoramiento Empresarial, Sistemas de Integridad, Due Diligence y Riesgo Estratégico
Opinión


opinión
ver todosRichards Cardinal Tützer Zabala & Zaefferer S.C.