La integración de sistemas de inteligencia artificial en la práctica jurídica ha dejado de ser una hipótesis para convertirse en una realidad operativa. Su uso en la redacción de contratos, análisis de jurisprudencia o evaluación de riesgos normativos introduce un nuevo vector de responsabilidad profesional.
La integración de sistemas de inteligencia artificial en la práctica jurídica ha dejado de ser una hipótesis para convertirse en una realidad operativa. Su uso en la redacción de contratos, análisis de jurisprudencia o evaluación de riesgos normativos introduce un nuevo vector de responsabilidad profesional. El riesgo ya no se limita al error humano, sino que se extiende al deterioro algorítmico: la erosión gradual y silenciosa de la calidad en las respuestas automatizadas, que puede inducir a un profesional a emitir recomendaciones basadas en información imprecisa, desactualizada o descontextualizada.
Este escenario exige un análisis riguroso de las arquitecturas de control que gobiernan estos sistemas. La elección de una plataforma de IA no es una mera decisión tecnológica; es una decisión estratégica con profundas implicaciones en la gestión del riesgo y la configuración de la debida diligencia profesional.
El Diagnóstico Corporativo: IBM y la Desmitificación de la Autonomía
Los gigantes tecnológicos han comenzado a reconocer públicamente las limitaciones de los sistemas de IA actuales. IBM, a través de su plataforma watsonx, ha establecido una posición categórica respecto a la naturaleza de la inteligencia artificial empresarial (1.). Como señala la compañía en su documentación oficial, la viabilidad de los agentes de IA en entornos corporativos depende de una gobernanza explícita que garantice que las soluciones puedan ser auditadas y fiables.
Esta declaración no es meramente técnica; constituye un reconocimiento de que los sistemas de IA requieren supervisión y mecanismos de control robustos para ser viables en entornos de alto riesgo. Para el ejercicio profesional del derecho, esto implica que la responsabilidad por los resultados generados por IA no puede delegarse completamente al sistema, sino que requiere un framework de supervisión y validación humana.
El Estándar de Diligencia y el Marco Regulatorio Internacional
Aunque la legislación argentina sobre IA se encuentra en fase de desarrollo, el marco regulatorio de la Unión Europea, conocido como EU AI Act (Reglamento (UE) 2024/1689)(2.) se ha consolidado como el estándar de facto a nivel global. Su relevancia para la práctica local no es teórica, sino directa, debido a su alcance extraterritorial: afecta a cualquier proveedor cuyos servicios de IA se utilicen en la UE, lo que incluye a la mayoría de las plataformas tecnológicas internacionales.
Este reglamento establece obligaciones estrictas para los sistemas de “alto riesgo” —categoría que abarca aplicaciones en el ámbito laboral, la administración de justicia o la gestión de infraestructuras críticas—, exigiendo, entre otros, una trazabilidad completa de las operaciones y una supervisión humana significativa. Estos principios, junto con los estándares de la norma ISO 42001, definen un nuevo umbral de diligencia debida en la implementación de tecnologías de IA.
Divergencia de Arquitecturas: Contención de Daños vs. Promoción de la Calidad
Al analizar las arquitecturas de control de IA disponibles en el mercado, se observan dos filosofías predominantes: la contención y la pro-reflexión.
El Paradigma de Contención (Guardrails)
Este enfoque, adoptado por plataformas como IBM watsonx, se centra en la prevención de daños mediante el filtrado de contenido. Sus “guardrails” o barreras de seguridad están diseñadas para identificar y bloquear contenido explícitamente perjudicial, como el discurso de odio, el abuso, la profanidad (HAP) o la información personal identificable (PII).
IBM watsonx Orchestrate implementa este paradigma a través de su capacidad para “construir, desplegar y gestionar potentes asistentes de IA y agentes que automatizan flujos de trabajo”, pero fundamentalmente operando desde un enfoque de control perimetral.
Si bien es un mecanismo necesario para una higiene básica del sistema, su función es fundamentalmente prohibitiva y reactiva. Desde una perspectiva jurídica, este enfoque es insuficiente, ya que no mitiga el riesgo principal para el profesional: el error sutil, la omisión crítica o la recomendación basada en un razonamiento deficiente.
El Paradigma Pro-Reflexivo (Capas de Cuidado Cognitivo)
Una arquitectura pro-reflexiva no se limita a evitar la “farsa”, sino que busca activamente promover la calidad y el rigor del resultado. Este paradigma se fundamenta en principios de metacognición: la capacidad del sistema para evaluar la calidad de sus propios procesos cognitivos antes de emitir una respuesta.
Su implementación técnica se materializa en dos mecanismos clave:
1. Evaluación de Calidad Previa: Antes de entregar una respuesta, el sistema la somete a una evaluación interna multidimensional que analiza su coherencia, precisión y adecuación ética y contextual.
2. Corrección Autónoma de Errores: Si la evaluación interna detecta que la respuesta no cumple con un umbral de calidad predefinido, el sistema activa de forma autónoma un mecanismo de “fallback”, conmutando a un modelo secundario o reformulando la consulta para mejorar el resultado.[Este análisis proactivo de fallos está diseñado para interceptar el deterioro algorítmico antes de que afecte al usuario.
Implicaciones sobre la Praxis y la Responsabilidad del Abogado
La distinción entre estas dos arquitecturas tiene consecuencias directas sobre la responsabilidad profesional.
Estándar de Diligencia
La utilización de un sistema de IA que se limita a la contención de daños podría ser considerada insuficiente si, ante un perjuicio, se demuestra que existían en el mercado tecnologías pro-reflexivas capaces de haber prevenido el error. La elección de la herramienta deja de ser neutra y pasa a formar parte del estándar de diligencia exigible al profesional.
Supervisión Humana Significativa
El Artículo 14 del EU AI Act exige que el profesional pueda supervisar eficazmente el sistema. Un sistema de “caja negra” que solo entrega un resultado final impide una supervisión real. Por el contrario, una arquitectura pro-reflexiva que informa sobre su propio nivel de confianza (“la confianza en esta cláusula es baja debido a ambigüedades en la jurisprudencia citada”) dota al abogado de los elementos necesarios para ejercer un juicio crítico informado, cumpliendo así con su deber de supervisión.
Defensa ante Reclamos
En un eventual litigio por mala praxis, la capacidad de presentar un registro de auditoría robusto es un elemento de defensa central. Un sistema de contención puede registrar el input y el output. Un sistema pro-reflexivo puede además proveer un registro inmutable del proceso de autoevaluación del sistema: por qué consideró una respuesta como adecuada, qué riesgos detectó y si activó mecanismos de corrección. Esta trazabilidad, alineada con los requisitos de la norma ISO 42001 que exigen "prueba de ejecución", constituye una prueba de diligencia de orden superior.
Conclusión
La elección de una arquitectura de inteligencia artificial para la práctica jurídica trasciende la evaluación de su funcionalidad o eficiencia. Es una decisión estratégica que define el perfil de riesgo del profesional y de la firma. Las arquitecturas basadas en la simple contención de daños establecen un estándar mínimo de seguridad, pero no abordan adecuadamente el riesgo de error sutil que subyace a la responsabilidad profesional.
Por el contrario, las arquitecturas pro-reflexivas, al integrar mecanismos de autoevaluación y corrección autónoma, no solo ofrecen un producto de mayor calidad, sino que constituyen una herramienta de gestión de riesgos más sofisticada y un estándar de diligencia más elevado. Para el abogado que busca utilizar la IA de manera responsable, la capacidad de un sistema para dudar de sí mismo es, paradójicamente, su atributo más valioso.
REFERENCIAS
1. IBM watsonx Orchestrate - Documentación oficial: https://www.ibm.com/products/watsonx-orchestrate
2. Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo sobre la inteligencia artificial (EU AI Act)
3. SO/IEC 42001:2023 - Information technology — Artificial intelligence — Management system
4. IBM Think 2024 - Actualizaciones watsonx: https://latam.newsroom.ibm.com/2024-05-21-IBM-presenta-el-proximo-capitulo-de-watsonx
Citas
(*) Abogado (UBA) - Master Ejecutivo en Dirección de Empresas (IAE - Universidad Austral). Fundador de IntegridAI, dedicada al desarrollo de sistemas de IA responsable para el sector jurídico y empresarial. Autor de varios artículos sobre las implicaciones legales del EU AI Act y la responsabilidad profesional en el uso de tecnologías emergentes. Ha asesorado y asesora a firmas jurídicas y empresas en la implementación de sistemas de integridad; se encuentra desarrollando frameworks de gobernanza de IA compatibles con estándares internacionales.
Opinión


opinión
ver todosNegri & Pueyrredón Abogados
Bergstein Abogados
Kabas & Martorell