Imagina una escena que puede resultarte familiar. O debería serlo, cada vez más.
Estás revisando un contrato y decides abrir una herramienta de inteligencia artificial. Subes el documento. En unos segundos aparecen los resultados: resumen del contrato, cláusulas problemáticas, riesgos detectados, sugerencias de redacción.
Todo parece razonable, incluso convincente. Miras el resultado, asientes ligeramente y pasas al siguiente asunto.
¿Qué ha pasado realmente en ese momento? ¿Ha habido un análisis jurídico? ¿O simplemente has aceptado el resultado porque “la IA ya lo ha revisado”?
En ese pequeño gesto empieza algo que algunos investigadores empiezan a llamar rendición cognitiva. Te cuento.
Hay una idea bastante extendida: que la inteligencia artificial podría volvernos menos inteligentes. La ciencia sugiere algo un poco diferente. En psicología existe un concepto llamado cognitive offloading: la tendencia humana a descargar parte del esfuerzo mental en herramientas externas (Risko & Gilbert, 2016).
Lo hacemos constantemente. Usamos la calculadora para multiplicar. El GPS para orientarnos. El buscador para recordar datos.
En sí mismo no es un problema. Al contrario: libera capacidad mental para pensar mejor. El problema aparece cuando la descarga se convierte en renuncia. Cuando dejamos de verificar. Cuando dejamos de cuestionar. Cuando dejamos de pensar.
Un estudio reciente realizado por investigadores asociados a la Wharton School con más de 1.300 participantes mostró un fenómeno interesante: cuando las personas consultaban una IA para resolver problemas de razonamiento, seguían su respuesta cerca del 80 % de las veces incluso cuando era incorrecta. Los autores denominan este comportamiento cognitive surrender, es decir, rendición cognitiva: la tendencia a aceptar las respuestas de la IA sin activar plenamente el pensamiento crítico.
Además, ocurrió algo interesante en el experimento: la confianza de los participantes aumentaba simplemente por usar la IA, incluso cuando la respuesta era errónea. Es decir, las personas no solo delegaban el razonamiento, sino también delegaban la evaluación crítica del resultado.
El estudio no demuestra que la IA nos vuelva menos inteligentes, sino algo más sutil: cuando una respuesta viene de un sistema sofisticado, nuestro cerebro reduce el esfuerzo de verificación. Este fenómeno ya se conocía en psicología como automation bias, es decir, la tendencia a confiar demasiado en sistemas automatizados.
Para entender por qué ocurre esto conviene recordar algo que la psicología cognitiva lleva años explicando. Nuestro cerebro no tiene una sola forma de pensar. Podemos imaginar tres niveles.
Sistema 1: rápido, intuitivo, automático.
Sistema 2: analítico, deliberado, lógico.
Sistema 3: metacognitivo.
Este tercer sistema es el más interesante. Es el que supervisa cómo pensamos.
Es el sistema que nos hace parar y preguntarnos: ¿Tiene sentido esta conclusión? ¿Estoy pasando algo por alto? ¿De dónde sale esta respuesta?
Es, en realidad, el sistema del criterio profesional.
La rendición cognitiva aparece cuando dejamos que la tecnología sustituya a ese tercer sistema. Aquí es donde la cuestión se vuelve especialmente relevante para la abogacía. El trabajo jurídico nunca ha consistido únicamente en encontrar información. Consiste en interpretarla.
Una inteligencia artificial puede resumir un contrato, identificar cláusulas, sugerir una redacción y encontrar precedentes, pero el derecho rara vez es solo un problema de patrones. También es contexto, estrategia y responsabilidad.
Un algoritmo puede detectar una cláusula problemática, pero no puede entender completamente la lógica de una negociación o la cultura de una empresa. Por eso el verdadero valor del abogado nunca ha sido la información, sino el juicio.
El riesgo es que los abogados empiecen a ejercer menos su criterio porque la tecnología parece hacerlo por nosotros. Cuando una respuesta aparece en cinco segundos, bien redactada y aparentemente coherente, la tentación de aceptarla sin cuestionarla es enorme.
Afortunadamente, según el informe de LegalOn, los equipos legales están usando IA pero manteniendo el juicio humano y la supervisión. El estudio 2026 State of AI for In-House Legal se basa en una encuesta a 452 profesionales jurídicos. Su conclusión central es que la IA ya forma parte del trabajo legal cotidiano, pero no sustituye el juicio profesional.
Por ejemplo:
- 78 % de los equipos legales se sienten cómodos delegando una primera revisión de contratos a un agente de IA solo bajo supervisión de abogados.
- La delegación se concentra en tareas repetitivas o fácilmente verificables (first-pass review, borradores iniciales, investigación preliminar).
- El modelo dominante es “human-in-the-loop”: la IA acelera el trabajo, pero el abogado mantiene control, juicio y responsabilidad.
El informe muestra un patrón muy claro.
La IA se adopta primero en tareas como revisión de contratos, redlining, investigación jurídica preliminar, gestión de solicitudes internas. Esto tiene lógica porque son tareas donde el abogado puede revisar el resultado, corregirlo y validar el riesgo.
Por ejemplo, el informe señala que 87 % de los encuestados cree que la IA puede aportar valor en la revisión de contratos. Y una razón es que el volumen de trabajo es enorme: la revisión de un contrato puede requerir unas 3,1 horas de media. La IA entra aquí como acelerador, no como sustituto.
El informe también reconoce límites importantes. Identifica varios obstáculos para escalar la IA en el trabajo legal: falta de tiempo para implementar herramientas, preocupaciones de privacidad y confidencialidad y dificultades de integración con sistemas existentes.
Los estudios sobre adopción de IA en el sector legal sugieren que los abogados siguen manteniendo el control y el juicio sobre el trabajo realizado por las herramientas. Pero la psicología cognitiva recuerda algo incómodo: los humanos tendemos a confiar demasiado en sistemas automatizados. Si crees que el reto será aprender a usar la IA, te equivocas. El desafío será seguir pensando cuando la usamos.
Artículos
opinión
ver todosNoetinger & Armando
BDO





















































































































