La amenaza silenciosa: cómo la inteligencia artificial pone en jaque a los jóvenes abogados en Argentina
Por Mario Covarrubias Jurado
Estudio Garrido Abogados

La inteligencia artificial (IA) ha revolucionado numerosos sectores en los últimos años, y el derecho no ha sido la excepción. Sin embargo, su irrupción en la abogacía argentina ha despertado un nuevo tipo de alarma: el impacto negativo que puede tener en la formación y el desempeño de los jóvenes profesionales del derecho.

 

El acceso masivo a herramientas como Harvey AI, plataforma de IA diseñada para responder consultas jurídicas y realizar investigaciones doctrinarias y jurisprudenciales, ha cambiado las reglas del juego en los estudios jurídicos. Así, en el ámbito de la justicia, nos encontramos con Prometea, una IA creada en Argentina, en el ámbito del propio Ministerio Público Fiscal de la Ciudad de Buenos Aires en el año 2017. Esta herramienta demostró que los tiempos de elaboración en las tareas pueden reducirse hasta en un 90%, además de minimizar –y en algunos casos eliminar– el margen de error. Entre otras cosas, permite predecir la solución a un caso judicial en menos de 20 segundos, con una tasa de acierto igual o superior del 90%[1].

 

Si bien estas plataformas prometen agilizar procesos y reducir errores, también plantean una pregunta incómoda: ¿qué lugar ocupan los abogados recién graduados en esta nueva realidad?

 

¿Qué es la IA Generativa y los LLMs?

 

Dentro de las ramas actuales, la IA Generativa es particularmente una de las más relevantes y es la que, sin lugar a duda, está modificando, entre otras tantas cosas, el mundo del derecho tal y como lo conocíamos hasta ahora. 

 

A partir del año 2023, la IA se basa en algoritmos de redes neuronales artificiales. Estas redes imitan la forma en que el cerebro humano procesa la información, permitiendo a las máquinas aprender de grandes cantidades de datos. Las redes neuronales profundas son capaces de modelar y comprender datos complejos, lo que ha permitido el desarrollo de algoritmos de IA más sofisticados y capaces[2].

 

La IA Generativa se refiere a sistemas diseñados no solo para reconocer patrones, sino para generar contenido nuevo que siga dichos patrones: pueden crear imágenes (ej. DALL-E, MidJourney), audio, o texto.

 

En el campo textual, destacan los Modelos de Lenguaje de Gran Escala (Large Language Models o LLMs) como GPT-4, entrenados sobre cuerpos gigantescos de textos (libros, artículos, sitios web) para predecir la siguiente palabra en una oración.

 

Entre los LLMs más utilizados en la actualidad se encuentran ChatGPT, Gemini y herramientas desarrolladas por Meta, todas ellas desempeñando un papel destacado en el avance de la IA aplicada a diversos campos, incluyendo el judicial. Los LLMs operan con cientos de miles de millones de parámetros, lo que les otorga flexibilidad para distintas tareas de procesamiento de lenguaje natural (NLP).

 

Sin embargo, es sumamente importante destacar que la IA Generativa no es una inteligencia real en el sentido humano. Es decir, no es reflexiva y sólo se limita a arrojar el output (resultado) tras procesar el prompt (instrucción inicial o pregunta del usuario), sin comprender lo que está haciendo. De esta manera, pese a sus logros, estos modelos, al día de hoy, carecen de entendimiento genuinamente humano: funcionan por correlación estadística, no por raciocinio consciente, lo que implica que pueden cometer errores factuales o lógicos (fenómeno de alucinación o generación de contenido verosímil, pero incorrecto)[3].

 

Prueba de ello es el creciente número de sanciones impuestas a abogados como Steven Schwartz[4] o Zachariah C. Crabill[5] en tribunales de Estados Unidos, quienes han sido penalizados por confiar excesivamente en los resultados proporcionados por ChatGPT. Esta herramienta, en múltiples ocasiones, ha generado precedentes ficticios que se alinean artificialmente con los argumentos que se desean presentar en juicio.

 

La pérdida del razonamiento crítico

 

Uno de los principales efectos negativos del uso excesivo de la IA en los primeros años de la profesión de abogado es la atrofia del razonamiento crítico. Tradicionalmente, la carrera de Derecho en Argentina se ha basado en el análisis profundo de normas, la interpretación de fallos y la argumentación jurídica. Sin embargo, cuando los estudiantes y jóvenes abogados delegan estas tareas a programas de IA, pierden la oportunidad de desarrollar las habilidades que son la esencia misma del ejercicio profesional.

 

Así, vemos muchos abogados recién recibidos que dependen casi por completo de sistemas automatizados para redactar escritos o buscar jurisprudencia. Esto no solo limita su aprendizaje, sino que también los vuelve prescindibles. Lamentablemente, si un abogado joven no puede aportar un valor agregado humano, como la creatividad jurídica o el juicio ético, es fácilmente reemplazable por una máquina.

 

Según la Ley de Reversión de Marshall McLuhan, una herramienta usada en exceso puede volverse contraproducente y afectar negativamente el sistema que pretendía mejorar. Al igual que un músculo, el cerebro se vuelve menos resolutivo si depende constantemente de la IA para realizar análisis, resolver problemas o generar contenido. De esta manera, el daño que genera la utilización indiscriminada de estos modelos de IA Generativa en la etapa de formación del pensamiento crítico jurídico que, necesariamente, deben atravesar los jóvenes profesionales podría ser irreversible.

 

Un estudio reciente[6] realizado en la ciudad japonesa de Yokohama por investigadores de Microsoft y la Universidad Carnegie Mellon (2025) advierte sobre los efectos negativos del uso intensivo de herramientas de IA generativa en el pensamiento crítico. En una muestra de 319 trabajadores del conocimiento, se evidenció que, a mayor confianza en la IA para realizar tareas complejas, mayor era la tendencia a reducir la evaluación crítica de los resultados obtenidos. Esta "inactivación del pensamiento crítico" se manifiesta en una delegación pasiva de responsabilidades cognitivas, lo que pone en riesgo la autonomía profesional y la capacidad de juicio.

 

Asimismo, el estudio halló que el uso frecuente de IA generativa conduce a una menor diversidad en los resultados producidos, en comparación con aquellos obtenidos por individuos que no utilizaron estas herramientas. Esta homogeneidad refleja una limitación estructural de los sistemas de IA, que operan a partir de datos preexistentes y no de procesos creativos propios, lo que puede empobrecer la calidad deliberativa en contextos que requieren pluralidad de enfoques y criterios jurídicos sólidos.

 

El estudio no niega que las herramientas de IA puedan mejorar la eficiencia en ciertas situaciones, pero sí advierte sobre los costos de esa dependencia. Al apoyarse indiscriminadamente en la IA Generativa, los jóvenes abogados comienzan a perder la memoria muscular que han desarrollado al realizar ciertas tareas por su cuenta. No solo están externalizando el trabajo en sí, sino también su compromiso crítico con él, asumiendo que la máquina lo tiene todo bajo control.

 

 El riesgo de la automatización

 

Harvey AI y otras herramientas similares son capaces de procesar millones de documentos legales en segundos, detectar patrones jurisprudenciales y hasta redactar borradores de demandas. Si los jóvenes abogados se limitan a copiar y pegar resultados, sin comprender el razonamiento detrás de las soluciones que ofrece la IA, terminan cediendo su rol activo en el proceso legal.

 

"Una ironía clave de la automatización es que al mecanizar las tareas rutinarias y dejar el manejo de excepciones al usuario humano, se priva a este de las oportunidades rutinarias para ejercitar su juicio y fortalecer su musculatura cognitiva, dejándolo atrofiado y poco preparado cuando surgen las excepciones", señalan los investigadores de Microsoft y la Universidad Carnegie Mellon en su reciente estudio.

 

La automatización de tareas jurídicas básicas ya es una realidad en muchos estudios de mediano y gran porte en Argentina, especialmente en áreas como derecho laboral y civil. Esto implica que el perfil de abogado junior tradicional —aquel que comenzaba haciendo tareas rutinarias para luego crecer profesionalmente— está en peligro de extinción.

 

Una generación en riesgo

 

La situación plantea un desafío urgente para las universidades y los formadores legales. Deben revalorizar el pensamiento crítico, la argumentación oral y escrita, y el juicio ético como competencias centrales del nuevo abogado, en lugar de fomentar una dependencia ciega a la tecnología.

 

El futuro del derecho no está en competir con las máquinas, sino en complementarlas. Pero para eso, primero hay que tener algo que la IA no pueda replicar: criterio humano.

 

En un contexto en el que la IA Generativa seguirá avanzando, la clave está en formar profesionales capaces de usarla como una herramienta, no como una muleta. Porque si los jóvenes abogados dejan de pensar por sí mismos, el mayor riesgo no es que la tecnología los supere, sino que los vuelva innecesarios.

 

 

Estudio Garrido Abogados
Ver Perfil
Citas

[1] Innovación e Inteligencia Artificial, Ministerio Público de la Ciudad de Buenos Aires, (https://mpfciudad.gob.ar/institucional/2020-03-09-21-42-38-innovacion-e-inteligencia-artificial).

[2] GOODFELLOW, I., Bengio, Y. - COURVILLE, A., "Deep Learning. MIT Press", 2016.

[3] “Inteligencia Artificial y Función Notarial”, Salierno, Karina V., Bielli, Gastón E. Publicado en La Ley 08/05/2025, Cita: TR LALEY AR/DOC/1035/2025

[4] "Roberto Mata vs. Avianca Inc’’ / Case 1:22-cv-01461-PKC, Distric Court, S.D. New York, Feb. 22,2022 ( https://www.courtlistener.com/docket/63107798/mata-v-avianca-inc/),

[5] ‘‘Colorado lawyer suspended for using AI platform to draft legal motion’’- CBS Colorado. (https://www.cbsnews.com/colorado/news/colorado-lawyer-artificial-intelligence-suspension)

[6] Microsoft Research & Carnegie Mellon University. (2025). “The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects from a Survey of Knowledge Workers”, CHI ’25, April 26–May 01, 2025, Yokohama, Japan.

Artículos

El Informe de Minerales Críticos del Reino Unido y las Oportunidades para la Argentina
detrás del traje
Nos apoyan