I. La cortesía que delató al algoritmo
Los errores más reveladores nunca son técnicos. Son humanos. O, en este caso, demasiado artificialmente corteses.
La Cámara en lo Penal de Chubut acaba de escribir el primer capítulo argentino de una saga que recorre tribunales de Londres, Madrid y Nueva York: la anulación de una sentencia condenatoria porque el juez delegó su redacción en un asistente de inteligencia artificial generativa. Pero lo extraordinario del caso no es que el magistrado haya usado la herramienta —prohibida para puntos decisorios según el Acuerdo Plenario 5435 del Superior Tribunal provincial—, sino que olvidó borrar la frase con la que el algoritmo le entregó el texto final: "Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar:". Un prompt convertido en prueba.
El imputado había sido condenado por delitos contra la propiedad en juicio oral. La defensa apeló, cuestionando fundamentalmente dos nulidades probatorias que el juez había rechazado. Esas dos piezas —un informe policial y una pericia psicológica— constituían el núcleo duro de la acusación, de modo que la resolución de las nulidades planteadas no era un trámite lateral sino el corazón del veredicto, aquello que separaba la condena de la absolución, la privación de libertad del retorno a la vida común. La Cámara anuló.
¿Por qué tres camaristas coincidieron en fulminar el fallo con distintos argumentos pero idéntica conclusión? Porque la frase delatora no era un detalle estilístico. Era la confesión involuntaria de que un algoritmo comercial, entrenado con millones de textos sin supervisión ética ni validación jurisdiccional, había redactado la sección que determinaba si dos pruebas clave eran válidas o nulas. Y el sistema judicial argentino, regido por el principio del juez natural y la garantía de fundamentación, no admite que un tercero —menos aún un tercero no humano, opaco, incontrolable— se siente en el estrado a decidir sobre la libertad de una persona, aunque lo haga con la cortesía programada de un mayordomo victoriano ofreciendo té y galletitas mientras destruye garantías constitucionales.
II. El marco normativo que nadie leyó (o que leyó la IA)
El Superior Tribunal de Chubut aprobó el Acuerdo Plenario 5435, titulado "Directivas para el uso ético y responsable de inteligencia artificial generativa en el Poder Judicial de Chubut".
El documento establece directivas vinculantes organizadas en un anexo con cuatro puntos: objetivos, principios, recomendaciones técnicas y directrices generales. Entre las directrices generales se encuentran la supervisión humana obligatoria, la transparencia en el uso, la confidencialidad de datos sensibles y la prohibición expresa de delegar decisiones jurisdiccionales en sistemas de IA. La directiva sobre validación exige que todos los resultados generados por IA sean revisados por profesionales capacitados antes de incorporarse a los procesos judiciales. La de confidencialidad ordena anonimizar nombres de justiciables, testigos y peritos antes de ingresar datos al sistema.
El magistrado de primera instancia violó estas directivas. No declaró qué asistente usó. No anonimizó los nombres que aparecen en el punto IV de la sentencia. Y, según la inferencia unánime de los tres camaristas, delegó en el algoritmo la redacción de un capítulo decisorio: la resolución de planteos nulificantes sobre las dos pruebas centrales del caso.
¿Pudo haber sido solo una ayuda de redacción? La palabra "reeditado" sugiere que hubo versiones previas. "Sin citas" implica que el sistema había incluido referencias doctrinarias o jurisprudenciales que luego fueron removidas. ¿Eran citas reales o "alucinaciones"? Nadie lo sabe. El juez no lo explicó. Y esa opacidad no es un detalle burocrático: es la muerte de la fundamentación.
III. Tres fracturas constitucionales (o una sola, disfrazada de tres)
Los votos de la Cámara coinciden en anular, pero discrepan sutilmente en el fundamento. Primer voto: vicio en la fundamentación (arts. 164, 372 inc. 3° CPP Chubut). Segundo voto: delegación indebida de función jurisdiccional y violación del Acuerdo Plenario 5435. Tercer voto: afectación del derecho de defensa y del control de constitucionalidad.
Las tres líneas convergen en una única grieta: no sabemos qué decidió el juez y qué decidió la máquina. Y si no lo sabemos, no podemos controlarlo. Y si no podemos controlarlo, no hubo debido proceso. Fin del silogismo.
Pero aquí emerge la paradoja que incomoda: ¿es esto una garantía o un formalismo hipertrofiado?
Pensemos el contraargumento. Las nulidades probatorias fueron rechazadas. El imputado fue condenado. Supongamos —solo supongamos— que la decisión era correcta: que el informe policial y la pericia psicológica cumplían todos los requisitos de validez, que no había contaminación de la cadena de custodia, que los testimonios eran coherentes, que la sentencia, despojada de la frase maldita, era impecable en su lógica interna. ¿Importa entonces que el punto IV haya sido redactado por un algoritmo si el resultado era jurídicamente sólido?
La respuesta formal es: sí, importa. Porque la garantía de fundamentación no protege solo el contenido de la decisión, sino el proceso intelectual que lleva a ella. El justiciable tiene derecho a conocer el razonamiento del juez, no el output de un sistema opaco entrenado con datos desconocidos. El art. 18 de la Constitución Nacional exige juez natural, no juez natural asistido por un oráculo algorítmico sin firma ni responsabilidad.
Pero la respuesta material es más incómoda: estamos anulando una condena —con los costos económicos, emocionales y sociales que eso implica (nuevo juicio, revictimización de testigos, posible prescripción)— porque el juez no puso un asterisco aclarando "usé IA aquí". La tensión entre forma y fondo no es nueva. La doctrina de la Corte Suprema sobre verdad jurídica objetiva siempre advirtió contra el exceso de ritual manifiesto que privilegia formas sobre sustancia.
El problema es que no lo sabemos. Y esa es, justamente, la fractura. La falta de transparencia convierte la duda en certeza procesal: si no se declaró qué herramienta se usó, cómo se usó y qué partes del texto son del juez, se asume lo peor. La carga de la prueba se invierte. Y en ese sentido, la anulación no es formalista: es la única salida posible cuando la opacidad impide el control.
¿Pero no podría haberse subsanado con una aclaratoria? ¿No podría haberse ordenado al juez que explique, en detalle, cuál fue el uso concreto de la IA, para luego evaluar si ese uso afectó o no la validez del decisorio? La Cámara no lo consideró. Y esa omisión abre un interrogante que el fallo no resuelve: ¿se anula porque hubo delegación, o porque no se sabe si hubo delegación?
La diferencia no es trivial. Si se anula por lo primero, se está diciendo que cualquier uso de IA en puntos decisorios es nulo per se, aunque el juez lo declare y supervise. Si se anula por lo segundo, se está diciendo que el problema es la opacidad, no la herramienta. El fallo parece inclinarse por lo segundo, pero su consecuencia práctica es lo primero.
IV. Las "alucinaciones" y otros riesgos que nadie pudo verificar
Ya abordamos en detalle el fenómeno de las "alucinaciones" algorítmicas en nuestro análisis del caso Rosario y las Directrices de Tucumán ("El algoritmo de la mentira: de Rosario a Tucumán, las respuestas judiciales al uso de la IA - ¿Corregir o prevenir?", abogados.com.ar, 2025). No repetiremos aquí el diagnóstico. Lo que importa es la pregunta práctica: ¿ocurrió en Chubut?
No lo sabemos. La frase "sin citas" sugiere que el algoritmo había incluido referencias que fueron removidas. ¿Eran citas reales? ¿Eran fallos inventados? ¿Eran párrafos de doctrina que nunca existieron? El juez no lo verificó. O lo verificó y las borró. O nunca hubo citas y la frase del prompt es un estándar genérico del sistema.
El segundo riesgo —acaso más insidioso— es el sesgo. Uno de los camaristas lo plantea con crudeza: "¿Conocía la IAGen (IA generativa) que el imputado fue condenado con anterioridad por ser autor de delitos contra la propiedad? ¿Ello pudo introducir un sesgo en la lógica jurídica aplicada para dilucidar si las pruebas cuestionadas eran válidas?"
La pregunta no es retórica. Si el juez proporcionó al sistema el contexto completo del expediente, el algoritmo procesó también los antecedentes penales del imputado. Y los modelos de lenguaje no razonan: correlacionan. Si en su entrenamiento "condenado previo por robo" se asocia estadísticamente con "rechazar planteos de nulidad probatoria", el sistema reproducirá ese patrón sin ningún análisis jurídico. Puro sesgo confirmatorio automatizado.
Sin trazabilidad, no hay defensa. Sin defensa, no hay debido proceso.
La Cámara cita como precedente la Sala II de la Cámara Civil y Comercial de Rosario, sentencia del 20/08/2024 en "Giacomino c. Monserrat". Un abogado incorporó en su escrito jurisprudencia que la IA le proveyó. Todas las citas eran falsas. El tribunal desestimó el recurso y advirtió sobre "el alto porcentaje de respuestas incorrectas calificadas como alucinaciones".
También menciona el caso del juez federal Julien Xavier Neals en Estados Unidos, quien incluyó precedentes inexistentes en su fallo en "Cordemedix Inc. Securities Litigation", que debió ser corregido con un nuevo pronunciamiento por la invalidez del primero.
Uno de los votos es enfático: "No encontré —sin que ello signifique que no existan— antecedentes que den cuenta que un Juez haya utilizado al asistente para desarrollar los fundamentos de su decisorio, como ha ocurrido en el caso."
V. La tensión constitucional: artículo 19 vs. artículo 18
Aquí llegamos al nudo gordiano que el fallo no desata: ¿puede el Estado prohibir o condicionar el uso de herramientas de IA en la actividad jurisdiccional?
La pregunta no es académica. El art. 19 de la Constitución Nacional establece que "las acciones privadas de los hombres que de ningún modo ofendan al orden y a la moral pública, ni perjudiquen a un tercero, están sólo reservadas a Dios, y exentas de la autoridad de los magistrados". Este principio de reserva protege la autonomía individual en todo aquello que no trascienda la esfera privada. Y el proceso mental por el cual un juez llega a su decisión —incluidas las herramientas que usa para pensar, redactar, organizar ideas— pertenece, prima facie, a esa esfera.
¿Puede el Estado imponer qué procesador de texto usa un magistrado? ¿Puede obligarlo a escribir a mano en lugar de usar correctores ortográficos? ¿Puede prohibirle consultar un tesauro digital o un buscador jurisprudencial? La respuesta intuitiva es: no. Porque el proceso es privado. Lo que importa es el output: la sentencia publicada, motivada, controlable.
Bajo esta lógica —que hemos defendido en escritos anteriores—, el Acuerdo Plenario 5435 de Chubut sería inconstitucional en la medida en que pretenda regular cómo piensa el juez, y no qué produce. Si la sentencia cumple los requisitos de fundamentación del art. 164 del CPP, si las citas son reales, si el razonamiento es lógico y controlable, ¿qué relevancia tiene que el juez haya usado IA para redactar, del mismo modo que usa Word para tipear?
Pero el art. 18 CN introduce una tensión irreductible: "Ningún habitante de la Nación puede ser (...) juzgado sin juicio previo fundado en ley anterior al hecho del proceso". El debido proceso exige no solo un procedimiento formal, sino garantías sustanciales: defensa en juicio, fundamentación de las sentencias, posibilidad de control. Y aquí la pregunta cambia: ¿puede haber debido proceso si la fundamentación es opaca, si no es posible distinguir qué razonó el juez y qué produjo el algoritmo?
Más aún: el mismo art. 18 establece que nadie puede ser "juzgado por comisiones especiales, o sacado de los jueces designados por la ley antes del hecho de la causa". El juez natural no es solo una persona física designada conforme a la ley: es quien efectivamente juzga. ¿Puede haber juez natural si parte de la decisión —especialmente la resolución de planteos nulificantes sobre pruebas centrales— fue delegada en un sistema opaco, no responsable, entrenado por empresas privadas con fines comerciales y sin designación legal alguna?
La respuesta es: depende de qué se entienda por delegación.
Si "delegar" significa que el algoritmo decide y el juez firma, la respuesta es obvia: violación del art. 18. Pero si "delegar" significa que el juez usa la herramienta como un asistente —del mismo modo que usa un buscador jurisprudencial o un diccionario legal—, ¿dónde está el vicio?
Aquí emerge una pregunta incómoda que el fallo elude: ¿qué diferencia hay entre un algoritmo que redacta un borrador y un relator humano que hace exactamente lo mismo?
Porque todos sabemos —aunque pocos lo declaren— que existen relatores, secretarios, pasantes que proyectan sentencias. A veces con supervisión judicial rigurosa. A veces con supervisión nominal. El juez firma, el relator redacta. La práctica es tan antigua como el Poder Judicial mismo, y nadie la cuestiona mientras no se haga evidente. ¿Por qué entonces la IA es anatema y el relator fantasma es tolerado?
La diferencia técnica existe. El relator humano está dentro del circuito institucional: muchas veces tiene matrícula y por tanto responsabilidad profesional, puede ser interrogado, sancionado. La IA es un tercero comercial, opaco, sin responsabilidad legal. Pero esa diferencia se desvanece si el juez no supervisa al relator del mismo modo que no supervisó al algoritmo. El problema no es la naturaleza de la herramienta (humana o artificial), sino la opacidad del proceso y la falta de control efectivo.
Si el juez delega en un relator sin supervisión real, es tan grave como delegar en una IA. La diferencia es que lo primero es un secreto a voces que el sistema tolera, y lo segundo es un escándalo que genera anulaciones. La inconsistencia no es menor.
Pero —y este es el "pero" que el fallo de Chubut desnuda— solo se puede saber si hubo delegación indebida si hay transparencia. Y aquí el art. 19 y el art. 18 se concilian: el juez es libre de usar IA (art. 19), pero debe declarar su uso para que las partes puedan controlar si hubo afectación al debido proceso y al juez natural (art. 18).
La solución no es prohibir la IA. Es exigir trazabilidad.
El juez debe declarar qué herramienta usó. Debe declarar con qué propósito. Debe declarar qué partes del texto son generadas por el sistema y cuáles son propias. Y si no puede distinguirlas porque el proceso fue opaco —como en este caso—, entonces sí: vicio de fundamentación que afecta el debido proceso. No porque se usó IA, sino porque no se sabe qué es del juez y qué no.
El problema del fallo de Chubut no es el uso de IA. Es la opacidad. Y la opacidad, en materia penal, donde el debido proceso se traduce en defensa efectiva, contradicción y control judicial, es letal.
VI. ¿Y el iura novit curia en materia penal?
Un último apunte técnico que el fallo elude pero que late en sus silencios: ¿aplica el iura novit curia al uso de herramientas o solo a la calificación jurídica de los hechos?
En materia civil, el principio es amplio: el juez puede modificar la calificación jurídica, buscar normas aplicables, invocar doctrina o jurisprudencia no citada por las partes. El límite es la congruencia: no puede fallar extra petita ni ultra petita, pero puede fundar de otro modo.
En materia penal, el principio es más acotado. El art. 18 CN exige "juicio previo fundado en ley anterior". Esa ley es la que define el tipo penal por el cual se acusa. El juez no puede condenar por un delito distinto al imputado en la acusación, aunque los hechos lo permitan. La congruencia es más estricta porque está en juego la libertad personal y la garantía de defensa en juicio.
¿Pero eso significa que el juez penal no puede usar herramientas auxiliares para redactar o buscar jurisprudencia? No. El iura novit curia en penal significa que el tribunal conoce el derecho aplicable dentro de los límites de la acusación. Puede invocar doctrina, fallos, interpretaciones que no fueron citadas por las partes. Puede usar procesadores de texto, correctores, buscadores. Pero no puede delegar la decisión en un tercero, ni humano ni artificial.
Y aquí volvemos al punto de partida: ¿hubo delegación en Chubut? El fallo dice que sí, o al menos que no puede descartarse. Y esa duda razonable —generada por la opacidad— basta para anular.
Pero la pregunta de fondo persiste: si el juez hubiera declarado el uso de IA, explicado su función auxiliar y demostrado que la decisión final fue suya, ¿habría sido válida la sentencia? La respuesta del fallo es ambigua. Y esa ambigüedad es, quizás, su mayor debilidad.
VII. Consecuencias sistémicas: ¿garantía o parálisis?
Volvamos a la paradoja inicial. Se está anulando una condena —con nuevo juicio, revictimización de testigos, costos económicos y emocionales para todas las partes— porque el juez no declaró que usó IA. ¿Es esto una garantía o un formalismo hipertrofiado?
La respuesta es: no lo sabemos. Y esa, justamente, es la fractura. La opacidad convierte la duda en certeza procesal: si no se declaró qué herramienta se usó, cómo se usó y qué partes del texto son del juez, se asume lo peor. La carga de la prueba se invierte. Y en materia penal, donde rige el in dubio pro reo, la duda favorece al imputado.
¿Podría haberse subsanado con una aclaratoria? ¿Podría haberse ordenado al juez que explique el uso concreto de la IA para luego evaluar si afectó la validez del decisorio? La Cámara no lo consideró. Y esa omisión abre un interrogante que el fallo no resuelve: ¿se anula porque hubo delegación, o porque no se sabe si hubo delegación?
La diferencia no es trivial. Si se anula por lo primero, se está diciendo que cualquier uso de IA en puntos decisorios es nulo per se, aunque el juez lo declare y supervise. Si se anula por lo segundo, se está diciendo que el problema es la opacidad, no la herramienta.
El fallo parece inclinarse por lo segundo, pero su consecuencia práctica es lo primero. Y eso genera un efecto escalofriante: los jueces dejarán de experimentar con herramientas que podrían mejorar la eficiencia sin afectar garantías, por temor a la anulación. La innovación queda paralizada por la falta de claridad sobre qué es permitido y qué no.
VIII. Cierre: cuando los "seres inanimados" dejaron de ser metáfora
El fallo de Chubut remite a un pasaje del jurista italiano Piero Calamandrei que uno de los votos cita con elegancia: el juez "no debe considerarla como una imposición extraña que le venga de lo alto, sino que debe buscar sus fundamentos en su propia conciencia, y cuando vaya a traducirla en mandamiento concreto, re-crearla con su partícipe sentimiento... el juez, que es el intérprete oficial de la ley, debe encontrar reflejada en sí mismo esa conciencia social de la que ha nacido la ley, y leer en la propia conciencia individual los fines de orden general que su pueblo ha querido alcanzar con la ley".
Calamandrei hablaba de jueces con alma, jueces engagés —comprometidos—, que sepan llevar con humano y vigilante empeño el gran peso que implica la enorme responsabilidad de hacer justicia. Y lo hacía en expresa contraposición a la metáfora de Montesquieu, quien en El Espíritu de las Leyes imaginaba jueces como "la boca que pronuncia las palabras de la ley, seres inanimados (êtres inanimés) que no pueden moderar ni su fuerza ni su rigor".
La metáfora iluminista buscaba neutralidad, separación de poderes, previsibilidad. Calamandrei la rechazaba: un juez no es una máquina de subsunción lógica, sino un intérprete que recrea la norma con su conciencia social. El juez inanimé de Montesquieu era una advertencia contra la arbitrariedad judicial. El juez engagé de Calamandrei era un llamado a la responsabilidad humana.
Pero ninguno de los dos hablaba de prompts.
Porque lo que Chubut desnuda es la ironía más amarga de la era algorítmica: los "seres inanimados" dejaron de ser metáfora. Ahora literalmente tenemos entidades inanimadas —algoritmos sin conciencia, sin responsabilidad, sin capacidad de sentir el peso de una condena— redactando los fundamentos que separan la libertad del encierro. Y lo hacen con la cortesía programada de quien ofrece té mientras destruye garantías constitucionales.
La tecnología promete eficiencia, velocidad, democratización del conocimiento. Y cumple. Pero el derecho no es solo lógica: es también interpretación, contexto, valoración, prudencia. Esas cualidades no se programan. Se cultivan.
La paradoja final: estamos sancionando al juez que confesó —por error— haber usado IA, mientras toleramos décadas de relatores fantasma que redactan sentencias sin firma. La inconsistencia no es técnica. Es moral. Y hasta que no la resolvamos, seguiremos anulando fallos por las razones equivocadas, protegiendo formas vacías mientras ignoramos delegaciones reales.
La verdad dura: el fallo de Chubut no cierra el debate. Lo abre. Y la próxima vez que un algoritmo ofrezca cortésmente "el punto IV reeditado, sin citas y listo para copiar", alguien recordará borrar la frase. Pero el problema seguirá ahí, invisible, operando en silencio. Porque lo peligroso nunca es la tecnología que se ve. Es la que no se declara. Montesquieu temía jueces arbitrarios. Calamandrei pedía jueces humanos. Nosotros terminamos con jueces que copian y pegan. Y eso, acaso, sea peor que ambos extremos.
Citas
1. Artículo previo del autor:
LERER, Ignacio Adrián, "El algoritmo de la mentira: de Rosario a Tucumán, las respuestas judiciales al uso de la IA - ¿Corregir o prevenir?", abogados.com.ar, 2025. Disponible en: https://abogados.com.ar/el-algoritmo-de-la-mentira-de-rosario-a-tucuman-las-respuestas-judiciales-al-uso-de-la-inteligencia-artificial-ia-corregir-o-prevenir/37569
2. Fallo principal:
Cámara en lo Penal de la Circunscripción Judicial del Noroeste del Chubut, "Provincia del Chubut c/ P., R. A.", Esquel, Chubut. Expediente Carp. OFIJU NIC Nº 6209 – Leg. Fiscal N° 59560. Disponible en https://x.com/E_Procesal/status/1978558783396716950
3. Normativa citada:
Superior Tribunal de Justicia de la Provincia del Chubut, Acuerdo Plenario N° 5435, "Directivas para el uso ético y responsable de inteligencia artificial generativa en el Poder Judicial de Chubut".
4. Jurisprudencia citada en el fallo:
Cámara Civil y Comercial de Rosario, Sala II, "Giacomino, César Adrián y Otros c. Monserrat, Facundo Damián y Otros s/ daños y perjuicios", 20/08/2024, Publicado en LA LEY 29/08/2025, Cita: TR LALEY AR/JUR/95812/2025.
Corte Federal de Estados Unidos, Juez Julien Xavier Neals, "Cordemedix Inc. Securities Litigation".
Opinión


opinión
ver todosKabas & Martorell
Hope, Duggan y Silva Abogados
Brons & Salas