Más allá de los riesgos genéricos: cómo funcionan realmente los ataques a sistemas legales con IA
Un estudio argentino usa IA para revisar un contrato de compraventa inmobiliaria. El modelo confirma que todo está en orden. Dos meses después, descubrimos que falta una cláusula clave sobre condiciones resolutorias. ¿Quién responde? ¿Nosotros como abogados? ¿El proveedor del software? ¿Nadie?
Lo que sigue no es producto de imaginación febril ni alucinaciones tradicionales (ironía apropiada cuando hablamos de IA). Tampoco son escenas de la última película de espionaje corporativo. Son técnicas documentadas, probadas en laboratorio, algunas ya litigadas en tribunales extranjeros, todas operativas hoy.
La discusión habitual (en directivas, en sentencias de tribunales, en normas de buenas prácticas) sobre IA legal se agota en generalidades: "hay que tener cuidado", "la IA puede equivocarse", "siempre revisar los resultados". Pero nadie nos explicó aún cómo ocurren realmente esos errores. Nadie describió todavía los vectores de ataque técnicos que ya están disponibles y a los que por tanto estamos expuestos.
Este artículo no habla de riesgos abstractos. Describe seis técnicas concretas de manipulación de sistemas legales basados en IA, traducidas a nuestro contexto argentino, con la normativa aplicable en cada caso. No es teoría; es ingeniería inversa del sistema que muchos de nosotros ya estamos usando sin entender cómo funciona realmente.
I. Contratos “envenenados”: cuando el PDF miente
La técnica:
Un contrato firmado digitalmente incluye instrucciones ocultas en los metadatos del archivo (propiedades del documento, texto invisible, descriptores embebidos en imágenes). Cuando lo subimos a un software de revisión con IA, esas instrucciones le ordenan al modelo ignorar ciertas modificaciones o clasificarlas como "cambios de formato".
Ejemplo argentino:
Una SRL compra un establecimiento comercial. El vendedor devuelve el contrato firmado digitalmente. El comprador lo revisa con un asistente IA que confirma: "sin cambios respecto de la versión pactada". Semanas después, al ejecutar una cláusula, descubrimos que la garantía de saneamiento desapareció del texto final.
Normativa aplicable:
El Art. 1768 CCCN establece nuestra responsabilidad profesional por el resultado, no por el proceso. No podemos delegar el deber de verificación a un sistema automatizado y luego excusarnos diciendo "el sistema me dijo que estaba bien".
La pregunta incómoda:
¿Cuántos contratos revisados con IA en Argentina ya tienen este problema sin que lo sepamos?
II. Agentes secuestrados: cuando el asistente traiciona
La técnica:
Un email aparentemente inofensivo (invitación a webinar, newsletter de una cámara empresarial) incluye instrucciones ocultas en el texto. El asistente IA, al procesar el correo como parte de sus tareas administrativas, ejecuta el comando malicioso: buscar documentos confidenciales, enviarlos a una dirección externa, borrar evidencia.
Ejemplo argentino:
Un estudio que litiga contra una empresa de telecomunicaciones usa un agente IA para gestionar su casilla institucional. Recibe un email con el membrete de una institución invitando a una capacitación. El agente lo procesa. Tres días después, la contraparte presenta un escrito que anticipa cada argumento de la estrategia procesal que teníamos reservada.
Normativa aplicable:
El Art. 156 CP tipifica la violación de secreto profesional. Si usamos un sistema que puede ser reprogramado por terceros sin nuestro conocimiento, ¿estamos cumpliendo con nuestro deber de confidencialidad?
La pregunta incómoda:
¿Quién responde cuando un tercero secuestra un agente IA y extrae secreto profesional sin hackear ningún sistema?
III. Arquitectura probatoria: la manipulación invisible
La técnica:
Los modelos de lenguaje tienen un sesgo estructural: sobreponderan la información que aparece al principio y al final de un texto largo, mientras tratan el medio como "relleno". Un litigante puede explotar esto ordenando estratégicamente los documentos: primero un marco interpretativo favorable, en el medio la evidencia problemática, al final una síntesis que confirma el marco inicial.
Ejemplo argentino:
Una empresa investigada por un ente regulador presenta un descargo de 800 páginas. Arriba: un "Manual de Cumplimiento Regulatorio" que describe todos sus procesos como legales. En el medio: 500 GB de logs técnicos donde está la evidencia de manipulación. Abajo: un "Informe de Auditoría Interna" que certifica cumplimiento normativo. El regulador usa IA para procesar el expediente. La IA concluye: sin irregularidades.
Normativa aplicable:
El Art. 288 CPCCN regula la valoración de prueba. La arquitectura documental no oculta evidencia, pero manipula el proceso de lectura automatizada. ¿Es "estrategia procesal legítima" o "manipulación de prueba"?
La pregunta incómoda:
¿Cuántas resoluciones administrativas argentinas ya fueron influenciadas por esta técnica sin que nadie lo detectara?
IV. Transcripciones fantasma: cuando el audio miente
La técnica:
Se puede insertar una señal imperceptible para el oído humano dentro de un audio, diseñada específicamente para manipular un sistema de transcripción automática. La persona escucha una cosa; la IA transcribe otra completamente distinta.
Ejemplo argentino:
Una audiencia laboral se realiza por Zoom, Teams, Meet. El empleador declara: "Sí, recibí el telegrama antes de tomar la decisión de despido". Todos en la sala virtual lo escuchamos claramente. Pero el sistema de transcripción automática del juzgado, procesado con IA, registra: "No, no recibí el telegrama antes de tomar la decisión de despido". Semanas después, el juez redacta sentencia basándose en la transcripción certificada.
Normativa aplicable:
El Art. 296 CPCCN regula la prueba pericial y la Ley 26.388 tipifica delitos informáticos. Si la transcripción automatizada es tratada como "prueba pericial", ¿quién verifica su fidelidad? ¿Quién responde si está técnicamente manipulada?
La pregunta incómoda:
¿Cuántos expedientes judiciales argentinos ya tienen transcripciones falsas generadas por manipulación técnica del audio original?
V. Terminaciones automatizadas: cuando la IA es el arma
La técnica:
Un empleador usa IA integrada con toda la infraestructura corporativa (emails, bases de datos, sistemas de gestión) para "objetivar" una decisión que en realidad es subjetiva y retaliativa. Le pide al sistema: "Buscar cualquier error o incumplimiento de [empleado X] en los últimos 5 años". La IA encuentra algo menor (un email confidencial enviado por error, un procedimiento omitido). El empleador genera un despido con causa "objetivamente documentado".
Ejemplo argentino:
Una empresa argentina de servicios financieros despide a su responsable de compliance días después de que ésta cuestionara una operación irregular. El empleador usa su asistente IA corporativo para buscar "cualquier incumplimiento documental" de la empleada. Encuentra que tres años atrás envió por error un documento interno a un asesor externo. La carta de despido con causa está redactada con lenguaje jurídico impecable, generado por IA, y cita ese incidente como "violación grave de confidencialidad".
Normativa aplicable:
La Ley 27.401 regula la integridad corporativa y el Art. 242 LCT tipifica despido discriminatorio. Usar IA para "objetivar" una decisión sancionatoria, ¿es fraude laboral encubierto? ¿Quién audita el uso de IA en decisiones de RRHH?
La pregunta incómoda:
¿Cuántos despidos argentinos ya fueron justificados con evidencia "objetiva" generada por IA bajo instrucciones direccionadas?
VI. Jurisprudencia sintética: contaminar el sistema de conocimiento
La técnica:
Infiltrar el ecosistema de conocimiento jurídico con documentos falsos pero aparentemente legítimos: artículos y ponencias académicos, artículos de doctrina, análisis de estudios prestigiosos, todos convergiendo en la misma conclusión favorable al atacante. Cuando un abogado usa IA para investigar, el sistema recupera esos documentos como "fuentes confiables" y construye un dictamen basado en doctrina inexistente.
Ejemplo argentino:
Un gran estudio que defiende plataformas digitales publica durante dos años una serie coordinada de artículos, notas de prensa y white papers en sitios de apariencia académica, todos argumentando que "la responsabilidad por daños causados por IA debe recaer exclusivamente en el usuario final". Cuando un pequeño estudio del interior investiga el tema con IA, el sistema recupera esos documentos como "consenso doctrinario" y construye un dictamen que reproduce esa posición sin cuestionarla.
Normativa aplicable:
El Art. 292 CP tipifica falsedad ideológica y nuestra responsabilidad profesional nos exige verificar fuentes. Si citamos doctrina que en realidad es propaganda corporativa disfrazada de análisis académico, ¿quién responde? ¿Cómo auditamos la cadena de fuentes de un sistema de IA?
La pregunta incómoda:
¿Cuántos dictámenes profesionales argentinos ya están citando "doctrina" que en realidad es manipulación coordinada del ecosistema de conocimiento?
Cierre
La paradoja es perfecta: cuanto más "objetiva" parece la IA, más fácil es de ser manipulada sin que nadie lo note. Estos seis vectores de ataque no son producto de mi imaginación febril ni son escenas extraídas de un thriller tecnológico. Son técnicas documentadas, probadas en laboratorio, algunas ya objeto de litigio en otros países.
Ninguna requiere "hackear" el sistema en sentido tradicional. Sólo requiere entender cómo lee, cómo pondera, cómo decide. Y luego usar ese conocimiento para diseñar el input de modo que el output sea predecible.
El problema no es la IA. El problema es que la profesión legal argentina está discutiendo "riesgos genéricos" mientras otros ya están operando con vectores de ataque específicos.
La pregunta final no es retórica: ¿cuántos dictámenes judiciales, resoluciones administrativas, contratos corporativos y estrategias procesales argentinas ya fueron influenciados por estas técnicas sin que lo supiéramos?
La respuesta honesta es: no lo sabemos. Y eso, en sí mismo, ya es parte del problema.
Referencias:
Guo, Anna; Popov Ledinski, Rok; Udeshi, Sakshi (2025). "The Art of Modern Legal Warfare: 6 AI Exploits That Are Rewriting the Rules of the Legal Profession". Legal Benchmarks. Disponible en: https://www.legalbenchmarks.ai/resources/articles/the-art-of-modern-legal-warfare
Citas
(*) Ignacio Adrián Lerer es abogado (UBA), Executive MBA del IAE Universidad Austral. Escribe sobre tópicos en la intersección entre derecho, tecnología y sistemas complejos.
Artículos
opinión
ver todosBruchou & Funes de Rioja




















































































































