I. El Tesla en la estación de nafta
Anna Marra acaba de publicar un diagnóstico preciso sobre la evolución de los perfiles jurídicos: del T-shaped al Team-shaped lawyer, del abogado híbrido al eléctrico. La metáfora es potente. Los nuevos profesionales deben "encender" el sector legal con inteligencia emocional, adaptabilidad y enfoque multidimensional. Perfiles capaces de generar energía, mover estructuras y trabajar en red.
La imagen es correcta. Pero incompleta.
Porque hay un detalle técnico que toda instalación eléctrica requiere: fusibles. Dispositivos de seguridad que interrumpen el circuito cuando la corriente excede los límites tolerables. Sin fusibles, el sistema más avanzado termina en cortocircuito.
Y aquí está el problema: estamos diseñando abogados eléctricos para operar en un sistema jurídico con fusibles analógicos. Marcos regulatorios, regímenes de responsabilidad profesional y estructuras de seguro diseñados para el Ford T, no para el Tesla.
El resultado predecible: cuando salta la térmica, el que paga la reparación no es el equipo multidisciplinar. Es el abogado que firmó el criterio.
II. La paradoja del perfil Team-shaped: multiplicación de capacidades, concentración de riesgo
Marra identifica con lucidez la transición necesaria: el abogado ya no puede ser solo un especialista vertical con conocimientos complementarios horizontales. Necesita inteligencia emocional para trabajar con otros, adaptabilidad para leer entornos cambiantes, y enfoque multidimensional para construir soluciones colectivas.
"Pasamos del 'yo sé hacer' al 'sabemos crear juntos'", escribe Marra. Exacto.
Pero ese tránsito genera una asimetría jurídica inquietante: el output se produce en equipo, pero la responsabilidad se asume en solitario.
Tomemos el caso típico: estudio mediano incorpora plataforma de contract review con IA, trabaja en colaboración con analistas de datos, consultores tecnológicos y legal operations officers. El sistema sugiere estrategia de cláusulas de indemnidad en contrato internacional complejo. El abogado senior revisa, confía en la recomendación —después de todo, el proveedor garantiza "precisión del 94 %"— y la incorpora.
Dos años después, el cliente sufre daño millonario porque esa cláusula resultó inejecutable bajo la lex contractus aplicable. El cliente demanda al estudio.
Defensa del abogado: "Actuamos con diligencia razonable; usamos herramienta certificada del mercado".
Respuesta del tribunal (probable): "El art. 1768 del Código Civil y Comercial establece que el profesional responde por negligencia en el cumplimiento de obligaciones de medio. La verificación de compatibilidad normativa es obligación nuclear del abogado, indelegable en terceros o sistemas automatizados. Corresponde condena".
Ese es el fractal: todo el sistema en miniatura. El perfil Team-shaped multiplica capacidades, pero no redistribuye responsabilidades. Y en derecho, quien no puede transferir el riesgo termina absorbiendo toda la pérdida.
III. Los cinco nuevos arquetipos y sus zonas grises de responsabilidad
En artículo previo, analicé los cinco arquetipos profesionales que Richard Susskind identifica como emergentes: ingeniero de conocimiento legal, tecnólogo legal, analista de procesos legales, gerente de proyectos legales y científico de datos legal. Cada uno combina conocimiento jurídico tradicional con competencias tecnológicas, analíticas o gerenciales.
La pregunta que dejé abierta entonces —y que el análisis de Marra sobre perfiles eléctricos vuelve urgente— es: ¿cómo se distribuye la responsabilidad profesional cuando el trabajo legal deja de ser acto individual y se convierte en proceso colaborativo híbrido?
Marra lo expresa con precisión quirúrgica: "Pedimos Superman con sueldo de Clark Kent". Pero hay una paradoja adicional: estamos construyendo sistemas de responsabilidad para Clark Kent en un mundo que ya tiene kriptonita eléctrica.
Los colegios profesionales, las pólizas de seguro, los códigos de ética fueron diseñados para un modelo de ejercicio donde:
- El abogado controla su proceso de trabajo de principio a fin.
- La verificación de fuentes es manual y trazable.
- El error profesional tiene autor identificable.
Ninguna de esas premisas subsiste en el modelo Team-shaped. Y sin embargo, seguimos aplicando los mismos estándares.
Resultado: asimetría de riesgo. El abogado asume responsabilidad plena por outputs que ya no controla completamente, mientras que los otros integrantes del "equipo" —proveedores de IA, consultores tecnológicos, analistas de datos— operan bajo regímenes contractuales que limitan su exposición.
IV. La confianza artificial y el problema del criterio delegado
Marra plantea una pregunta provocadora: "¿Qué lugar tendrá la 'confianza artificial'? La IA está aprendiendo a simular empatía". Y concluye, provisoriamente: "Por el momento, diría que la IA puede 'predecir' cómo te sientes, pero no sentir contigo. En el derecho, la confianza no es solo técnica; es relacional".
Correcto. Pero hay un correlato más urgente para el ejercicio profesional inmediato: ¿puede un abogado delegar criterio en sistemas que simulan razonamiento sin asumir consecuencias?
La respuesta del derecho profesional argentino es inequívoca: no.
En mi análisis sobre responsabilidad civil en la era de la IA, desarrollé cómo el dualismo cartesiano que fundó nuestro sistema de responsabilidad —la trilogía discernimiento, intención, libertad del art. 897 del viejo Código Civil— está siendo reemplazado por un marco más sofisticado que entiende la mente como sistema modular, distribuido y complejo.
Daniel Dennett demostró que no existe "Teatro Cartesiano" donde un yo observador toma decisiones desde un centro privilegiado. Steven Pinker reveló que la mente funciona como sistema computacional distribuido. Richard Susskind identificó la tensión entre pensamiento basado en procesos tradicionales y pensamiento basado en resultados que caracteriza a los sistemas de inteligencia artificial.
Tres autores. Un diagnóstico común: el dualismo cartesiano que fundó nuestro derecho civil ya no se sostiene.
Pero —y aquí está la paradoja inquietante— abandonar esos fundamentos filosóficos no elimina la responsabilidad moral. Al contrario: nos ofrece bases más sólidas para comprenderla.
El Código Civil y Comercial de 2015 introdujo, sin declararlo explícitamente, un puente conceptual entre la psicología cartesiana del XVII y la neurociencia del XXI. Las funciones múltiples del sistema de responsabilidad (prevenir, reparar, punir), la graduación etaria del discernimiento, los factores objetivos de atribución: todo esto operacionaliza el abandono del yo unitario cartesiano.
Aplicación al problema de la IA: si incluso la voluntad humana se explica por procesos distribuidos y emergentes, la exigencia de que una IA "explique" sus procesos en términos que asemejen la introspección humana es una falacia cartesiana.
Lo que el derecho debe exigir no es transparencia antropomórfica sino transparencia funcional: metodologías de ingeniería inversa que permitan a expertos evaluar si los patrones decisionales del sistema son conformes con estándares normativos.
Pero —y aquí volvemos al problema de Marra— ¿quién asume la responsabilidad cuando el sistema falla?
V. Tres escenarios de cortocircuito: casos donde la responsabilidad se indefine
Escenario 1: El ingeniero de conocimiento que sistematiza mal
Un ingeniero de conocimiento legal diseña árbol de decisión para evaluación de cumplimiento normativo en materia ambiental. El sistema, usado por tres estudios medianos, sugiere que cierta actividad industrial no requiere evaluación de impacto ambiental. Resultado: multas millonarias para los tres clientes.
Pregunta: ¿Quién responde? ¿El ingeniero que diseñó el sistema? ¿Los abogados que lo usaron? ¿La plataforma que lo comercializó? ¿Los tres en proporciones a determinar?
El art. 1721 del Código Civil y Comercial establece responsabilidad por culpa cuando el agente "no cumplió con la diligencia debida". Pero ¿cuál es el estándar de diligencia para un abogado que usa herramienta certificada desarrollada por especialista?
La jurisprudencia argentina aún no resolvió este problema. Los precedentes existentes sobre responsabilidad profesional asumen control directo del profesional sobre su proceso de trabajo. Esa premisa colapsó.
Escenario 2: El tecnólogo legal que implementa sistema defectuoso
Un tecnólogo legal implementa plataforma de gestión de contratos con IA en departamento legal corporativo. El sistema tiene sesgo algorítmico no detectado que sistemáticamente subestima riesgos en contratos con contrapartes de ciertos países. Pérdidas acumuladas: USD 5 millones.
Pregunta: ¿Responde el tecnólogo legal por falta de auditoría del sistema? ¿Responde el abogado general que aprobó la implementación? ¿Responde el proveedor de software bajo garantía contractual? ¿La compañía auto-asume el riesgo como costo de innovación?
Marra menciona al Ombudsman de IA como rol emergente. Perfecto. ¿Pero quién lo demanda cuando falla? ¿Bajo qué régimen normativo? ¿Con qué póliza?
Porque el día que un cliente reclame daños derivados de asesoramiento basado en sistema híbrido defectuoso, el juez no va a preguntarle al equipo multidisciplinar quién tuvo la culpa. Le va a preguntar al abogado. Y el art. 1763 del Código Civil y Comercial —que establece que el profesional responde por "los daños que cause en razón de su culpa o negligencia"— no distingue entre error humano y error de sistema.
Escenario 3: El científico de datos legal que predice mal
Un científico de datos legal desarrolla modelo predictivo de riesgo procesal. El sistema sugiere que cierto tipo de demanda tiene 83 % de probabilidad de ser rechazada en primera instancia. Basándose en esa predicción, el cliente decide no contestar demanda. Sentencia en rebeldía: pérdida patrimonial significativa.
Pregunta: ¿Responde el científico de datos por modelo defectuoso? ¿Responde el abogado que confió en la predicción sin verificación independiente? ¿Se exime el abogado demostrando que actuó según "mejor práctica" del mercado?
El problema no es solo técnico. Es epistemológico. Como desarrollé en mi análisis sobre nuevos paradigmas de la mente, la distinción entre culpa y dolo no debe centrarse en estados mentales privados sino en la sofisticación del modelado predictivo demostrado por el agente.
El dolo implica que el modelado incluía las consecuencias dañosas como elemento central del proceso decisional. La culpa indica fallas en un modelado que no incorporó adecuadamente riesgos previsibles.
Pero cuando el modelado predictivo lo hace una máquina, ¿cómo se evalúa si el abogado que confió en ella actuó con culpa?
VI. La solución no es tecnófoba: es arquitectónica
Aclaremos: no estoy proponiendo frenar la innovación. El perfil Team-shaped que describe Marra es inevitable y deseable. Los cinco arquetipos de Susskind representan el futuro inmediato de la profesión. La resistencia al cambio tecnológico en la abogacía argentina no es virtud sino suicidio competitivo lento.
El problema no es la innovación técnica. Es la desactualización normativa.
Marra lo expresa perfectamente con su metáfora del Superman mal pagado: "El problema es que pedimos una persona que construya todo un sistema —una tarea que requiere una expertise senior—, pero a menudo la queremos pagar y tratar como a un junior".
Agregaría: y luego le exigimos que asuma responsabilidad profesional plena bajo regímenes diseñados para otro modelo de trabajo.
La solución requiere tres ajustes urgentes:
1. Protocolos de verificación humana obligatoria
Para outputs generados por IA en ámbitos críticos —contratos, dictámenes, estrategia procesal— debe establecerse deber profesional indelegable de verificación.
No como fetichismo luddita sino como distribución racional del riesgo. El abogado no necesita entender cómo funciona el algoritmo, pero sí debe poder verificar que el output cumple con estándares normativos aplicables.
Analogía: el cirujano no necesita saber cómo funciona el tomógrafo que usó para diagnóstico, pero sí debe interpretar la imagen correctamente antes de operar.
Consecuencia procesal: Si el abogado demuestra que verificó el output con metodología profesionalmente aceptada, la responsabilidad se transfiere proporcionalmente al proveedor de la herramienta defectuosa.
2. Régimen especial de responsabilidad compartida
En equipos multidisciplinares, la responsabilidad debe distribuirse según grado de control efectivo sobre el riesgo materializado.
Esto no es novedad jurídica radical. Es aplicación del principio de causalidad adecuada y proporcionalidad que el Código ya reconoce en el art. 1726 para pluralidad de responsables.
Implementación práctica: Contratos entre estudios jurídicos y proveedores de servicios tecnológicos deben incluir cláusulas explícitas de distribución de responsabilidad, con cobertura de seguros coordinada.
El "abogado eléctrico" no puede ser el único con piel en el juego cuando el sistema cortocircuita.
3. Actualización de pólizas profesionales
Las pólizas de responsabilidad civil profesional actuales no cubren —o cubren ambiguamente— riesgos derivados de uso de sistemas tecnológicos.
Exclusiones típicas actuales: daños causados por "error en sistemas informáticos", "fallo de software de terceros", "resultados de algoritmos de inteligencia artificial".
Resultado: el abogado que adopta tecnología para ser competitivo aumenta su exposición al riesgo sin aumentar su cobertura.
Esto es insostenible. Los colegios profesionales y las aseguradoras deben co-diseñar pólizas que cubran específicamente riesgos del ejercicio híbrido, con primas diferenciadas según nivel de certificación y auditoría de los sistemas usados.
VII. El efecto desestimulante que nadie menciona
Marra cita mi análisis sobre Aghion y los efectos productividad, expulsión, escape y desestimulante. Pero hay uno que merece énfasis adicional en este contexto: el efecto desestimulante aplicado a la adopción tecnológica por estudios pequeños.
Cuando una empresa es menos avanzada, la presión competitiva la desanima porque los márgenes son tan bajos y la distancia con los líderes tan grande que innovar deja de parecer posible.
Aplicado al derecho: si los estudios pequeños perciben que adoptar tecnología los expone a responsabilidad sin límite mientras los grandes pueden distribuir el riesgo en equipos especializados, el incentivo es quedarse quietos.
Resultado perverso: la profesión se bifurca. Los grandes estudios innovan y capturan mercado de alta complejidad. Los pequeños quedan atrapados en commoditización de servicios básicos. La clase media profesional —estudios de 3 a 15 abogados— desaparece.
Esto no es especulación. Es el patrón documentado en sectores profesionales que atravesaron transformación tecnológica sin actualizar marcos regulatorios. Contabilidad en los '90. Arquitectura en los 2000s. Traducción en los 2010s.
Si no queremos que los despachos pequeños se queden fuera del juego, la primera condición es que innoven. Y para que esto ocurra —como señala Marra— hay que crear un sistema que lo favorezca.
Un sistema donde adoptar tecnología no signifique asumir riesgo ilimitado bajo regímenes diseñados para otra era.
VIII. Confianza artificial, responsabilidad humana: lo que no se automatiza
Marra cierra su artículo con una pregunta abierta: "No sé si la confianza artificial llegará a ser equivalente o más fuerte que la confianza humana. Por el momento, diría que la IA puede 'predecir' cómo te sientes, pero no sentir contigo".
Yo agregaría: y las máquinas no tienen piel en el juego.
Nassim Taleb insiste obsesivamente en este punto: la asimetría epistémica fundamental entre quien recomienda y quien asume las consecuencias. El consultor que sugiere estrategia arriesgada no pierde su patrimonio cuando falla. El cliente sí.
En el modelo Team-shaped, esa asimetría se multiplica. El analista de datos que generó el modelo predictivo defectuoso cobra su honorario y sigue con el siguiente proyecto. El tecnólogo legal que implementó el sistema con sesgo algorítmico limita su responsabilidad contractualmente. El ingeniero de conocimiento que diseñó el árbol de decisión erróneo tiene LLC que protege su patrimonio personal.
¿Quién queda expuesto? El abogado.
Porque el derecho profesional argentino —arts. 1758, 1763 del Código Civil y Comercial; estándares colegiales; jurisprudencia de mala praxis— mantiene un principio inquebrantable: el profesional responde personalmente por su acto profesional.
Ese principio es correcto y debe mantenerse. Pero necesita actualizarse para reconocer que en 2025, el "acto profesional" ya no es acto individual sino proceso colaborativo híbrido.
IX. Propósito, criterio, rendición de cuentas: lo irreemplazable
La pregunta sobre "confianza artificial" que Marra deja abierta tiene respuesta más clara de lo que parece.
Lo que queda de irreemplazable en el abogado no es "marca personal" —eso es estrategia de diferenciación, no fundamento profesional—. Lo irreemplazable es criterio, responsabilidad y rendición de cuentas.
Eso no se automatiza, porque requiere estar dispuesto a asumir consecuencias.
En mi análisis sobre responsabilidad civil y nuevos paradigmas de la mente, mostré cómo el derecho contemporáneo no requiere postular una voluntad monolítica y transparente. Es suficiente identificar los procesos cognitivos distribuidos que generan la capacidad de inhibición, planificación temporal, modelado de consecuencias y respuesta a razones morales y legales.
Pero —y aquí está el límite de la automatización— esos procesos cognitivos deben estar anclados en un agente que pueda ser llamado a cuentas.
Un sistema de IA puede modelar riesgos con sofisticación superior a cualquier abogado individual. Pero no puede comparecer ante un tribunal a explicar por qué ese modelado era razonable dadas las circunstancias. No puede ser sancionado profesionalmente por negligencia. No puede ser demandado personalmente por daños causados.
Esa diferencia no es técnica. Es ontológica.
Y mientras subsista, el abogado —híbrido, eléctrico, Team-shaped— seguirá siendo el nodo crítico donde responsabilidad se materializa.
X. Cierre: encendiendo el sistema sin quemar los fusibles
Marra termina: "Ajusten voltaje, que el futuro legal ya no se mide en horas facturables, sino en energía compartida".
Perfecto. Pero antes de enchufarnos, habría que revisar si los fusibles del sistema están preparados para el amperaje.
Porque en derecho, cuando salta la térmica, el que paga el electricista no es el equipo. Es el abogado que firmó el plano.
La transición del abogado híbrido al eléctrico es inevitable y deseable. Los perfiles Team-shaped representan evolución necesaria para una profesión que debe dejar de vender taladros y empezar a entregar agujeros. Los cinco arquetipos de Susskind capturan las especializaciones emergentes que absorberán funciones tradicionalmente ejecutadas por generalistas.
Pero sin actualización del marco regulatorio profesional, corremos el riesgo de crear "Teslas sin seguro": perfiles ultra-eficientes operando bajo regímenes de responsabilidad diseñados para Ford T.
La profesión puede encenderse. Pero primero necesita fusibles que soporten el voltaje del futuro.
De lo contrario, el brillo de la pantalla terminará siendo solo eso: brillo. Y cuando alguien pregunte dónde quedó la luz, descubriremos tarde que confundimos innovación con iluminación.
Porque ahí, donde hay que decidir sin datos, sin algoritmo y sin red de seguridad, es donde empieza el derecho de verdad.
Referencias:
Anna Marra, "Del híbrido al eléctrico: los nuevos perfiles encienden la abogacía", abogados.com.ar, 2025. Disponible en: https://abogados.com.ar/del-hibrido-al-electrico-los-nuevos-perfiles-encienden-la-abogacia/37862
Ignacio Adrián Lerer, "La Responsabilidad Civil ante los nuevos paradigmas de la mente: del dualismo cartesiano a la era de la Inteligencia Artificial (IA)", abogados.com.ar, 2024. Disponible en: https://abogados.com.ar/la-responsabilidad-civil-ante-los-nuevos-paradigmas-de-la-mente-del-dualismo-cartesiano-a-la-era-de-la-inteligencia-artificial-ia/37617
Ignacio Adrián Lerer, "Quién te ha visto y quién te ve: la profesión legal en la Era de la IA", abogados.com.ar, 2024. Disponible en: https://abogados.com.ar/quien-te-ha-visto-y-quien-te-ve-la-profesion-legal-en-la-era-de-la-ia/37654
Citas
(*) Ignacio Adrián Lerer es abogado (UBA), Executive MBA del IAE Universidad Austral. Escribe sobre tópicos en la intersección entre derecho, tecnología y sistemas complejos.
Opinión
PAGBAM
opinión
ver todosKabas & Martorell
Ojam IP





















































































































