Introducción: Cuando la Realidad Supera a las Políticas Corporativas
En enero de 2025, los investigadores del MIT publicaron un informe que desnuda una paradoja contemporánea¹. El 90% de los trabajadores utiliza herramientas personales de inteligencia artificial para tareas laborales. Apenas el 40% de las empresas mantiene suscripciones oficiales a estos sistemas. La brecha es demoledora.
Esta disparidad revela lo que podríamos denominar una "economía de IA blue"² —término que evoca inmediatamente, para cualquier argentino, la dinámica del dólar paralelo que surge cuando el acceso oficial resulta restrictivo o inadecuado. Los empleados recurren a un mercado paralelo de herramientas porque la oferta corporativa oficial no satisface sus necesidades reales. Vaya uno a saber por qué las organizaciones se sorprenden de este resultado.
¿Cómo explicar semejante disparidad? Los trabajadores utilizan cuentas personales de ChatGPT, Claude, Copilot y otras plataformas para automatizar significativamente sus labores. Lo hacen frecuentemente sin conocimiento ni autorización de los departamentos de tecnología o legales. Mientras tanto, las costosas iniciativas corporativas de IA fallan en un 95% de los casos en generar retorno mensurable sobre inversiones de 30-40 mil millones de dólares³.
La ironía resulta demoledora. Las empresas invierten fortunas en sistemas que nadie usa, mientras sus empleados obtienen resultados superiores con herramientas gratuitas o de bajo costo. Tal es la paradoja de nuestro tiempo.
El Marco Constitucional: Art. 19 CN como Fundamento y Límite
La Protección de las Acciones Privadas Digitales
En 1853, los constituyentes argentinos redactaron un principio que parecía diseñado para otro mundo. Hoy, sin embargo, demuestra una vigencia inesperada. El uso voluntario de herramientas personales de IA encuentra protección directa en el artículo 19 de la Constitución Nacional: "las acciones privadas de los hombres que de ningún modo ofendan al orden y a la moral pública, ni perjudiquen a un tercero, están sólo reservadas a Dios y exentas de la autoridad de los magistrados"⁴.
Este principio fundamental proporciona un framework jurídico de notable actualidad para abordar los dilemas de la gobernanza algorítmica⁵. El empleado que utiliza recursos propios —suscripciones personales, tiempo de aprendizaje, esfuerzo intelectual para dominar nuevas interfaces— está ejerciendo una acción privada en el sentido constitucional más estricto.
Supongamos que un abogado joven descubre que ChatGPT le permite redactar contratos con mayor precisión y velocidad que su método tradicional. ¿Sobre qué fundamento podría prohibírsele el Estado —o incluso su empleador— utilizar esta herramienta? La respuesta constitucional es clara: ninguno, mientras no perjudique a terceros. Asunto resuelto.
La jurisprudencia de la Corte Suprema ha desarrollado un estándar de escrutinio estricto para evaluar restricciones a derechos fundamentales⁶. Requiere: un interés estatal urgente, que la medida constituya el medio menos restrictivo disponible, y proporcionalidad estricta entre el beneficio buscado y la restricción impuesta. La IA blue documenta mejoras de productividad del 10-40% sin evidencia de daños sistemáticos⁷. Difícilmente justificaría restricciones que superen este test constitucional.
Ya lo vemos: la realidad tecnológica evoluciona más rápido que los marcos regulatorios diseñados para contenerla.
Los Límites del Deber de Seguridad Laboral
¿Puede invocarse el artículo 75 de la Ley de Contrato de Trabajo para restringir el uso de IA personal? La tentación resulta comprensible desde la perspectiva del control empresarial. Esta norma, reformada en 2016, establece la obligación del empleador de "adoptar las medidas que según el tipo de trabajo, la experiencia y la técnica sean necesarias para tutelar la integridad psicofísica y la dignidad de los trabajadores"⁸.
Consideremos, en cambio, el escenario más favorable: un profesional que utiliza IA para automatizar rutinas mecánicas y redirige ese tiempo liberado hacia tareas de mayor valor agregado, análisis estratégico que requiere criterio humano, o atención personalizada a clientes. ¿Constituye esto un riesgo para su "integridad psicofísica"? La pregunta revela lo absurdo de la extensión.
Extender este deber a herramientas digitales voluntarias constituye una sobre-interpretación que ignora tanto el contexto histórico de la norma —diseñada para riesgos físicos concretos como maquinaria defectuosa, ambientes tóxicos, condiciones insalubres— como los principios constitucionales de autonomía individual. El empleador no puede invocar el deber de seguridad para prohibir que un trabajador utilice voluntariamente herramientas que mejoran su productividad sin generar riesgos demostrables.
Esa es la frontera infranqueable.
La Tensión Real: Información Personal vs. Corporativa
El Punto de Inflexión Jurídico
¿Dónde termina la libertad individual y comienza la protección empresarial? El verdadero desafío legal de la IA blue no reside en su uso per se, sino en el tratamiento de información empresarial confidencial. Cuando un empleado ingresa datos corporativos sensibles en plataformas externas como ChatGPT o Claude, surge una tensión legítima entre la libertad individual y la protección de activos informacionales empresariales.
Esta distinción adquiere importancia crucial cuando consideramos casos específicos. Un contador que utiliza IA para optimizar su comprensión de nuevas normas contables opera dentro del ámbito protegido constitucionalmente. Ese mismo contador que ingresa los estados financieros confidenciales de su empresa en una plataforma externa para generar análisis automatizados cruza una línea jurídicamente significativa.
La diferencia no radica en la herramienta utilizada, sino en el tipo de información procesada.
La clasificación resulta, entonces, jurídicamente crucial. Constitucionalmente protegido se encuentra el uso de IA con información pública, la mejora de habilidades y métodos personales, y la optimización de procesos con datos no confidenciales. Un abogado que utiliza IA para mejorar su redacción legal, un ingeniero que la emplea para actualizar sus conocimientos técnicos, o un analista que la aprovecha para comprender mejor las tendencias del mercado están ejerciendo acciones privadas legítimas.
Legítimamente restrictible resulta, en cambio, el procesamiento de información empresarial confidencial, la transferencia de secretos comerciales a terceros, y la violación de obligaciones contractuales de confidencialidad. Cuando el uso de IA compromete información que constituye ventaja competitiva o valor económico para la empresa, surge el "perjuicio a un tercero" que justifica la restricción bajo el artículo 19 CN.
El Fundamento de la Restricción Legítima
Las empresas pueden restringir el uso de IA blue cuando involucre información corporativa sensible sin violar el artículo 19 CN. Existe "perjuicio a un tercero" en el sentido constitucional más estricto. Esta no es una interpretación forzada sino una aplicación natural del test constitucional.
Los fundamentos jurídicos aplicables revelan la solidez de esta posición. Los secretos comerciales, protegidos por el artículo 1767 del Código Civil y Comercial⁹, establecen que la información confidencial que proporciona ventaja competitiva merece protección legal. La competencia desleal, regulada por la Ley 22.802¹⁰, sanciona específicamente la apropiación de información empresarial valiosa. Las obligaciones contractuales de confidencialidad crean vínculos jurídicos exigibles entre empleado y empleador respecto del manejo de información sensible.
¿Cuál es el riesgo concreto que justifica estas restricciones? La información empresarial confidencial puede ser utilizada para entrenar modelos de terceros, generando difusión no autorizada de activos informacionales valiosos. Cuando un empleado ingresa datos de clientes, estrategias comerciales, o procesos técnicos proprietarios en plataformas como ChatGPT, esa información potencialmente se incorpora a los datos de entrenamiento del modelo. La empresa pierde control sobre información que le costó tiempo, dinero y esfuerzo desarrollar.
El daño resulta específico y mensurable.
La Realidad del Compliance Sectorial y Corporativo
Restricciones Normativas Preexistentes
La teoría constitucional encuentra, sin embargo, la resistencia de realidades sectoriales complejas. Numerosas organizaciones, particularmente aquellas sujetas a marcos regulatorios específicos, ya cuentan con corpus normativos internos que restringen o prohíben categóricamente el uso de sistemas de IA externos para tareas empresariales.
Estas restricciones no surgieron de la nada. Responden a décadas de evolución regulatoria en sectores donde el control de información resulta crítico para la operación segura y legal.
Los sectores altamente regulados presentan el escenario más restrictivo. Las entidades financieras, supervisadas por la CNV y el BCRA¹¹, operan bajo marcos normativos que exigen trazabilidad completa de procesos decisorios y control estricto sobre herramientas tecnológicas. Un banco que permita a sus empleados utilizar IA externa para analizar perfiles crediticios podría enfrentar sanciones regulatorias por falta de control sobre sus procesos críticos.
Las empresas farmacéuticas, bajo supervisión de ANMAT, manejan información de ensayos clínicos y fórmulas que constituyen secretos comerciales de valor millonario. Las organizaciones de salud procesan información de pacientes protegida por secreto médico y normativas específicas de confidencialidad. Las corporaciones que manejan información clasificada o estratégica —desde defensa hasta energía— operan bajo protocolos de seguridad que prohíben expresamente la utilización de herramientas externas no auditadas.
Las empresas con certificaciones internacionales enfrentan restricciones igualmente severas. Organizaciones con estándares ISO 27001 han implementado sistemas de gestión de seguridad de información que requieren control granular sobre todas las herramientas tecnológicas utilizadas por empleados. El SOX compliance, aplicable a empresas que cotizan en mercados estadounidenses, exige trazabilidad completa de procesos financieros, incompatible con el uso de IA externa para tareas relacionadas con reportes contables.
La Legitimidad Constitucional de estas Restricciones
¿Cómo conciliar estas restricciones sectoriales con la protección constitucional del artículo 19? La respuesta radica en comprender que no todas las prohibiciones corporativas violan la libertad individual cuando se fundamentan en bases jurídicas sólidas.
La protección de información confidencial constituye el fundamento más robusto para restricciones legítimas. Cuando las políticas corporativas protegen secretos comerciales, datos de clientes, o información estratégica, encuentran justificación clara en el "perjuicio a terceros" del test constitucional. Un empleado de un laboratorio farmacéutico no puede invocar libertad individual para procesar fórmulas patentadas en IA externa. Tal acción comprometería activos empresariales específicos y mensurables.
El cumplimiento regulatorio sectorial proporciona justificación adicional cuando la normativa específica —bancaria, de salud, de seguros— exige controles expresos sobre herramientas tecnológicas. Las empresas no eligen arbitrariamente estas restricciones: responden a obligaciones legales imperativas. Un banco que permita el uso irrestricto de IA externa para procesos crediticios no solo arriesga sanciones regulatorias sino que puede comprometer la seguridad del sistema financiero.
Las obligaciones contractuales preexistentes completan el marco de restricciones legítimas. Acuerdos de confidencialidad con clientes, proveedores o socios comerciales crean vínculos jurídicos que pueden legítimamente restringir el uso de herramientas externas para procesar información compartida.
El Desafío del Equilibrio Práctico
Sin embargo, estas organizaciones enfrentan la misma presión evolutiva documentada por el MIT. Empleados que conocen herramientas superiores buscarán maneras de utilizarlas, independientemente de las restricciones formales. La realidad tecnológica opera por selección natural: las herramientas mejores se imponen sobre las inferiores, sin consideración por organigramas o políticas corporativas.
El desafío consiste en canalizar la innovación sin comprometer el cumplimiento regulatorio. Esto requiere desarrollar marcos que permitan aprovechar beneficios documentados de IA —mejoras de productividad del 10-40%— mientras mantienen controles necesarios para proteger información sensible y cumplir obligaciones regulatorias.
Algunas organizaciones pioneras están implementando "sandboxes" internos donde empleados pueden experimentar con IA utilizando únicamente datos no confidenciales. Otras desarrollan herramientas internas que replican funcionalidades de IA externa bajo control corporativo completo.
La diferenciación de riesgos constituye el elemento crítico para equilibrios exitosos. No todos los usos de IA presentan el mismo nivel de riesgo regulatorio o informacional. Utilizar IA para redacción general, investigación de información pública, o mejora de habilidades personales presenta riesgos mínimos. Procesarla con información confidencial de clientes, datos financieros sensibles, o secretos comerciales exige controles específicos.
La actualización regulatoria interna representa el desafío más complejo. Marcos de compliance diseñados en la era pre-IA pueden requerir adaptación para mantener efectividad sin sofocar innovación legítima. Esto demanda revisión cuidadosa de políticas existentes, distinguiendo entre restricciones genuinamente necesarias para cumplimiento regulatorio y aquellas que podrían flexibilizarse mediante controles alternativos.
El Vacío Regulatorio y sus Implicancias
La Insuficiencia del Marco de Protección de Datos
La Ley 25.326 de Protección de Datos Personales¹², con más de dos décadas de vigencia, presenta limitaciones evidentes para abordar la IA blue. Su enfoque se centra en datos personales de individuos, no en información corporativa o secretos comerciales procesados mediante herramientas de IA.
La Agencia de Acceso a la Información Pública reconoció parcialmente esta problemática mediante la Resolución 161/2023¹³. Crea un programa de análisis sobre IA y protección de datos. Sin embargo, esta iniciativa carece de operatividad concreta y no establece protocolos específicos para el uso empresarial de herramientas de IA. Otra vez, la burocracia llega tarde a la revolución.
La Evolución Regulatoria Necesaria
La regulación exitosa de la IA debe adoptar un modelo de "supervisión flexible" que acompañe la evolución tecnológica en lugar de resistirla. Siguiendo los principios del artículo 19 CN, esto implica neutralidad tecnológica —regular outputs en lugar de procesos internos—, proporcionalidad —restricciones limitadas a riesgos concretos y demostrables—, y subsidiaridad —preferencia por autorregulación cuando no existe daño a terceros.
Este enfoque reconoce una realidad fundamental: la tecnología superior se impone por selección natural. Los marcos regulatorios que ignoran esta dinámica evolutiva están condenados al fracaso, como demuestra la experiencia regulatoria argentina en otros sectores.
Recomendaciones Prácticas para la Gestión Jurídica
Para el Asesoramiento Corporativo
Las organizaciones requieren políticas que reconozcan la inevitabilidad de la IA blue mientras protegen activos informacionales críticos. La prohibición absoluta resulta tanto inconstitucional como prácticamente ineficaz.
Las políticas de uso diferenciado deben establecer protocolos claros que distingan entre uso permitido —información pública y personal— y restringido —información confidencial y propietaria. Un contador puede utilizar IA para comprender nuevas normativas contables. No puede procesar estados financieros confidenciales de su empresa en plataformas externas. La distinción es nítida y operativamente manejable.
La capacitación en gestión de información debe implementar programas específicos sobre clasificación de información y riesgos de transferencia no autorizada. Enfocados en casos concretos más que en prohibiciones generales. Los empleados comprenden mejor las restricciones cuando entienden las razones específicas que las justifican.
La contractualización específica requiere incluir cláusulas expresas sobre manejo de información confidencial mediante herramientas de IA. Estableciendo responsabilidades claras sin prohibir el uso general de estas tecnologías. Los contratos laborales deben evolucionar para abordar realidades tecnológicas contemporáneas.
Para organizaciones con restricciones preexistentes, la adaptación de marcos de compliance exige evaluar qué prohibiciones son genuinamente necesarias para cumplimiento regulatorio y cuáles podrían flexibilizarse mediante controles alternativos. No toda restricción heredada del pasado conserva relevancia en el presente tecnológico.
Para la Práctica Profesional
El asesoramiento jurídico debe evolucionar hacia un enfoque de gestión de riesgos reales más que cumplimiento normativo formal. Esto requiere desarrollar nuevas competencias y marcos conceptuales.
La identificación de riesgos concretos demanda distinguir entre riesgos especulativos —que no justifican restricciones constitucionales— y amenazas específicas a activos empresariales identificables. No toda preocupación sobre IA constituye un riesgo legal relevante. La precisión en el diagnóstico determina la calidad del asesoramiento.
La documentación proporcionada debe centrar esfuerzos en medidas preventivas de daños concretos, no en control exhaustivo de herramientas tecnológicas. Los programas de compliance robustos incluyen identificación sistemática de potenciales daños, implementación de salvaguardas proporcionadas, y mecanismos de monitoreo y respuesta. No requieren documentación exhaustiva de cada decisión tecnológica.
El asesoramiento preventivo requiere desarrollar protocolos que canalicen el uso de IA hacia prácticas beneficiosas mientras mitigan riesgos específicos. Esto implica colaboración estrecha entre áreas legales, tecnológicas y operativas para diseñar marcos que sean simultáneamente protectivos y habilitantes.
Conclusiones: El Derecho ante la Selección Natural Tecnológica
La IA blue ilustra un principio fundamental de evolución tecnológica: las herramientas superiores se imponen independientemente de restricciones formales. Los empleados adoptan masivamente estas tecnologías porque resuelven problemas reales de manera más eficaz que las alternativas corporativas. Esta no es una tendencia pasajera sino una transformación estructural del trabajo profesional.
El marco constitucional argentino, correctamente interpretado, protege esta evolución natural mientras mantiene la capacidad de abordar riesgos concretos. El artículo 19 de la Constitución Nacional proporciona un equilibrio superior entre innovación y protección de intereses legítimos. Evita tanto la sobre-regulación que sofoca el progreso como la desprotección de activos empresariales valiosos.
La profesión jurídica debe adaptar sus enfoques desde una lógica de control preventivo hacia una de acompañamiento inteligente de procesos tecnológicos inevitables. Esto no implica desregulación sino regulación inteligente. Distinguir entre innovación beneficiosa protegible constitucionalmente y riesgos específicos que ameritan medidas proporcionadas.
La paradoja de nuestro tiempo consiste en que las herramientas más poderosas emergen desde los usuarios, no desde las estructuras institucionales diseñadas para controlarlas. El derecho debe reconocer esta realidad y adaptarse a ella. De lo contrario, arriesga la irrelevancia.
El futuro competitivo pertenece a organizaciones y jurisdicciones que comprendan esta distinción fundamental. Aprovechando las ventajas de la IA blue mientras protegen activos informacionales críticos mediante marcos jurídicos evolutivos y tecnológicamente neutros.
Ya lo vemos: la realidad se impone, como siempre.
Citas
(*) Abogado (UBA), Master Ejecutivo en Dirección de Empresas (IAE - Universidad Austral), fundador de IntegridAI y próximo autor del libro "El Derecho como Sistema Evolutivo ante la Inteligencia Artificial".
¹ MIT NANDA, Aditya Challapally, Chris Pease, Ramesh Raskar, Pradyumna Chari, "State of AI in Business 2025", enero-junio 2025.
² En Argentina, el término "blue" hace referencia a mercados paralelos que surgen cuando el acceso oficial a un bien o servicio es restrictivo o inadecuado. El "dólar blue" es el tipo de cambio paralelo que emerge cuando las restricciones cambiarias oficiales limitan el acceso al dólar en el mercado formal. La analogía con "IA blue" refleja cómo empleados recurren a herramientas personales de IA cuando las opciones corporativas oficiales son insuficientes.
³ MIT NANDA, op. cit., Sección 3.3.
⁴ Constitución Nacional Argentina, art. 19.
⁵ Ver nuestro análisis en "El art. 19 de la Constitución Nacional como marco jurídico para la Inteligencia Artificial: Un principio decimonónico ante los desafíos del Siglo XXI", disponible en: https://abogados.com.ar/el-art-19-de-la-constitucion-nacional-como-marco-juridico-para-la-inteligencia-artificial-un-principio-decimononico-ante-los-desafios-del-siglo-xxi/37263
⁶ CSJN, "Portal de Belén c/ Ministerio de Salud s/ amparo", Fallos 325:292 (2002); "Asociación Lucha por la Identidad Travesti Transexual c/ Inspección General de Justicia", Fallos 329:5266 (2006).
⁷ MIT NANDA, op. cit., Sección 4.1.
⁸ Ley 20.744 (t.o. 1976), art. 75, según modificación de la Ley 27.323 (2016).
⁹ Código Civil y Comercial de la Nación, Ley 26.994, art. 1767.
¹⁰ Ley 22.802 de Lealtad Comercial.
¹¹ Comisión Nacional de Valores (CNV) y Banco Central de la República Argentina (BCRA).
¹² Ley 25.326 de Protección de los Datos Personales (2000).
¹³ Resolución AAIP 161/2023, "Programa de transparencia y protección de datos personales en el uso de la Inteligencia Artificial", B.O. 4/09/2023.
Opinión
elDial.com


opinión
ver todosBalbuena Nürnberg Lawyers