Introducción
La inteligencia artificial (IA) está transformando todos los ámbitos de nuestra sociedad, desde la salud y la educación hasta la justicia y la economía. En particular, la IA generativa, que puede crear textos, imágenes, música y muchas otras formas de contenido, ha abierto nuevas posibilidades pero también ha generado enormes desafíos éticos y sociales.
Frente a estos desafíos, los gobiernos, organismos internacionales, instituciones académicas y empresas tecnológicas han desarrollado una serie de directrices éticas que pretenden orientar el desarrollo y uso responsable de la IA. Sin embargo, surge una pregunta crucial: ¿qué valor normativo tienen estas directrices? ¿Son simplemente recomendaciones, o realmente constituyen un marco de obligaciones éticas y legales que deben ser respetadas y promovidas?
Esta ponencia busca analizar el valor normativo de las directrices éticas, con foco en los principales marcos internacionales, en especial las directrices del Reglamento Europeo de IA (2019) y los principios promovidos por la OCDE, en un contexto de gobernanza global de la IA generativa.
La naturaleza de las directrices éticas: ¿normas, recomendaciones o principios?
- Es fundamental entender qué son exactamente estas directrices. Generalmente, las directrices éticas en IA funcionan en la categoría de principios rectores o normas de comportamiento. Su carácter legal, en muchos casos, es flexible, pero eso no implica que carezcan de peso o valor normativo.
- Son obligatorias o voluntarias?
En el caso del Reglamento Europeo de IA (2019), las directrices se enmarcan como obligaciones no vinculantes (soft law), aunque con fuerte impacto en la futura legislación y en la regulación sectorial.
La OCDE y otros marcos internacionales emiten recomendaciones y principios que, si bien no son de cumplimiento obligatorio, ejercen un poder normativo mediante la influencia en políticas públicas, estándares técnicos y buenas prácticas.
Este carácter dual —de recomendaciones que pueden convertirse en obligaciones— refuerza el valor normativo de estas directrices, ya sea como marco de referencia ético-legal o como compromiso político internacional.
Valor normativo: una cuestión de legitimidad y obligatoriedad
Lo que diferencia a las directrices éticas de las simples buenas intenciones es su capacidad de influir en el diseño, desarrollo y regulación de la IA. Estas directrices adquieren un valor normativo cuando:
Son adoptadas formalmente por gobiernos o instituciones internacionales.
Se convierten en referencia obligatoria en licitaciones, contratos o proyectos.
Existen mecanismos de supervisión y sanción por incumplimiento.
Por tanto, su valor normativo radica en su capacidad de establecer deberes y obligaciones en los actores que desarrollan y despliegan IA.
El valor normativo de las directrices éticas en los principales marcos internacionales:
1. El Reglamento Europeo de IA (2019)
El Considerando 27 del RIA, aunque no es una norma vinculante en sí misma, establece un** marco ético** que busca que los sistemas de IA sean responsables, transparentes y alineados con derechos fundamentales. La Comisión Europea ya ha avanzado en propuestas de regulación que hacen obligatorio el cumplimiento de ciertos principios, como la explicabilidad, la transparencia y el control humano.
Este marco refleja un valor normativo que, en el futuro, puede convertirse en obligaciones legales obligatorias para todos los desarrolladores y usuarios en la Unión Europea, consolidando la ética en la ley.
2. La OCDE y su Marco de Principios sobre la IA (2019)
La OCDE establece cuatro principios fundamentales:
- Inclusión y equidad
- Transparencia y explicabilidad
- Seguridad y protección contra riesgos
- Responsabilidad
Estos principios, aunque inicialmente voluntarios, se han adoptado como referencia por más de 50 países y por organizaciones internacionales. La OCDE ha trabajado activamente para que estos principios se implementen en marcos regulatorios nacionales, de manera que su influencia transforma estos principios en obligaciones de facto.
3. Otros estándares internacionales:
Directrices de la Comisión Europea para la IA Confiable (2020): Estas directrices refuerzan la naturaleza normativa de los principios éticos mediante requisitos específicos que las organizaciones deben cumplir, como la gobernanza de los datos, la evaluación de riesgos y la supervisión humana. La adopción de estas directrices en el sector privado y público otorga un fuerte valor normativo que puede traducirse en regulaciones vinculantes en el futuro cercanoLa Declaración de la UNESCO sobre la Ética de la IA (2021):
Un marco normativo global
Contexto y objetivos
La UNESCO, como organismo de las Naciones Unidas dedicado a la ciencia y la cultura, reconoce que la inteligencia artificial tiene un potencial transformador, pero también plantea riesgos significativos si no se regula de manera adecuada. La Declaración busca promover una gobernanza ética de la IA que sea universal, inclusiva y respetuosa de los derechos humanos, fortaleciendo la cooperación internacional.
La Declaración establece temas clave y principios que deben guiar el desarrollo y la implementación de la IA, entre ellos:
-Beneficencia y no maleficencia: La IA debe promover el bienestar, reducir riesgos y evitar daños.
-Justicia y equidad: Asegurar que los beneficios de la IA se distribuyan de manera equitativa, evitando sesgos discriminatorios.
-Respeto por la dignidad y los derechos humanos: La IA debe respetar derechos fundamentales, incluyendo la privacidad, la libertad y la igualdad.
-Responsabilidad y rendición de cuentas: Los desarrolladores, usuarios y responsables deben rendir cuentas por los efectos y decisiones de la IA.
-Transparencia y explicabilidad: La tecnología debe ser comprensible y explicable para todos los actores involucrados.
Inclusión y participación: Implicar a todos los sectores de la sociedad en la formulación de políticas sobre IA para garantizar que se reflejen diversas voces y necesidades.
-Valor normativo y su relación con otros marcos
-La principal contribución de la Declaración de la UNESCO es su carácter universal y moral, ya que establece principios éticos que deben guiar la acción de todos los países. Esto aporta un valor normativo global, que, aunque no tiene fuerza jurídica vinculante, establece un pacto ético internacional.
En relación con la OCDE y el Reglamento Europeo, la Declaración complementa y refuerza estos marcos:
-Similitudes: Todos enfatizan la importancia de la transparencia, responsabilidad, equidad y el respeto a los derechos humanos.
-Diferencias: La Declaración incluye aspectos culturales, sociales y éticos más amplios, promoviendo el necesario diálogo intercultural y participación ciudadana en la gobernanza de la IA.
Un ejemplo relevante es la referencia que hacen algunas políticas nacionales y organizaciones internacionales a la Declaración como marco ético de referencia para diseñar regulaciones nacionales que sean coherentes con los principios internacionales. Por ejemplo, países como Canadá, Francia y Argentina han mencionado que alinearán sus políticas con los principios de la Declaración de la UNESCO en sus marcos regulatorios.
La Declaración sobre la Ética de la IA de la UNESCO (2021) cumple una función crucial en el escenario global, puesto que:
Establece valores universales que orientan el desarrollo de la IA hacia el bien común.
Potencia la cooperación internacional y la armonización de principios éticos en distintos marcos regulatorios.
Refuerza el valor normativo de las directrices éticas, aún cuando no sea jurídicamente vinculante, en tanto que fomenta una responsabilidad compartida de todos los actores sociales, políticos, académicos y económicos.
Para futuros profesionales del derecho, la tecnología y la gobernanza, entender y promover estos principios ayudará a construir una regulación ética y efectiva, que garantice que la IA sirva a los valores humanos y sociales, en línea con los desafíos y oportunidades de la era digital.
Principios de la AAAS (2019): La American Association for the Advancement of Science promovió principios relacionados con la beneficencia, justicia, autonomía y responsabilidad, orientados a fortalecer la confianza pública en la IA. Aunque de carácter moral, estos principios se convierten en un referente necesario para el diseño de políticas públicas y normativas nacionales.
La fuerza del valor normativo: de recomendaciones a obligaciones
La transición de la ética recomendada a la normativa obligatoria es una tendencia clara en la gobernanza internacional de la IA. Como abogados, académicos y responsables en innovación, debemos comprender las implicancias de este proceso:
legitimidad y confianza: Las directrices éticas se tornan obligatorias en la medida en que son aceptadas, monetizadas en políticas públicas y adoptadas por actores económicos y sociales.
Mecanismos de cumplimiento: La existencia de auditorías, certificaciones y supervisión pública refuerzan su carácter vinculante.
Innovación responsable: La incorporación temprana de los principios en el diseño del sistema de IA favorece la innovación sostenible, fomentando la confianza y promoviendo la aceptación social.
Ejemplo de éxito: La regulación del sector financiero en la UE, que obliga la transparencia en algoritmos de crédito y mecanismos de responsabilidad, muestra cómo los principios éticos pueden formalizarse en un marco legal efectivo que fomenta la innovación segura.
La IA generativa, por sus características de autonomía y creatividad, plantea desafíos éticos y jurídicos específicos, como la responsabilidad por contenido generado, derechos de autor, sesgos en datos, y riesgos de desinformación.
Para establecer los límites ético-legales en la creación y uso de contenido generado automáticamente.
Para definir responsabilidades claras en casos de daños o uso indebido.
Para promover prácticas que aseguren transparencia y explicabilidad en estos sistemas.
El éxito en la gobernanza de la IA generativa dependerá, en buena medida, de cómo las directrices éticas se conviertan en principios obligatorios y sean operacionalizadas en regulaciones y estándares técnicos.
A pesar de los avances, existen desafíos importantes para consolidar el valor normativo de las directrices éticas:
-Globalización: La multiplicidad de marcos reguladores puede generar incoherencias, por lo que la cooperación internacional es clave.
-Tecnologías emergentes: La rápida innovación en IA requiere que las directrices sean revisadas periódicamente y adaptadas a nuevas realidades.
-Cuestiones de cumplimiento: Es necesario fortalecer los mecanismos de supervisión, auditoría y sanción para dar peso legal a estas directrices.
Es fundamental que académicos, legisladores y actores tecnológicos trabajen conjuntamente para convertir estos principios en un verdadero estándar de regulación y control que asegure el desarrollo responsable de la IA.
Conclusión
Las directrices éticas en IA, en particular aquellas promovidas por el Reglamento Europeo y la OCDE, poseen un enorme valor normativo. No solo actúan como principios rectores, sino que gradualmente están configurando un marco legal y regulatorio que obliga a los actores a actuar de manera responsable.
En la era de la IA generativa, donde la innovación avanza a pasos agigantados, el valor normativo de estas directrices proporciona una base sólida para garantizar que la tecnología sirva al bien común, respetando los derechos humanos y promoviendo una sociedad más inclusiva, segura y justa.
Para los jóvenes abogados, tecnólogos y académicos, comprender y promover la vigencia y estricta aplicación de estos principios no solo es un deber ético, sino la clave para construir un futuro en el que la IA genere valor real y sostenible.
Artículo publicado en Blog Odisea www.odisea.org
REFERENCIAS, Bibliografia.
Reglamento (UE) 2019, RIA (Reglamento de IA)
OCDE, Principios sobre IA (2019)
Comisión Europea, Directrices para la IA confiable (2020)
UNESCO, Declaración sobre la Ética de la IA (2021)
Citas
(*) Abogada. Poder judicial. Investigadora.
Opinión
Kabas & Martorell


opinión
ver todosBrons & Salas