Uruguay
Inteligencia artificial: ¿Y si todo sale mal? Comentarios al proyecto de ley de inteligencia artificial de la Unión Europea
Por Martín Fridman
Ferrere Abogados

Una de mis primeras actividades matinales es chequear las redes sociales. Hace años un algoritmo estudia en forma pormenorizada mi conducta y selecciona las publicaciones de mi interés.

 

Sumergido en las últimas novedades deportivas, noticias del día, actualizaciones legislativas, judiciales, apps milagrosas para hacer ejercicio o clínicas de implante capilar, encontré una crónica que se repitió en varios portales: Sam Altman, el Co fundador de Open AI, creador del CHAT GPT, expresó ante el Senado de Estados Unidos que “Es esencial regular la inteligencia artificial, y que esas normas garanticen que el público acceda a los muchos beneficios de esta tecnología” “Si la inteligencia artificial sale mal, puede salir muy mal.”

 

Tenemos el privilegio de vivir un fenómeno con potencialidad de ser extraordinario para afrontar los complejos desafíos de la humanidad. Ahora, tomando las palabras de Sam Altman, si sale mal, puede salir muy mal.

 

En el Senado de Estados Unidos se está dando un debate con la participación de diferentes operadores, apuntando a reducir el riesgo de que las cosas salgan muy mal. Se valora contar con una agencia reguladora que controle los desarrollos o fije estándares globales. Europa ya cuenta con un proyecto de ley para regular los desarrollos de inteligencia artificial. Nuestra región enfrenta urgencias sociales y económicas impostergables, al igual que diversas partes del mundo, pero me pregunto si no podríamos encontrar un margen de tiempo para enfocarnos en este tema.

 

Estoy convencido que todos los debates son saludables y que existan países que avancen en el análisis es bueno para todos. Sin embargo, no podemos postergar nuestro debate mucho tiempo más, para no dejar a nadie atrás.

 

Si bien es un tema con muchas aristas, me pareció interesante detenerme en hacer algunos comentarios del proyecto de ley en el ámbito de la Unión Europea que hace varios años viene abordando este tema.

 

1. Ley de Inteligencia Artificial de la UE:

 

Es un proyecto del año 2021 cuyos objetivos son:

 

  • Garantizar que los sistemas de Inteligencia Artificial (IA) introducidos y utilizados en el mercado de la Unión Europea sean seguros y respeten los derechos humanos fundamentales.
  • Garantizar la seguridad jurídica para facilitar la inversión y la innovación en IA.
  • Mejorar la gobernanza y aplicación efectiva de la legislación vigente sobre derechos y requisitos de seguridad aplicables a los sistemas de IA.
  • Facilitar el desarrollo de un mercado único para una IA lícita, segura y confiable.

El proyecto se construye sobre la base del riesgo. Hace una ponderación de los derechos que podrían verse involucrados en la ejecución del desarrollo de IA, cuanto más relevante sea el riesgo, más restrictiva es la normativa. La clasificación propuesta distingue entre i) un riesgo inaceptable, ii) un riesgo alto, y iii) un riesgo bajo o mínimo.

 

2. Los riesgos inaceptables:

 

Son usos que violentan derechos fundamentales. Prácticas que tienen potencial para manipular personas con técnicas subliminales que trascienden la consciencia o que aprovechan vulnerabilidades de grupos concretos, como menores o personas con discapacidad.

 

En forma específica prohíbe:

 

  • La introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que se sirva de técnicas subliminales que trasciendan la conciencia de una persona para alterar de manera sustancial su comportamiento de un modo que provoque o sea probable que provoque perjuicios físicos o psicológicos a esa persona o a otra.
  • La introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que aproveche alguna de las vulnerabilidades de un grupo específico de personas debido a su edad o discapacidad física o mental para alterar de manera sustancial el comportamiento de una persona que pertenezca a dicho grupo de un modo que provoque o sea probable que provoque perjuicios físicos o psicológicos a esa persona o a otra.
  • La introducción en el mercado, la puesta en servicio o la utilización de sistemas de IA por parte de las autoridades o en su representación con el fin de evaluar o clasificar la fiabilidad de personas físicas durante un período determinado de tiempo atendiendo a su conducta social o a características personales o de su personalidad conocidas o predichas, de forma que la clasificación social resultante provoque una o varias de las situaciones siguientes:

- Un trato perjudicial o desfavorable hacia determinadas personas físicas o colectivos enteros en contextos sociales que no guarden relación con los contextos donde se generaron o recabaron los datos originalmente;

 

- Un trato perjudicial o desfavorable hacia determinadas personas físicas o colectivos enteros que es injustificado o desproporcionado con respecto a su comportamiento social o la gravedad de este.

 

  • El uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de aplicación de la ley, salvo y en la medida en que dicho uso sea estrictamente necesario para alcanzar uno o varios de los objetivos siguientes:

- La búsqueda selectiva de posibles víctimas concretas de un delito, incluidos menores desaparecidos;

 

- La prevención de una amenaza específica, importante e inminente para la vida o la seguridad física de las personas físicas o de un atentado terrorista;

 

- La detección, la localización, la identificación o el enjuiciamiento de la persona que ha cometido o se sospecha que ha cometido determinados delitos (entre los que se encuentra el terrorismo, explotación sexual, fraude) para el que la normativa en vigor en el Estado miembro implicado imponga una pena o una medida de seguridad privativas de libertad cuya duración máxima sea al menos de tres años, según determine el Derecho de dicho Estado miembro.

 

Cualquier uso concreto de un sistema de identificación biométrica remota «en tiempo real» en un espacio de acceso público con fines de aplicación de la ley estará supeditado a la concesión de una autorización previa por parte de una autoridad judicial o una autoridad administrativa independiente del Estado miembro donde vaya a utilizarse dicho sistema, que la otorgarán previa solicitud motivada y de conformidad con la normativa .

 

3. Los riesgos altos:

 

Están permitidos siempre que cumplan con determinados estándares obligatorios y sean sometidos a una evaluación de conformidad. El alto riesgo lo determina su finalidad y modalidades para las que se utilice.

 

Cuando se evalúe si un sistema de IA conlleva el riesgo de causar un perjuicio a la salud y la seguridad se tendrán en cuenta los siguientes criterios:

 

  • La finalidad prevista del sistema de IA.
  • La medida en que se haya utilizado o sea probable que se utilice un sistema de IA.
  • La medida en que la utilización de un sistema de IA ya haya causado un perjuicio a la salud y la seguridad, haya tenido repercusiones negativas para los derechos fundamentales o haya dado lugar a problemas importantes en relación con la materialización de dicho perjuicio o dichas repercusiones negativas, según demuestren los informes o las alegaciones documentadas que se presenten a las autoridades nacionales competentes.
  • El posible alcance de dicho perjuicio o dichas repercusiones negativas, en particular en lo que respecta a su intensidad y su capacidad para afectar a una gran variedad de personas.
  • La medida en que las personas que podrían sufrir dicho perjuicio o dichas repercusiones negativas dependan de la información de salida generada con un sistema de IA, en particular porque, por motivos prácticos o jurídicos, no sea razonablemente posible renunciar a dicha información.
  • La medida en que las personas que podrían sufrir dicho perjuicio o dichas repercusiones negativas se encuentren en una posición de vulnerabilidad respecto del usuario de un sistema de IA, en particular debido a un desequilibrio en cuanto al poder o los conocimientos que ambos poseen, sus circunstancias económicas o sociales, o su edad.
  • La medida en que sea fácil revertir la información de salida generada con un sistema de IA, habida cuenta de que no se debe considerar que la información de salida que afecta a la salud o la seguridad de las personas es fácil de revertir.
  • La medida en que la legislación vigente en la Unión establezca:

- Las medidas de compensación efectivas en relación con los riesgos que conlleva un sistema de IA, con exclusión de las acciones por daños y perjuicios.

 

- Las medidas efectivas para prevenir o reducir notablemente esos riesgos.

 

Todos los sistemas considerados de alto riesgo deberán contar con:

 

  • Un Sistema de Gestión de Riesgos: Durante toda la vida del del sistema de IA. Se identificarán y analizarán riesgos conocidos y previsibles, tanto para cuando se utilice para su finalidad u otras indebidas y se adoptarán medidas para la gestión de esos riesgos. Serán sometidos a prueba que comprobarán las medidas de gestión de riesgos adecuadas.
  • Datos y gobernanza de datos: Los desarrollos de IA que implican el entrenamiento de modelos de datos deben partir de conjuntos de datos de entrenamiento, validación y prueba que cumplan con determinados estándares de calidad.
  • Documentación técnica: La documentación técnica de un sistema de IA de alto riesgo se preparará antes de su introducción en el mercado o puesta en servicio, y se mantendrá actualizada.
  • Registros: Los sistemas de IA se diseñarán y desarrollarán con capacidades que permitan registrar automáticamente eventos mientras están en funcionamiento. En definitiva, se busca que garanticen un determinado nivel de trazabilidad.  
  • Transparencia y comunicación de información a los usuarios: Se exige que los desarrollos de IA garanticen que funcionan con un nivel de transparencia suficiente para que los usuarios interpreten correctamente su información de salida. Deben acompañarse con sus instrucciones de uso.
  • Vigilancia humana: Los desarrollos de IA deben diseñarse de modo de que puedan ser vigilados de manera efectiva por personas físicas mientras estén en uso, lo que incluye dotarles de una herramienta de interfaz humano-máquina adecuada.
  • Precisión, solidez y ciberseguridad: Deben alcanzar un nivel adecuado de precisión, solidez y ciberseguridad durante todo su ciclo de vida.  

4. Los riesgos básicos o mínimos:

 

No ingresa en ninguna de las clasificaciones anteriores. Sin embargo, la normativa prevé que se fomentará y facilitará la elaboración de códigos de conducta destinados a promover la aplicación voluntaria de los requisitos previstos en el proyecto.

 

5. Obligaciones de transparencia:

 

Se dispone la aplicación de obligaciones de transparencia a los sistemas que i) interactúan con seres humanos, ii) se utilizan para detectar emociones o determinar la asociación de categorías (sociales) concretas a partir de datos biométricos, o iii) generen o manipulen contenido.

 

Por ejemplo, un sistema de IA se utiliza para generar o manipular imágenes, audios o videos que parezcan auténticos, debe ser obligatorio informar a los usuarios.

 

6. Medidas para la innovación:

 

Anima a las autoridades nacionales a crear espacios controlados de pruebas que generan un entorno controlado para probar, durante un tiempo limitado, tecnologías innovadoras sobre la base de un plan de pruebas acordado con las autoridades competentes. También contiene medidas encaminadas a reducir la carga normativa que deben soportar las pymes y las empresas emergentes.

 

7. Comentarios finales:

 

Contamos con una herramienta con potencial para ser lo mejor que nos pasó. Tenemos que ver la forma de proteger la herramienta de nosotros mismos.

 

Para quienes tuvieron la oportunidad de ver las películas de “Terminator” creo que estamos lejos del “Hasta la vista, Baby”, de todas formas, es un debate que no podemos postergar.

 

 

Opinión

El nuevo art. 245 bis de la LCT y la reedición de viejos errores del pasado
Por Lucas J. Battiston
PASBBA
detrás del traje
Diego Palacio
De PALACIO & ASOCIADOS
Nos apoyan