Chile
Ingresa a la Cámara de Diputados proyecto de ley que regula los Sistemas de Inteligencia Artificial

El martes 07 de mayo de 2024, el Presidente de la República envió a la Cámara de Diputadas y Diputados un proyecto de ley (el “proyecto”) relativo a la regulación de los sistemas de Inteligencia Artificial (“IA”), siendo resultado del trabajo efectuado sobre el antiguo proyecto, la Política Nacional de IA, la experiencia comparada y diversas recomendaciones internacionales relativas a la ética de la IA.

 

En concreto, el proyecto tiene por objeto el promover la creación, desarrollo, innovación e implementación de sistemas de IA que estén al servicio de las personas, y que resguarden los principios democráticos, el Estado de Derecho y los derechos fundamentales de las personas.

 

A continuación, se mencionan los principales puntos que contempla el proyecto:

 

Ámbito de aplicación

 

El proyecto se aplicará, por un lado, a proveedores e implementadores de sistemas de IA, tanto domiciliados en territorio nacional como aquellos extranjeros, pero cuya información de salida se utilice en Chile; y, por otro lado, a importadores y distribuidores de sistemas de IA, junto a sus representantes.

 

En la misma línea, se excluyen del ámbito de aplicación los sistemas de IA con fines de defensa nacional; así como la investigación, prueba y desarrollo de sistemas de IA previos a su introducción en el mercado; y los componentes de IA proporcionados a propósito de licencias libres y de código abierto.

 

Principios aplicables a los sistemas de IA

 

El proyecto contempla diversos principios que deberán observar los operadores sujetos a sus disposiciones en cuanto al desarrollo y utilización de sistemas de IA, dentro de los cuales, es posible mencionar:

 

  • Principio de intervención y supervisión humana: se condiciona el desarrollo y utilización de sistemas de IA como herramientas al servicio de las personas, respetando su dignidad y autonomía personal.
  • Principio de privacidad y gobernanza de datos: los sistemas de IA se desarrollarán y utilizarán de acuerdo con la normativa vigente en materia de privacidad y protección de datos, procurando, además, que los datos que se utilicen sean interoperables.
  • Principio de transparencia y explicabilidad: se deberá facilitar una trazabilidad y explicabilidad, de modo tal que las personas conozcan y sean conscientes de que se comunican con un sistema de IA.
  • Principio de diversidad, no discriminación y equidad: los sistemas de IA deberán desarrollarse y utilizarse promoviendo la igualdad de acceso, de género y diversidad cultural, evitando efectos discriminatorios y sesgos de selección que puedan generarlos.
  • Principio de protección de los derechos de los consumidores: los sistemas de IA deberán asegurar un trato justo, entrega de información veraz, oportuna y transparente, y resguardar la libertad de elección y seguridad en el consumo.

Clasificación de los sistemas de IA

 

En concordancia con la normativa europea, el proyecto regula los sistemas de IA a partir de su nivel de riesgo, clasificándolos de la siguiente forma:

 

1.- Sistemas de IA de riesgo inaceptable

 

En primer término, los sistemas de IA de riesgo inaceptable son aquellos incompatibles con el respeto y garantía de los derechos fundamentales de las personas, de modo que su introducción en el mercado se encuentra prohibida.

 

A modo ejemplar, serían sistemas de riesgo inaceptable los de manipulación subliminal, que inducen a acciones que causan daños a la salud física y/o mental de las personas; o los de calificación social genérica, que clasifican a las personas en función de su comportamiento, nivel socioeconómico o características personales, derivando de ello un trato perjudicial o discriminatorio.

 

2.- Sistemas de IA de alto riesgo

 

En segundo lugar, los sistemas de alto riesgo son los que pueden afectar negativamente a la salud y seguridad de las personas, sus derechos fundamentales o el medio ambiente, así como los derechos de los consumidores.

 

De este modo, el proyecto somete a los sistemas de IA de alto riesgo a reglas relativas a la i) gestión de riesgos; ii) gobernanza de datos; iii) documentación técnica; iv) sistema de registros; v) transparencia; vi) supervisión humana; y vii) ciberseguridad.

 

En línea con lo anterior, cuando un sistema de IA de alto riesgo no se ajuste a dichas reglas, el operador respectivo deberá adoptar inmediatamente las medidas necesarias para desactivarlo, retirarlo del mercado o recuperarlo.

 

3.- Sistemas de IA de riesgo limitado

 

En tercer lugar, el proyecto señala que son sistemas de IA de riesgo limitado los que presentan riesgos no significativos de manipulación, engaño o error, producto de su interacción con personas naturales.

 

En particular, estos sistemas deberán proveerse en condiciones transparentes, procurando que las personas sean informadas de tal forma que puedan ser conscientes de estar interactuando con una máquina.

 

4.- Sistemas de IA sin riesgo evidente

 

Finalmente, serían sistemas sin riesgo evidente todos aquellos sistemas de IA que no estén contemplados en las demás categorías.

 

Institucionalidad y gobernanza

 

En lo relativo a la institucionalidad de la regulación de la IA, el proyecto contempla, por un lado, la creación del Consejo Asesor Técnico de Inteligencia Artificial (el “Consejo”), y, por otro lado, encarga las facultades fiscalizadoras y sancionadoras a la Agencia de Protección de Datos Personales (la “Agencia”), cuya creación se contempla en el proyecto de ley que modifica la actual Ley N°19.628 de Protección de la Vida Privada, actualmente en tramitación.

 

1.- Consejo Asesor Técnico de Inteligencia Artificial

 

En cuanto al Consejo, el proyecto lo define como una entidad consultiva y permanente, que asesorará al Ministerio de Ciencia, Tecnología, Conocimiento e Innovación (“Ministerio”) en materias vinculadas con el desarrollo, promoción y mejoramiento continuo de los sistemas de IA en el país.

 

De este modo, el Consejo tendrá las siguientes funciones:

 

  • Proponer al Ministerio un listado de sistemas de IA de alto riesgo y riesgo limitado;
  • Asesorar al Ministerio sobre el alcance de las reglas aplicables a operadores de sistemas de IA de alto riesgo y riesgo limitado; y
  • Proponer al Ministerio los lineamientos para el desarrollo de espacios controlados de prueba de sistemas de IA

2.- Agencia de Protección de Datos Personales

 

La fiscalización y cumplimiento de las disposiciones del proyecto corresponderá a la Agencia, cuyas funciones, en lo relativo a la regulación de la IA, serán:

 

  • Fiscalizar el cumplimiento de las disposiciones del proyecto y su reglamento, para lo cual podrá requerir a cualquier operador la entrega de toda información necesaria para cumplir con ello;
  • Determinar las infracciones en que incurran quienes contravengan las disposiciones o incumplan las obligaciones del proyecto, ejerciendo la potestad sancionadora sobre ellos; y
  • Resolver las solicitudes y reclamos que formulen las personas afectadas contra quienes incurran en infracciones.

Infracciones y sanciones asociadas

 

Para efectos del ejercicio de las atribuciones de la Agencia, el proyecto contempla tres tipos de infracciones: leve, grave y gravísima, de acuerdo con el tipo de sistema de IA sobre el cual recae.

 

De este modo, será infracción leve el incumplimiento de las obligaciones de transparencia respecto de sistemas de IA de riesgo limitado, sancionable con multa a beneficio fiscal de hasta 5.000 Unidades Tributarias Mensuales (“UTM”); será infracción grave el incumplimiento de las reglas dispuestas para los sistemas de IA de alto riesgo, sancionada con multa de hasta 10.000 UTM; y finalmente, será infracción gravísima la puesta en servicio o utilización de un sistema de IA de riesgo inaceptable, sancionable con multa de hasta 20.000 UTM.

 

Por Guillermo Carey, José Ignacio Mercado, Stefano De Cristofaro y Ricardo Alonso

 

 

Opinión

El nuevo art. 245 bis de la LCT y la reedición de viejos errores del pasado
Por Lucas J. Battiston
PASBBA
detrás del traje
Diego Palacio
De PALACIO & ASOCIADOS
Nos apoyan