El 26 de agosto de 2025 quedará en las efemérides como el día en que la Asamblea General de la ONU le dio forma institucional a una aspiración largamente repetida: separar lo que sabemos de lo que decidimos en materia de inteligencia artificial (IA). ¿Cómo es esto? Con una resolución aprobada por consenso, los Estados crearon dos mecanismos nuevos: el Panel Científico Internacional e Independiente sobre IA y el Diálogo Global sobre la Gobernanza de la IA. Esta sorprendente iniciativa busca que cada debate regulatorio arranque sobre piso firme —evidencia contrastada— y que la conversación política tenga un foro inclusivo y periódico.
Ya lo decía el Diputado Nacional (Argentino) Martín Yeza en el reciente XIII Encuentro de Ética y Compliance entre Sectores Público y Privado de la AAEC celebrado junto a la Universidad de San Andrés, cuando mostró su preocupación por el anacronismo que presenta la técnica regulatoria en Argentina y en el mundo frente a los avances de la IA a ritmos vertiginosos.
¿Qué se aprobó? Y, ¿por qué importa?
1) Un “IPCC de la IA”, versión Naciones Unidas.
¿Recuerdan el Intergovernmental Panel on Climate Change creado por la ONU poniendo toda la ciencia disponible sobre cambio climático: causas, impactos, adaptación y mitigación? Esto sería algo muy similar, pero, por supuesto, en materia de IA.
El Panel estará integrado por 40 personas con mandatos de tres años de duración. Su misión central será publicar un informe anual “relevante para políticas, pero no prescriptivo” que sintetice todo lo investigado hasta ese momento sobre oportunidades, riesgos e impactos de la IA. El Secretario General abrirá una convocatoria pública de nominaciones y propondrá la “lista corta” (no tan corta) de 40 para que la Asamblea los designe. En paralelo, y además de del informe anual, el Panel puede publicar hasta dos avances (“updates”) por año y llevarlos a la Asamblea General para escuchar comentarios y sumar evidencia antes del informe más importante. En definitiva, se trata de mostrar el work in progress para ajustar el rumbo con tiempo. Dicho en simple (y corre por mi cuenta): se espera algo menos humo (que venía caracterizando estas discusiones en el mundo), y aportar muchas más métricas.
2) Un foro político con calendario.
El Diálogo Global reunirá a Estados y múltiples partes interesadas para compartir buenas prácticas y construir entendimientos comunes. Se lanza durante la semana de alto nivel de la Asamblea General de las Naciones Unidas en septiembre de 2025; en 2026 se hará en Ginebra y en 2027 en Nueva York (junto al Foro de Ciencia, Tecnología e Innovación para los ODS). Los objetivos planteados son muy claros: alinear estándares (sobre todo entre EE.UU. y Europa), cerrar brechas y anclar la IA en la Agenda 2030.
¿Cuál es el origen de tamaña iniciativa?
En septiembre de 2024, el Órgano Asesor de Alto Nivel del Secretario General publicó Governing AI for Humanity y recomendó crear un panel científico independiente y un diálogo global para sostener una arquitectura inclusiva de gobernanza. La resolución reciente, entonces, no hace más que aterrizar esas recomendaciones dentro del sistema ONU.
¿Qué cambia en concreto respecto de la legislación vigente?
Los ajustes más significativos que se esperan conseguir son los siguientes:
Control de realidad para reguladores: antes de legislar o acordar principios, habrá evaluaciones científicas periódicas sobre impacto, riesgos y beneficios (más que opiniones sin mayores fundamentos).
Retroalimentación constante: un reporte anual del Panel nutre un encuentro anual del Diálogo; la conversación deja de ser esporádica y pasa a ser procesual y acumulativa.
Puente entre “mundos dispares”: el diseño contempla participación amplia y apoyo para que países en desarrollo no queden en la tribuna de la revolución de la IA.
Mayor claridad de roles: el Panel no regula, informa; el Diálogo no impone, construye consensos. La regulación seguirá siendo nacional o regional, pero con una mejor brújula mancomunada.
¿Qué queda para seguir mirando con lupa?
La sociedad civil celebró este interesante paso, pero advirtió riesgos conocidos: independencia real, anclaje robusto en derechos humanos y participación significativa más allá de la foto. También hubo críticas al sesgo demasiado “estatocéntrico” en ciertos borradores de negociación ¿Qué significa esto? Que si la cocina política ahoga a la ciencia, estos foros se convierten en un Frankenstein y luego será complejo de controlar.
¿Cómo sigue esto?
En este orden, los próximos pasos serán, armar la convocatoria y recibir las nominaciones al Panel en las próximas semanas. En definitiva, se espera diversidad disciplinaria y geográfica para pasar la primer “prueba de credibilidad”.
En pocas semanas, dentro de septiembre de 2025 se lanzará formalmente el diálogo.
Se proyectan las reuniones relevantes en Ginebra (2026) y Nueva York (2027) y determinar de esta forma si realmente aparecen “entendimientos comunes” que bajen a tierra estándares y prácticas aplicables de manera generalizada.
Con esta resolución la ciencia toma el volante y la política ajusta el GPS ¿funcionará esta fórmula?. Si el Panel mantiene la independencia y el Diálogo asegura sillas para todos, el mundo puede pasar de slogans a métricas, de intuiciones a capacidad instalada, y de temores difusos a decisiones informadas. No es una “policía global de la IA”; es algo más difícil —y más útil—: un andamiaje para pensar mejor y decidir juntos. Tal vez, un verdadero “think tank” de la IA.
Citas
Socio de BDO en Argentina y Director de la Certificación Internacional en Ética y Compliance -CEC
Opinión

