El rol de las agencias de calificación crediticia (“ACRs”) fue sometido a un intenso escrutinio a raíz de la crisis financiera mundial de 2007-2009, cuyos efectos negativos se extendieron por la economía mundial y afectaron a los inversores de todo el mundo. Ni las regulaciones ni los controles internos disponibles en ese momento demostraron ser útiles ni suficientes para prevenir el colapso. La falta de una regulación efectiva sobre las ACRs, la insuficiente calidad de las calificaciones crediticias, la falta de competencia efectiva en dicho mercado, y el conflicto de intereses subyacente entre la agencia y el emisor fueron elementos clave que contribuyeron a la crisis.
Más de diez años después y con la aparición de nuevas tecnologías, la industria de calificación crediticia se propone introducir el uso de Inteligencia Artificial (“IA”) con el fin de mejorar sus eficiencias operativas. Sin dudas el potencial de mejora es enorme; sin embargo, las nuevas tecnologías también plantean riesgos que pueden ser difíciles de anticipar, identificar o medir en un mercado tan particular como el de las ACRs, y tan sistemico como el mercado financiero global.
1. Breve descripción de los servicios de calificación crediticia y el papel de las agencias de calificación en los mercados financieros
Las calificaciones crediticias juegan un papel fundamental en los mercados financieros[2], al utilizar su experiencia técnica para reducir la asimetría de información que existe en los mercados financieros[3]. Así, el papel de las ACR es valioso desde la perspectiva del inversor y del emisor.
En cuanto a lo primero, las ACR actúan como un mecanismo de protección de los inversores[4] o “financial gatekeepers”[5]. Ayudan a los inversores y a otros a examinar la gran cantidad de información disponible en el mercado y analizar los riesgos crediticios que enfrentan al prestar a un prestatario en particular, o al comprar la deuda de un emisor o valores similares a la deuda[6]. Con respecto a lo segundo, la opinión crediticia emitida por una ACR acreditada es un elemento clave dentro del plan de endeudamiento del emisor.De hecho, se ha argumentado que el éxito de los programas de endeudamiento de los emisores depende de la calificación crediticia asignada a la deuda, que es un requisito previo que determina la tasa de interés ofrecida y el costo de capital[7].
Dados los altos niveles de capital reputacional que se necesitan para tener éxito en el negocio de calificación, el mercado de calificación crediticia ha estado históricamente dominado por tres compañías multinacionales: Moody’sInvestorsService, Standard &Poor’s y Fitch Ratings (las “Tres Grandes”). Se ha dicho que estas tres entidades poseen aproximadamente el 95% del mercado de calificación total[8].
Las calificaciones crediticias constituyen “opiniones” de las ACR derivadas de su análisis profesional de información relevante, a la luz de sus metodologías de calificación y procesos internos. Esta caracterización de la “opinión” (y no de los hechos) no es menor, ya que se ha argumentado constantemente que las calificaciones crediticias gozan de la protección de la Primera Enmienda de la Constitución de los Estados Unidos como “libertad de expresión”[9], que tradicionalmente ha sido un elemento central para que las ACR sean prácticamente inmunes a cualquier exposición a responsabilidad civil[10].
En este contexto, tradicionalmente ha habido una serie de preocupaciones asociadas con la industria de ACR. La primera limitación sería la gran posibilidad de que exista un conflicto de intereses entre los intermediarios [ACR] y aquellos que debería proteger, es decir, los inversores[11]. Este conflicto surgiría del modelo de financiación [“modelo del emisor paga”], que podría incentivar a las ACR a emitir calificaciones complacientes para salvaguardar su fuente de ingresos. Otros factores de preocupación incluyen (i) la falta de competencia en el mercado[12], (ii) la falta de un régimen de responsabilidad adecuado (que facilite las declaraciones erróneas y la negligencia) y la falta de independencia de la presión política y económica, y (iii) la calidad insuficiente de las calificaciones como resultado de procesos internos inadecuados, personal analítico no apto o aplicación errónea de metodologías de calificación.
Entre 2007 y 2009 sucedió lo inevitable. La crisis financiera mundial mostró una intensificación de las preocupaciones con respecto a los denominados “gatekeepers”, y en particular el papel desempeñado por las ACRs. Como resultado de esto, a raíz de la crisis, fuimos testigos del surgimiento de una examinación pormenorizada del cumplimiento de las ACR con las regulaciones existentes[13] y de demandas de inversores con el objetivo de responsabilizar a las ACR por el daño sufrido por ellos[14].
Esto sumado a que había una opinión común en los EE. UU. y en la UE de que se necesitaban nuevas regulaciones para analizar mejor las actividades de las ACRs, y hacerlas responsables de sus declaraciones erróneas ante los inversores públicos. En 2009, la UE emitió el Reglamento 1016/2009 y en 2013 el Reglamento 462/2013 (el “Reglamento de las ACRs de la UE”). Al otro lado del Atlántico, el Congreso de los Estados Unidos introdujo en 2010 la responsabilidad legal de las calificaciones y otras reformas significativas a través de la Ley Dodd-Frank de Reforma y Protección al Consumidor de Wall Street (“Ley Dodd-Frank”), para cumplir el objetivo del presidente Obama de lograr reglas claras y salvaguardas básicas para los mercados[15].
En resumen, a raíz de la crisis financiera mundial, las ACRs (y, en particular, la calidad y precisión de sus servicios) se convirtieron en un tema de intensa discusión pública, audiencias del Congreso, lo que derivó en un creciente escrutinio regulatorio y acciones por daños y perjuicios.
2. El uso de Inteligencia Artificial por las ACR
a. Concepto de Inteligencia Artificial y sus elementos principales
El crecimiento del potencial informático, la disponibilidad de datos y el progreso en algoritmos han convertido a la IA en una de las tecnologías más estratégicas del siglo XXI[16]. No es sorprendente, entonces, que nos estamos moviendo hacia una nueva economía, impulsada por “big data”, análisis avanzado, tecnología de teléfonos inteligentes y conexiones entre pares (conexiones peer-to-peer), que irán de la mano de cambios fundamentales en la estructura y en la naturaleza del sistema financiero que lo respalda[17].
La IA se ha definido como sistemas de software (y posiblemente también de hardware) diseñados por humanos que, con un objetivo complejo, actúan en la dimensión física o digital al percibir su entorno a través de la adquisición de datos, interpretando los datos estructurados o no estructurados recopilados, razonando sobre el conocimiento, o procesando la información, derivada de estos datos y decidiendo las mejores acciones para lograr el objetivo dado[18]. El concepto de IA se encuentra con frecuencia en la literatura junto con Machine Learning (ML). ML es un subconjunto de IA donde una máquina se enseña a sí misma para realizar tareas sin ser programada explícitamente.
La UE apoya el desarrollo de una “IA ética, segura y de vanguardia” como un medio prometedor para aumentar el florecimiento humano, el progreso y la innovación, al mismo tiempo que previene y minimiza los riesgos asociados[19]. Para lograr esto, la UE ha adoptado el concepto de “IA confiable” (trustworthy AI), cuyos tres componentes (que deben cumplirse durante todo el ciclo de vida del sistema) son: (i) debe ser legal, cumplir con todas las leyes y regulaciones aplicables; (ii) debe ser ético, asegurando la adhesión a los principios y valores éticos; y (iii) debe ser robusto, tanto desde una perspectiva técnica como social, ya que, incluso con buenas intenciones, los sistemas de IA pueden causar daños involuntarios.
Los sistemas de IA deben ser alimentados con datos para operar. Serán necesarias grandes cantidades de datos para desarrollar la IA, e incluso podría ayudar a mejorar el rendimiento de la IA y automatizar la toma de decisiones en el mismo dominio. Pero no todo tipo de datos puede ser útil: la calidad de los datos utilizados es primordial para el rendimiento de los sistemas de IA y para su evolución más rápida.
Estos nuevos mecanismos pueden cambiar nuestras vidas para siempre, no solo en el mundo financiero sino más ampliamente en otras áreas sustantivas de nuestras vidas. Los reguladores de todo el mundo (es decir, el Banco de Inglaterra, la Comisión Europea, IOSCO) están discutiendo cómo tratarlo, y la mayoría de las empresas ya han comenzado a adoptar la IA en sus negocios. No sorprende, entonces, que el Directorio de IOSCO hubiera identificado a la IA/ML dentro de sus cinco prioridades en el 2019[20].
b. Principales motivos por los cuales las ACR emplearían IA en sus negocios
Al igual que otros servicios financieros, la relación de calificación crediticia implica que la ACR proporcione un servicio (el análisis de calificación crediticia, seguido de la emisión de una opinión de calificación) y que el emisor pague un honorario a cambio.
Desde un punto de vista operativo, el proceso de calificación crediticia comienza con el acuerdo comercial entre la ACR y el emisor (a través de la firma del acuerdo de calificación crediticia), seguido del trabajo analítico. Esto implica: (i) el nombramiento del Analista Líder que estará a cargo del análisis crediticio, (ii) la recopilación de la información relevante, (iii) el análisis de calificación realizado por el Analista Líder a la luz de las metodologías de calificación, (iv) la opinión de calificación tomada por el Comité de Calificación. Luego, la opinión se comunica al público en general de forma gratuita a través de comunicados de prensa (pressrelease) que se difunden públicamente y se distribuyen a los principales medios financieros. Las calificaciones crediticias aplicables serán monitoreadas de manera continua y la ACR modificará la calificación crediticia según sea necesario, en respuesta a los cambios en la opinión de la solvencia crediticia del emisor o la emisión[21].
Sin embargo, el alcance del servicio de calificación crediticia es mucho más amplio que el anterior. Como parte del proceso de calificación crediticia, las ACR presentan dos tipos de tareas: (i) aquellas que están dentro del proceso analítico (el “negocio principal”) y (ii) aquellas que están fuera del negocio principal (por ej., cumplir con requerimientos regulatorios obligatorios, otros procesos internos). Queda por ver si alguna de estas tareas podría aplicar la IA para mejorar la eficiencia de las ACR en los mercados financieros.
Los resultados preliminares de una encuesta lanzada recientemente por el Banco de Inglaterra (“BoE”)[22] ayudan a poner la situación en perspectiva: (i) más del 57 por ciento de las empresas están utilizando aplicaciones de inteligencia artificial en áreas de gestión de riesgos y cumplimiento (incluyendo anti antifraude y contra el lavado de dinero), (ii) el 39 por ciento está utilizando aplicaciones de inteligencia artificial para la participación del cliente, (iii) el 25 por ciento en ventas y comercio, (iv) el 23 por ciento en banca de inversión, y (v) 20 por ciento en seguros patrimoniales.
La gran cantidad de datos procesados por las ACR derivadas de sus relaciones de calificación podría aumentar sustancialmente el alcance de las eficiencias internas, siempre que exista calidad adecuada de los datos y un razonamiento correcto de los algoritmos de IA. Específicamente, una mejor gestión de datos, resultados más rápidos y precisos, mayores sinergias dentro de los sistemas informáticos, eliminación de la intervención humana para ciertas tareas (no complejas y repetitivas) y controles más estrictos del trabajo humano, son solo algunos ejemplos del potencial de la IA en la industria de calificación crediticia. En otras palabras, las aplicaciones de IA podrían implementarse para automatizar el negocio principal u otros procesos que quedan fuera de él.
El proceso para automatizar el negocio principal tendría como objetivo replicar, total o parcialmente, el proceso de calificación crediticia, incluida la recopilación de información, la evaluación del analista principal y la aplicación de la metodología, la decisión del Comité de Calificación y la difusión pública de calificación crediticia.
Además, la IA podría usarse en otros procesos que quedan fuera del negocio principal. Muchos de estos implicarían tareas repetitivas con menos complejidad. Si bien muchas de dichas tareas pueden estar reguladas o basadas en el cumplimiento, algunas otras pueden involucrar la búsqueda de procesos comerciales más eficientes, a saber:
(i) controles en la etapa de contratación comercial (por ejemplo, verificación de antecedentes del cliente: mecanismos antifraude, antilavado de dinero y “Conozca a su cliente” (KYC, por sus siglas en inglés);
(ii) requisitos regulatorios y de cumplimiento (por ejemplo, inserción de divulgaciones obligatorias en opiniones de calificación crediticia, calificación inicial y monitoreo continuo de gestión de riesgos, programas de cumplimiento, controles internos, requisitos de mantenimiento de registros y planes de auditoría, informes periódicos a los reguladores, creación de estadísticas de calificación, tasas de incumplimiento, matrices de transición y listas de honorarios, verificación de conflictos de intereses y negociación de valores por parte del personal de la ACR, vigilancia continua de los esquemas de rotación de analistas y agencias de calificación, traducción y difusión pública de opiniones y metodologías de calificación crediticia);
(iii) otros usos generales (por ejemplo, preparación de documentación legal básica, cobro de honorarios de calificación, contabilidad y marketing).
De acuerdo con los primeros resultados de una encuesta[23], algunas empresas pueden estar acercándose a la introducción de AI / ML de manera gradual, proyecto por proyecto; mientras que otras parecen estar siguiendo un enfoque más integrado y estratégico. Puntualmente respecto de las ACR, queda por ver cuáles podrían ser las implicaciones legales y regulatorias de estas iniciativas, con énfasis en lo que podría suceder en el negocio principal de calificación.
3. Consideraciones legales, regulatorias y de gobierno
La IA permite a las CRA explorar oportunidades para prestar servicios más eficientes, teniendo en cuenta que estos podrían presentar desafíos legales. Esto se debe a que las leyes no siempre están al día con los desarrollos tecnológicos, a veces pueden estar fuera de sintonía con las normas éticas o simplemente pueden no ser adecuadas para abordar ciertos problemas.
a. Consideraciones legales
El primer elemento legal que se analizará son los datos, que es uno de los elementos más críticos utilizados por las ACRs para procesar y asignar sus calificaciones.
Las ACR obtienen datos financieros y no financieros de sus contrapartes contractuales y de otras fuentes públicas consideradas confiables. El principal compromiso asumido por los emisores dentro de los acuerdos de calificación crediticia (además del pago de los honorarios aplicables) es proporcionar información suficiente, precisa y oportuna a las ACR con el fin de asignar la calificación.
El proceso de calificación comienza una vez que la información relevante se ha cargado en los sistemas de calificación. Este es un aspecto clave para el uso de IA en el negocio de calificación, porque solo una transición efectiva a los sistemas electrónicos permitirá a las compañías explorar el potencial de la IA. Para lograr esto, los acuerdos de calificación crediticia deberán incluir una disposición por la cual el emisor acuerde proporcionar los datos relevantes para el desarrollo de aplicaciones de IA.
Otro elemento central será cómo las ACR acceden a los datos y cómo se utilizarán para las aplicaciones de IA. Es probable que los reguladores analicen el problema a la luz de la naturaleza de los datos, ya sea que implique el uso de datos sensibles u otro tipo de datos. Existen complejos problemas éticos, legales, de conducta y de reputación asociados con el uso de datos personales. En consecuencia, la privacidad y la protección de datos deben protegerse durante todo el ciclo de vida del sistema de IA, incluida la información inicialmente proporcionada por el usuario y la información generada sobre el usuario durante curso de su interacción con el sistema.
Esto es esencial, ya que tanto los ciudadanos como las empresas necesitan poder confiar en la tecnología con la que interactúan, tener un entorno legal predecible y confiar en salvaguardas efectivas que protejan los derechos y libertades fundamentales. La discusión anterior se enmarca en el contexto de un tema complejo más amplio: las diferencias intercontinentales en el tratamiento de datos y los marcos regulatorios en China, EE. UU. y la UE, lo que hace aún más inciertas las implicaciones legales en torno a los datos[24].
El segundo elemento de nuestro análisis legal es la transparencia. Esto juega un papel fundamental en los mercados financieros y es particularmente importante dentro del proceso de calificación de las ACR.
Las calificaciones crediticias deben ser transparentes porque la opinión debe estar suficientemente fundamentada y revelar todas las consideraciones materiales que formaron parte del proceso de evaluación. El proceso de calificación debe explicarse a fondo para permitir a los inversores del mercado hacer su propia evaluación. Las opiniones de calificación siempre deben hacer referencia clara al instrumento calificado y a la metodología que se ha aplicado dentro del proceso de calificación. En línea con esto, los más altos tribunales judiciales han afirmado que la falta de transparencia de las opiniones de calificación crediticia constituye una violación fundamental de las regulaciones aplicables[25].
Las tecnologías aplicadas en los mercados financieros también deberían ser transparentes para fortalecer la confianza en los sistemas de IA. Por lo tanto, la transparencia algorítmica debe desempeñar un papel central en el campo de las ACR, ya que representaría el proceso que lleva a la opinión de calificación crediticia. La falta de transparencia sobre cómo las ACR aplican las nuevas tecnologías no sólo daría como resultado sistemas de IA menos confiables y robustos, sino que potencialmente desencadenaría controles regulatorios más estrictos y litigios privados por parte de inversores alegando daños debido a la emisión de calificaciones crediticias poco transparentes.
A la luz de lo anterior, solo una revelación completa de los procesos algorítmicos permitiría a los reguladores y a los participantes del mercado financiero comprender cómo la tecnología procesa e interpreta los datos en diferentes escenarios, de ahí la importancia de la investigación sobre la explicabilidad de los sistemas de IA[26].
El tercer elemento del análisis legal es el control de los sistemas de IA. Como se mencionó anteriormente, a raíz de la crisis financiera, las ACR no habrían actuado como “gatekeepers” efectivos y ni los reguladores ni las regulaciones proporcionaron suficientes controles sobre lo que estaban haciendo las ACR. Por lo tanto, las regulaciones posteriores a la crisis implicaron mayores controles, requisitos de información y divulgaciones.
En este contexto, el uso de la IA, ya sea dentro del proceso de calificación o fuera de él, tiene un gran potencial para mejorar la eficiencia y la innovación, y los reguladores no pueden ignorarlo, sino reconocer y colaborar a lo largo de este proceso de transformación. Sin embargo, también puede crear riesgos que deben evaluarse y controlarse para ser robustos y confiables[27].
La implementación por parte de la Autoridad de Conducta Financiera (“Financial Conduct Authority” (FCA, por sus siglas en inglés) dentro del Banco de Inglaterra de un ambiente de prueba (“regulatory sandbox”) es un buen ejemplo que muestra cómo el regulador podría reconocer el valor y los riesgos potenciales de la IA, pero al mismo tiempo trabajar junto al sector privado para apoyar la innovación fomentando las pruebas de productos y servicios en un entorno controlado[28]. La Comisión de la UE también ha expresado su apoyo a la creación de infraestructuras de prueba y experimentación, abiertas a empresas de todos los tamaños y de todas las regiones.
Finalmente, un debate sustancial sobre la responsabilidad de las ACR debería tener lugar a raíz de la posible introducción de la IA.
Tradicionalmente, uno de los aspectos más cruciales en torno a las calificaciones crediticias ha sido que son opiniones que reciben protección de “libertad de expresión” y son inmunes a la responsabilidad, a menos que los demandantes puedan mostrar “real malicia” que excluya cualquier responsabilidad basada en negligencia. Esto ha presentado desafíos desde al menos dos perspectivas: cómo responsabilizar a las ACR por la emisión de opiniones erróneas en el mercado y cómo regularlas sin afectar su independencia.
Las dos regulaciones principales emitidas después de la crisis financiera mundial (Ley Dodd Frank y las Regulaciones ACR de la UE) introdujeron elementos para hacer que las ACR sean responsables ante los inversores y mejorar la calidad de sus calificaciones. Queda por ver si el concepto de “opinión” y responsabilidad puede cambiar con el uso de IA.
La primera pregunta que surge es si el marco legal actual capturaría adecuadamente los perjuicios potenciales derivados de la IA y, de ser así, cuál sería el alcance de la responsabilidad. Las leyes actuales de responsabilidad del producto (productliability) fueron diseñadas para un mundo donde los productos eran artículos físicos relativamente simples que no cambian mucho una vez que salieron de la fábrica, pero muchos productos que llegan al mercado hoy están ampliando estos límites[29].
Una conclusión preliminar bajo los Reglamentos de las ACR de la UE permitiría a los inversores sin una relación contractual con una ACR, hacerla responsable si pudieran probar que, como resultado del uso de AI: (i) la ACR ha cometido una infracción regulatoria del Reglamento (CE) 1060/2009; (ii) la infracción se cometió intencionalmente o con negligencia grave; (iii) la infracción tuvo un impacto en una calificación crediticia y causó pérdidas al inversionista; (iv) ellos [los inversores] confiaron razonablemente en la calificación crediticia relevante al decidir si invertir en, mantener o desechar, un instrumento financiero cubierto por esa calificación crediticia.
En una mirada más cercana, sin embargo, puede ser más difícil identificar las causas fundamentales de los problemas derivados de la IA y atribuir la responsabilidad a las personas. La pregunta probablemente debería centrarse en dónde debe trazarse exactamente el límite legal para atribuir la responsabilidad a las ACR. Por ejemplo, ¿cómo podría saber qué problemas son una función de un diseño deficiente, la culpa del fabricante si ha comprado un producto tecnológico 'listo para usar', o una implementación deficiente, que podría demostrar incompetencia o una falta de comprensión clara por parte de la administración de la ACR?
Se esperaría entonces, que se implementen nuevos mecanismos legales para garantizar la responsabilidad y la rendición de cuentas de las ACR con respecto a sus sistemas de IA y sus resultados. Para evitar socavar los incentivos a la innovación, la atribución de responsabilidad a la luz de la IA puede seguir ciertos parámetros objetivos, a saber: implementación de controles internos, cumplimiento de todas las regulaciones y políticas de la compañía aplicables y vigilancia efectiva sobre las aplicaciones de IA. Desde la perspectiva de una ACR, sería aconsejable que los contratos [de calificación] definan claramente las responsabilidades de cada parte y sean claros sobre el uso previsto y las limitaciones del producto. Queda por ver cómo la industria de ACR puede evaluar los beneficios de introducir la IA en sus procesos, frente a las implicaciones que pueden derivarse de las responsabilidades derivadas de posibles errores.
b. Consideraciones regulatorias y de gobierno
Como consecuencia de la crisis financiera, se emitieron nuevas regulaciones y las ACR tuvieron que adoptar cambios sustanciales en sus estructuras de gobierno y cumplimiento. Diez años después, el nuevo desafío regulatorio que se avecina es cómo abordar la IA en los mercados financieros y determinar los posibles riesgos y repercusiones en las estructuras de gobierno y / o cumplimiento de la empresa.
Si bien ciertamente no es el papel del regulador obstaculizar el progreso, la IA confiable exigirá nuevas regulaciones y nuevos ángulos de control. Los reguladores tendrán que revisar su aplicación porque los mecanismos tradicionales de supervisión ya no serán útiles[30]. Dada la fuerte intersección entre el desarrollo de nuevas tecnologías y datos, es probable que surjan nuevas regulaciones de la interacción de más de un regulador, a saber, la autoridad del mercado financiero y el regulador de protección de datos.
La aparición de IA y de regulaciones deberá ir de la mano con la adopción de nuevas estructuras internas de gobierno y cumplimiento dentro de las empresas. La investigación demuestra que la atención de la gerencia al más alto nivel es esencial para lograr el cambio[31]. Resulta indudable la importancia del apoyo humano a lo largo del desarrollo y la implementación de IA dentro de las organizaciones empresariales.
El enfoque de gobierno no solo debe estar presente durante las pruebas en la etapa de diseño, antes de que se apruebe el uso de AI / ML, sino también en las pruebas durante la etapa de implementación, así como en la supervisión necesaria para evaluar los resultados y abordar los problemas cuando salen mal.
Desde un punto de vista operativo, los nuevos marcos de gobierno tendrán como objetivo difundir en las empresas una fuerte cultura de ética y cumplimiento a través de: (i) nuevos Códigos de Conducta internos que reconozcan el uso de IA como parte del negocio, (ii) capacitaciones para el personal de la empresa y la adopción de medidas en toda la empresa para involucrar a la gerencia en todos los niveles, sobre el progreso y la implementación de la IA, (iii) la posibilidad de que el personal informe al Departamento de Cumplimiento sobre cualquier mal uso potencial o funcionalidad poco ética de la IA o de los datos, (iv) vigilancia constante sobre posibles sesgos de los algoritmos de calificación, para evitar la discriminación centrada en el ser humano o las calificaciones complacientes derivadas de conflictos de intereses.
Esta no es la primera vez que se requiere una reforma estructural del gobierno interno de las ACR. Pero en el contexto de decisiones tomadas por máquinas que ellas mismas aprenden y cambian con el tiempo, la alta gerencia de las empresas y los reguladores, deberán considerar y estar atentos a problemas antes desconocidos, y acostumbrarse a navegar en la incertidumbre.
4. Conclusión. Impacto potencial en el mercado de calificación crediticia y en los mercados financieros
Las calificaciones crediticias cumplen una función valiosa para los mercados financieros y para los inversores en particular. Sin embargo, las mismas preocupaciones que salieron a la luz a raíz de la crisis financiera de 2007-2009 todavía están presentes hoy: el conflicto de intereses derivado del modelo de “emisor paga”, la falta de competencia, la calidad insuficiente de las calificaciones y el exceso de dependencia de calificaciones crediticias, entre otros.
Debe analizarse cuál podría ser el impacto probable de la introducción de IA en el mercado de calificación crediticia y si la IA podría ayudar a eliminar o mitigar las preocupaciones actuales del mercado. A priori, la introducción de IA en el mercado de calificación crediticia, si se implementa correctamente, con un uso adecuado de los datos, controles efectivos y procesos transparentes, tiene el potencial de rediseñar la estructura de la industria de calificación, aumentar la competencia y mejorar la calidad de las calificaciones crediticias en beneficio de los inversores financieros.
Ha quedado claro que la IA está abriendo nuevas oportunidades para una mayor competencia en los mercados financieros, y en el mercado de calificación crediticia esto podría conducir a:
(i) calificaciones crediticias más precisas y predictivas, y procesos comerciales más eficientes (por ejemplo, controles automatizados, auditoría y gestión de riesgos);
(ii) las empresas de tecnología podrían estar interesadas en ingresar al mercado de calificación crediticia, posiblemente creando un nicho de mercado de “ACR de bajo costo” (lowcost rating agencies);
(iii) una mayor competencia brindaría incentivos a las ACR para mejorar la calidad de sus servicios, de sus metodologías de calificación, procesos internos y contratar personal más idóneo;
(iv) la renovada estructura del mercado de las ACR podría establecer un límite a la importancia que se le da al capital reputacional de los Tres Grandes;
(v) una mayor competencia puede reducir los honorarios de calificación y reducir la asimetría de información del mercado, como resultado de un aumento en la elección disponible para los inversores. A su vez, una elección más amplia podría permitir a los inversores comparar diferentes calificaciones y hacer su propia evaluación, reduciendo la excesiva dependencia en las calificaciones crediticias.
(vi) las aplicaciones de IA con controles efectivos y mecanismos transparentes de toma de decisiones podrían limitar el alcance de las calificaciones sesgadas por el ser humano, derivadas de la problemática del conflicto de intereses.
Sin perjuicio de lo anterior, las incertidumbres en torno a las posibles responsabilidades legales derivadas del uso de IA y el alcance del marco regulatorio pueden socavar los incentivos de la empresa para aplicar la IA o limitar su alcance de aplicación.
En el frente regulatorio, es probable que IOSCO lidere el proceso para regular las tecnologías de manera ordenada a nivel mundial. Se espera que las reglas de IOSCO no solo se dirijan a las ACR, sino también al mercado financiero en general, con especial énfasis en no interrumpir los servicios financieros ni crear riesgos sistémicos involuntarios.
En síntesis, la introducción de aplicaciones de IA en el mercado de calificación crediticia podría generar beneficios y eficiencias sustanciales para los mercados financieros, siempre que el uso de los datos sea adecuado, la existencia de controles efectivos y la transparencia en el proceso de toma de decisiones. Queda por ver si los límites legales y regulatorios podrían volverse más claros en el futuro, para que las empresas puedan evaluar la conveniencia de invertir en IA a la luz de las potenciales responsabilidades legales y el escrutinio regulatorio. Es probable que el alcance de la aplicación de IA dentro de cada empresa sea establecido tras una ponderación cuidadosa de las eficiencias, los riesgos y el capital reputacional de cada ACR.
Citas
[1] Abogado graduado en la Universidad de Buenos Aires e integrante de Ferreyra Romea Abogado. Anteriormente, fue analista regulatorio senior de Moody’s Investors Service para Latinoamérica, y se desempeñó como Oficial de Relaciones con el Público ante la Comisión Nacional de Valores de Argentina y Oficial de Gestión de Riesgo de Equilibrium Clasificadora de Riesgo (filial de Moody’s Investors Service en Perú). El presente artículo representa exclusivamente opiniones propias del autor.
[2] Caitlin M. MULLIGAN, ‘From AAA to F: HowtheCredit Rating Agencies failedAmerica and what can be done to protectinvestors’ (2009) 50(4) Boston CollegeLawReview.
[3] Jennifer PAYNE, ‘The Role of Gatekeepers’ (2014) University of Oxford, Legal ResearchPaper No. 22/2014 .
[4] PAYNE, op. Cit.
[5] Andrea MIGLIONICO, ‘Recastingcredit rating agencies' responsibility: reformsuggestions' (2014) Centre forCommercialLawStudiesSeminars: New Voices in CommercialLaw, Queen Mary, University of London .
[6] MOODY’S INVESTORS SERVICE, ‘Código de Conducta Profesional’ – Preámbulo, .
[7] Niamh MOLONEY, EC SecuritiesRegulation (2nd edn, Oxford: OUP 2008) 689.
[8] MULLIGAN, op. Cit.
[9] Matthias LEHMANN, ‘Civil Liability of Rating Agencies: AnInsipidSproutfromBrussels’, (2014) LSE Law, Society and EconomyWorkingPaper 15/2014, .
[10] William G. MC GUINNESS, John W. BREWER, ‘Credit Ratings Agencies UndertheMicroscope’ (2009) New York LawJournal.
[11] PAYNE.
[12] Tim WITTENBERG, ‘RegulatoryEvolution of the EU Credit Rating Agency Framework’ (2015) European Business OrganizationLawReview.
[13] Para mas informacion, ver DOJ et al v Moody’s (2017) ), Securities and Exchange Commission v DBRS, (2015) , Securities and Exchange Commission v Standard &Poor’s (2015), DOJ et al v Standard &Poor’s (2015) , ESMA fines Moody’s €1.24 millionforcredit ratings breaches (2017)ESMA fines Fitch €5,132,500 forbreaches of conflict of interestrequirements (2019) www.esma.europa.eu/press-news/esma-news/esma-fines-fitch-%E2%82%AC5132500-breaches-conflict-interest-requirements>.
[14] El caso más notable tuvo lugar ante los tribunales australianos y se caratula ABN Amro Bank NV v Bathurst Regional Council.
[15] LA CASA BLANCA- OFICINA DEL SECRETARIO DE PRENSA, ‘RemarksbythePresident at Signing of Dodd-Frank Wall Street Reform and ConsumerProtectionAct’ .
[16] COMISION EUROPEA, ‘Artificial IntelligenceforEurope’ (Communication) COM (2018) 237 final (Communicationon Artificial IntelligenceforEurope).
[17] Mark CARNEY, ‘A PlatformforInnovation’ (Remarks at InnovateFinance Global Summit, London, 29 April 2019) .
[18] High-LevelExpertGroupon Artificial Intelligence, ‘EthicsGuidelinesforTrustworthy AI’.
[19] COMISION EUROPEA, ‘MemberStates and Commission to worktogether to boost artificial intelligence “made in Europe’ .
[20] IOSCO, ‘BoardPriorities - IOSCO workprogramfor 2019’ .
[21] MOODY’S INVESTORS SERVICE, ‘Issuer/Investor Requested Ratings ProcessDetail’ .
[22] James PROUDMAN, ‘Managing Machines: thegovernance of artificial intelligence’ (FCA ConferenceonGovernance in Banking, 4 de Junio de 2019)
[23] PROUDMAN, op. Cit.
[24] Edward CHAN, Socio y Head del Grupo Global de IA de Linklaters.
[25] CORTE SUPREMA DE JUSTICIA DE ARGENTINA (CSJN), ‘Comisión Nacional de Valores c/Standard &Poor’s Ratings LLC Suc. Argentina s/ organismos externos’, 15/04/2014, AR/JUR/5983/2014
[26] High-LevelExpertGroupon Artificial Intelligence, ‘EthicsGuidelinesforTrustworthy AI’.
[27] Lic. Paula Spitalieri, Subgerente del Sector de Agentes de Calificaciones de Riesgo de la Comision Nacional de Valores de Argentina.
[28] Más información en relación a este tema, puede encontrarse en www.fca.org.uk/firms/regulatory-sandbox,
[29] Andrew AUSTIN, ‘Productliability in the AI age’ .
[30] Jon DANIELSSON, Robert MACRAE y Andreas UTHEMANN, ‘Artificial Intelligence and SystemicRisk’ (2019) .
[31] McKinsey (2017), ‘Secrets of successfulchangeimplementation’
Opinión
Barreiro
opinión
ver todosPASBBA
NORDELTA S.A.
Alfaro Abogados
Berton Moreno IP Law