Cómo pueden responder las autoridades financieras a las amenazas de la IA a la estabilidad financiera
Lambert aquí: es un generador de tonterías en realidad ¿un “agente maximizador racional”?
Por Jon Danielsson, Director, Centro de Riesgo Sistémico, London School Of Economics And Political Science, y Andreas Uthemann, Investigador Principal, Banco de Canadá; Investigador Asociado en el Centro de Riesgo Sistémico, London School Of Economics And Political Science. Publicado originalmente en VoxEU.
La inteligencia artificial puede actuar para estabilizar el sistema financiero o para aumentar la frecuencia y gravedad de las crisis financieras. En esta segunda columna de una serie de dos partes se sostiene que el desenlace de las cosas puede depender de cómo las autoridades financieras decidan interactuar con la IA. Las autoridades están en considerable desventaja porque las instituciones financieras del sector privado tienen acceso a conocimientos especializados, recursos computacionales superiores y, cada vez más, datos de mejor calidad. La mejor manera de que las autoridades respondan a la IA es desarrollar sus propios motores de IA, establecer enlaces entre IA, implementar mecanismos automáticos permanentes y hacer uso de asociaciones público-privadas.
La inteligencia artificial (IA) tiene un potencial considerable para aumentar la gravedad, la frecuencia y la intensidad de las crisis financieras. La semana pasada, en VoxEU, analizamos este tema en una columna titulada “Crisis financieras de la IA” (Danielsson y Uthemann 2024a). Pero la IA también puede estabilizar el sistema financiero. Solo depende de cómo interactúen con ella las autoridades.
En la clasificación de Norvig y Russell (2021), vemos a la IA como un “agente maximizador racional”. Esta definición resuena con los análisis económicos típicos de la estabilidad financiera. Lo que distingue a la IA de la modelización puramente estadística es que no solo utiliza datos cuantitativos para brindar asesoramiento numérico; también aplica un aprendizaje basado en objetivos para entrenarse con datos cualitativos y cuantitativos, brindando asesoramiento e incluso tomando decisiones.
Una de las tareas más importantes –y nada fáciles– de las autoridades financieras, y en particular de los bancos centrales, es prevenir y contener las crisis financieras. Las crisis financieras sistémicas son muy dañinas y cuestan billones de dólares a las grandes economías. Las autoridades macroprudenciales tienen una tarea cada vez más difícil porque la complejidad del sistema financiero no deja de aumentar.
Si las autoridades optan por utilizar la IA, les resultará de gran ayuda, ya que es excelente para procesar grandes cantidades de datos y manejar situaciones complejas. La IA podría ayudar sin duda a las autoridades en el micronivel, pero tendría dificultades en el macronivel.
A las autoridades les resulta difícil interactuar con la IA. Tienen que supervisar y regular la IA privada, al tiempo que identifican el riesgo sistémico y gestionan las crisis que podrían desarrollarse más rápidamente y acabar siendo más intensas que las que hemos visto antes. Si quieren seguir siendo supervisores relevantes del sistema financiero, las autoridades no solo deben regular la IA del sector privado, sino también aprovecharla para su propia misión.
No sorprende que muchas autoridades hayan estudiado la IA, entre ellas el FMI (Comunale y Manera 2024), el Banco de Pagos Internacionales (Aldasoro et al. 2024, Kiarelly et al. 2024) y el BCE (Moufakkir 2023, Leitner et al. 2024). Sin embargo, la mayoría de los trabajos publicados por las autoridades se centran en cuestiones de conducta y microprudenciales, más que en la estabilidad financiera y las crisis.
En comparación con el sector privado, las autoridades se encuentran en una situación de desventaja considerable, que se ve agravada por la IA. Las instituciones financieras del sector privado tienen acceso a más conocimientos especializados, recursos computacionales superiores y, cada vez más, a datos de mejor calidad. Los motores de IA están protegidos por derechos de propiedad intelectual y se alimentan de datos confidenciales, ambos a menudo fuera del alcance de las autoridades.
Esta disparidad dificulta a las autoridades monitorear, comprender y contrarrestar la amenaza que plantea la IA. En el peor de los casos, podría alentar a los participantes del mercado a adoptar tácticas cada vez más agresivas, sabiendo que la probabilidad de una intervención regulatoria es baja.
Respondiendo a la IA: cuatro opciones
Afortunadamente, las autoridades tienen varias opciones buenas para responder a la IA, como analizamos en Danielsson y Uthemann (2024b). Podrían utilizar mecanismos permanentes activados, implementar su propia IA en el sistema financiero, establecer vínculos entre IA y desarrollar asociaciones público-privadas.
1. Instalaciones permanentes
Debido a la rapidez con la que reacciona la IA, las facilidades de intervención discrecional que prefieren los bancos centrales podrían ser demasiado lentas en una crisis.
En cambio, los bancos centrales podrían tener que implementar mecanismos permanentes con reglas predeterminadas que permitan una respuesta inmediata y desencadenada ante situaciones de estrés. Estos mecanismos podrían tener el beneficio adicional de descartar algunas crisis causadas por la coordinación del sector privado en función de los equilibrios de ejecución. Si la IA sabe que los bancos centrales intervendrán cuando los precios caigan en cierta cantidad, los motores no se coordinarán en estrategias que solo sean rentables si los precios caen más. Un ejemplo es cómo los anuncios de tasas de interés a corto plazo son creíbles porque los participantes del mercado saben que los bancos centrales pueden intervenir y lo harán. Por lo tanto, se convierte en una profecía autocumplida, incluso sin que los bancos centrales intervengan realmente en los mercados monetarios.
¿Sería necesario que una respuesta automática programada al estrés no fuera transparente para evitar el juego y, por ende, el riesgo moral? No necesariamente. La transparencia puede ayudar a prevenir conductas indeseables; ya tenemos muchos ejemplos de cómo las instalaciones transparentes bien diseñadas promueven la estabilidad. Si se pueden eliminar los peores escenarios impidiendo que la IA del sector privado se coordine con ellos, se reducirán las complementariedades estratégicas. Además, si la regla de intervención evita los malos equilibrios, los participantes del mercado no necesitarán recurrir a la instalación en primer lugar, lo que mantiene bajo el riesgo moral. La desventaja es que, si están mal diseñadas, esas instalaciones anunciadas previamente permitirán el juego y, por lo tanto, aumentarán el riesgo moral.
2. Motores de inteligencia artificial del sistema financiero
Las autoridades financieras pueden desarrollar sus propios motores de inteligencia artificial para supervisar directamente el sistema financiero. Supongamos que las autoridades pueden superar las dificultades jurídicas y políticas que supone el intercambio de datos. En ese caso, pueden aprovechar la considerable cantidad de datos confidenciales a los que tienen acceso y así obtener una visión completa del sistema financiero.
3. Enlaces entre IA
Una forma de aprovechar los motores de IA de las autoridades es desarrollar marcos de comunicación entre IA. Esto permitirá que los motores de IA de las autoridades se comuniquen directamente con los de otras autoridades y con los del sector privado. El requisito tecnológico sería desarrollar un estándar de comunicación, una interfaz de programación de aplicaciones o API, un conjunto de reglas y normas que permiten que los sistemas informáticos que utilizan diferentes tecnologías se comuniquen entre sí de forma segura.
Este sistema traería consigo varios beneficios. Facilitaría la regulación de la IA del sector privado al ayudar a las autoridades a supervisar y comparar directamente la IA del sector privado con normas regulatorias predefinidas y mejores prácticas. Los enlaces de comunicación entre IA serían valiosos para aplicaciones de estabilidad financiera, como las pruebas de estrés.
Cuando ocurre una crisis, los supervisores del proceso de resolución podrían encargar a la autoridad de inteligencia artificial que aproveche los vínculos de IA a IA para ejecutar simulaciones de respuestas alternativas a la crisis, como inyecciones de liquidez, tolerancia o rescates, lo que permitiría a los reguladores tomar decisiones más informadas.
Si se percibe como competente y creíble, la mera presencia de un acuerdo de ese tipo podría actuar como una fuerza estabilizadora en una crisis.
Las autoridades deben tener preparada la respuesta antes de que se produzca el próximo evento de estrés. Eso significa realizar la inversión necesaria en computadoras, datos, capital humano y todas las cuestiones legales y de soberanía que surgirán.
4. Asociaciones público-privadas
Las autoridades necesitan tener acceso a motores de IA que igualen la velocidad y complejidad de la IA del sector privado. Parece poco probable que acaben teniendo sus propios motores diseñados internamente, ya que eso requeriría una inversión pública considerable y una reorganización del modo en que operan las autoridades. En cambio, un resultado más probable es el tipo de asociaciones entre el sector público y el privado que ya se han vuelto comunes en las regulaciones financieras, como en el análisis del riesgo crediticio, la detección del fraude, la lucha contra el blanqueo de dinero y la gestión del riesgo.
Estas asociaciones tienen sus desventajas. El problema de la monocultura del riesgo debido a la estructura oligopólica del mercado de la IA sería un verdadero problema. Además, podrían impedir que las autoridades recopilen información sobre los procesos de toma de decisiones. Las empresas del sector privado también prefieren mantener la tecnología en propiedad y no revelarla, ni siquiera a las autoridades. Sin embargo, eso podría no ser un inconveniente tan grande como parece. La evaluación de motores con benchmarking de IA a IA podría no requerir acceso a la tecnología subyacente, solo a cómo responde en casos particulares, lo que luego se puede implementar mediante enlaces API de IA a IA.
Cómo afrontar los desafíos
Si bien no existe ninguna razón tecnológica que impida a las autoridades crear sus propios motores de IA e implementar vínculos de IA a IA con la tecnología de IA actual, enfrentan varios desafíos prácticos a la hora de implementar las opciones anteriores.
En primer lugar, se trata de cuestiones de datos y soberanía. Las autoridades ya tienen problemas con el acceso a los datos, que parece estar empeorando porque las empresas tecnológicas poseen y protegen los datos y los procesos de medición con propiedad intelectual. Además, las autoridades son reacias a compartir datos confidenciales entre sí.
La segunda cuestión que se plantea a las autoridades es cómo abordar la IA que genera un riesgo excesivo. Una respuesta política que se ha sugerido es suspender esa IA, utilizando un «interruptor de apagado» similar a las suspensiones comerciales en caso de accidentes repentinos. Sospechamos que eso podría no ser tan viable como creen las autoridades porque podría no estar claro cómo funcionará el sistema si se apaga un motor clave.
Conclusión
Si el uso de la IA en el sistema financiero crece rápidamente, debería aumentar la solidez y la eficiencia de la prestación de servicios financieros a un costo mucho menor que el actual. Sin embargo, también podría traer nuevas amenazas a la estabilidad financiera.
Las autoridades financieras se encuentran en una encrucijada. Si reaccionan con demasiada cautela ante la IA, existe un gran riesgo de que esta se incruste en el sistema privado sin una supervisión adecuada. La consecuencia podría ser un aumento de la intensidad, la frecuencia y la gravedad de las crisis financieras.
Sin embargo, el mayor uso de la IA podría estabilizar el sistema, reduciendo la probabilidad de crisis financieras perjudiciales. Es probable que esto suceda si las autoridades adoptan una postura proactiva y se involucran con la IA: pueden desarrollar sus propios motores de IA para evaluar el sistema aprovechando las asociaciones público-privadas y, a través de ellas, establecer vínculos de comunicación entre IA para evaluar la IA. Esto les permitirá realizar pruebas de estrés y simular respuestas. Por último, la velocidad de las crisis de IA sugiere la importancia de contar con mecanismos permanentes de activación.
Nota de los autores: Las opiniones y conclusiones expresadas aquí son las de los autores y no representan necesariamente las opiniones del Banco de Canadá.