El Departamento del Tesoro de EE. UU. ha comenzado a publicar una guía destinada a ayudar a las empresas de servicios financieros a utilizar la inteligencia artificial de forma segura y al mismo tiempo cumplir con las obligaciones regulatorias.
«El Tesoro lanzará una serie de seis recursos desarrollados en asociación con la industria y socios reguladores federales y estatales para permitir una IA segura y resiliente en todo el sistema financiero de EE. UU.» la agencia dijo el miércoles.
El jueves, Hacienda liberó los dos primeros recursos en la serie: un léxico de IA definir términos clave, «centrándose en términos de uso frecuente que tienen un significado específico en el contexto del uso de la IA en el sector financiero», y una versión del Marco de Gestión de Riesgos de IA del Instituto Nacional de Estándares y Tecnología centrado en el sector de servicios financieros. Esta última publicación contiene un cuestionario para medir la madurez de la IA de las empresas, una matriz que vincula los riesgos relacionados con la IA con los controles de seguridad disponibles y orientación para implementar esos controles.
El Tesoro dijo que los recursos son el resultado de consultas entre reguladores estatales y federales, ejecutivos financieros y «otras partes interesadas clave» como parte del Grupo de Supervisión Ejecutiva de Inteligencia Artificial (AIEOG) del departamento. El consejo coordinador del sector de servicios financieros se asoció con un cuerpo similar para crear el grupo.
Cory Wilson, subsecretario adjunto del Tesoro para ciberseguridad y protección de infraestructuras críticas, dijo que los recursos se centrarían en ayudar a las instituciones financieras pequeñas y medianas a «aprovechar el poder de la IA para fortalecer las defensas cibernéticas y desplegar la IA de forma más segura».
Los miembros del AIEOG abordaron varios flujos de trabajo diferentes, incluida la gobernanza, la prevención del fraude, la gestión de identidad y la transparencia, que informarán la orientación del Tesoro.
«Al centrarse en la implementación práctica en lugar de en requisitos prescriptivos», dijo el Tesoro, «los recursos están destinados a ayudar a las instituciones financieras a adoptar la IA con mayor confianza y seguridad, fortaleciendo la resiliencia y la ciberseguridad y al mismo tiempo apoyando la innovación en todo el sector».
Satisfacer una demanda creciente y arriesgada
Los recursos del Tesoro están destinados a satisfacer las necesidades del sector de servicios financieros. hambre creciente por la automatización de la IA.
Los bancos quieren utilizar la IA para mejorar la prevención del fraude, las aseguradoras quieren utilizarla para evaluar el riesgo y los mercados de valores quieren utilizarla para analizar las transacciones. Aproximadamente un tercio del trabajo que realizan los mercados de capitales, las aseguradoras y los bancos «tiene un alto potencial para ser completamente automatizado» por la IA, según un informe del Foro Económico Mundial de enero de 2025.
Pero la tecnología también plantea serios peligros. Los modelos de IA defectuosos podrían filtrar datos financieros confidenciales y los modelos sesgados podrían perpetuar la discriminación sistémica. Las aberraciones de la IA también podrían desestabilizar rápidamente los mercados interconectados y de ritmo rápido. La tendencia de muchas instituciones a utilizar los mismos modelos de IA podría producir «movimientos de mercado sincronizados y patrones de volatilidad amplificados que se extienden más allá de los riesgos comerciales algorítmicos tradicionales». dijo la Corporación RAND en un informe de septiembre de 2025. «La situación se vuelve más compleja a medida que los sistemas de IA avanzan en sofisticación, desarrollando potencialmente comportamientos que resultan difíciles de predecir o auditar de manera efectiva».
El informe de RAND señaló que «los reguladores enfrentan la difícil tarea de monitorear y evaluar el comportamiento colectivo de estos sistemas». Pero, según un informe de octubre de 2025 del Consejo de Estabilidad Financiera del G20pocos reguladores están supervisando agresivamente el uso de la IA en las industrias financieras, en muchos casos porque carecen de la capacidad o experiencia para hacerlo.
Fuente


