La incorporación de agentes de IA en el sector financiero está alterando la manera en que bancos y aseguradoras operan, gestionan riesgos y organizan sus estructuras internas. Sistemas que funcionan como directivos de primera clase, con niveles de acceso y privilegios incluso superiores a los de muchos empleados humanos. Y es que, según el informe 2025 Identity Security Landscape, elaborado por CyberArk, las entidades financieras gestionan hasta 96 identidades de máquina por cada trabajador humano. Casi la mitad de estas credenciales tiene acceso directo a datos sensibles, lo que amplía de forma significativa la superficie de riesgo. Pese a ello, solo un 31 % de las organizaciones dispone de controles específicos para sistemas de IA, como los grandes modelos de lenguaje. Más allá del volumen de identidades digitales, el impacto de los agentes de IA ya se deja sentir en la propia estructura de las organizaciones financieras, transformando funciones clave y alterando las dinámicas tradicionales de supervisión y responsabilidad.
Uno de los cambios más relevantes se observa en el área de cumplimiento normativo. Los llamados agentes de cumplimiento mejorados permiten a un solo responsable desplegar múltiples sistemas capaces de analizar transacciones en tiempo real. Esta automatización incrementa la eficiencia operativa, pero también concentra privilegios críticos tanto en una única persona como en agentes que no siempre cuentan con una autorización clara. El resultado muestra el riesgo de que el departamento de cumplimiento se convierta en un foco de problemas regulatorios.
En el ámbito de los mercados, los agentes de trading autónomos representan otro punto de inflexión. En algunos casos, estos sistemas sustituyen completamente la intervención humana, ejecutando estrategias a velocidad de máquina y sin supervisión directa. Si sus credenciales están mal configuradas o excesivamente privilegiadas, el impacto puede ser inmediato, con capacidad para desestabilizar mercados o amplificar riesgos sistémicos en cuestión de segundos.
El tercer gran cambio estructural llega de la mano de los orquestadores multiagente. A medida que aumenta la adopción de IA, algunos agentes asumen funciones de coordinación, supervisando tanto a otros sistemas como a empleados humanos. Un solo agente puede gestionar operaciones sobre cuentas de clientes y delegar tareas en cadena, lo que multiplica los puntos de fallo potenciales y eleva la exposición a vulnerabilidades regulatorias.
Ante este escenario, los expertos coinciden en que los agentes de IA deben ser tratados con el mismo rigor que cualquier empleado humano. Esto implica controles estrictos sobre credenciales como claves API y certificados, políticas de acceso basadas en privilegios mínimos y just-in-time, auditorías continuas y la implantación de guardrails sólidos. De forma crucial, también exige procesos claros para su incorporación, cambios de función y retirada.
Solo mediante este enfoque las entidades financieras podrán aprovechar el potencial de los agentes de IA sin comprometer la seguridad ni el cumplimiento normativo en un entorno cada vez más automatizado y complejo.











