Palo Alto Networks advierte que tres de cada cuatro proyectos de inteligencia artificial agéntica en desarrollo en Europa suponen un riesgo severo para la seguridad de las organizaciones. El problema, según el informe, basado en más de 3.000 conversaciones con directivos de primer nivel de empresas europeas, no radica en la tecnología en sí, sino en la falta de gobernanza, control y supervisión en su implementación.
El estudio revela que muchas iniciativas de IA se están impulsando sin objetivos definidos, sin criterios de seguridad y sin dirección estratégica desde los consejos de administración, por lo que advierte de que, sin una acción urgente a nivel de liderazgo, la innovación actual podría convertirse en “la ciber-crisis del mañana”.
Para evitarlo, Palo Alto Networks propone tres pilares para garantizar una adopción segura y sostenible de los agentes de IA. La primera pasaría por definir y limitar los resultados ya que, según el análisis, la principal causa de fracaso pasaría por el “desvío de resultados”: proyectos de IA sin objetivos empresariales medibles ni evaluación de riesgos. “La gran diferencia ahora es que la IA agentiva no se limita a ofrecer respuestas, sino que ejecuta acciones orientadas a resultados concretos”, señala Haider Pasha, CISO de EMEA en Palo Alto Networks. “Las organizaciones que sepan identificar los casos de uso adecuados y alinearlos con objetivos de negocio serán las que realmente logren extraer valor de esta tecnología”.
La compañía recomienda definir objetivos claros, aprobados por el consejo y alineados con los estándares de seguridad e identidad corporativa antes de lanzar cualquier proyecto de agentes de IA.
Por otro lado, el informe subraya que la confianza en la IA debe equilibrarse con el control, aplicando principios de Zero Trust y un enfoque de seguridad centrado en la identidad. Los fallos más frecuentes provienen de agentes con privilegios excesivos, controles de identidad débiles o accesos sin límites definidos.
Palo Alto Networks insiste en que la autonomía de los agentes debe ganarse progresivamente, tratándolos como “empleados digitales” sujetos a auditorías y controles continuos. Entre sus recomendaciones destacan: aplicar el modelo Zero Trust en toda la arquitectura.Separar privilegios y controlar los subagentes. Registrar todas las acciones y mantener siempre un humano en el circuito. Y adoptar un marco integral de seguridad en IA, evitando soluciones aisladas.
El informe concluye que los agentes de IA deben abordarse como una iniciativa empresarial transversal, y no como un proyecto aislado del área tecnológica. Para ello, Palo Alto Networks propone la creación de un “Consejo de Gobernanza de Agentes”, con representación de los departamentos de seguridad, riesgo, legal, operaciones y negocio, que realice revisiones periódicas a nivel de consejo de administración.
La compañía insta además a los consejos a supervisar de forma más estricta la integración y resultados de los proyectos. Formarse activamente en las implicaciones de la IA. Establecer alianzas con socios tecnológicos de confianza a largo plazo. Y empoderar a los responsables para adoptar la IA de forma controlada y segura.
Según Palo Alto Networks, este modelo de responsabilidad compartida es clave para reforzar la resiliencia, garantizar el cumplimiento normativo y alinear los proyectos de IA con los objetivos estratégicos de las organizaciones.










