Gartner acaba fe lanzar una advertencia sobre el impacto de la inteligencia artificial en los sistemas esenciales de los Estados: antes de 2028, una configuración incorrecta de soluciones basadas en IA podría provocar la interrupción de infraestructuras críticas nacionales en al menos un país miembro del G20.
El aviso no se centra en un ciberataque sofisticado ni en un fallo tecnológico extraordinario, sino en un riesgo más prosaico y, por ello, más plausible: errores de configuración, integraciones deficientes, carencias en la supervisión o una gobernanza insuficiente en sistemas que ya gestionan redes eléctricas, transporte, telecomunicaciones, servicios financieros o recursos sanitarios.
La adopción de la inteligencia artificial en entornos estratégicos se ha acelerado en los últimos años con el objetivo de ganar eficiencia, anticipar incidencias y optimizar recursos. Desde la gestión de la demanda energética hasta la regulación del tráfico o la automatización de procesos financieros, la IA se ha convertido en una pieza estructural. Sin embargo, esa creciente dependencia también amplifica el impacto potencial de cualquier fallo.
Según la consultora, el riesgo no reside únicamente en la complejidad técnica de los algoritmos, sino en la combinación de tres factores: opacidad en la toma de decisiones automatizada, interconexión de sistemas críticos y ausencia de mecanismos robustos de intervención humana. En entornos donde el margen de error es mínimo, una configuración inadecuada puede desencadenar efectos en cadena con consecuencias económicas y sociales significativas.
Ante este escenario, Gartner insiste en la necesidad de incorporar un “modo de anulación segura” (Safe Override Mode) en los sistemas de IA que den soporte a infraestructuras críticas. Este mecanismo permitiría limitar o suspender la actuación automática ante comportamientos anómalos y devolver el control efectivo a operadores humanos, garantizando que la última decisión no recaiga exclusivamente en la máquina.
Más allá de la recomendación técnica, la advertencia abre un debate de fondo sobre la gobernanza de la inteligencia artificial en servicios esenciales. La cuestión no es solo tecnológica, sino también regulatoria y estratégica: si los marcos normativos, los protocolos de auditoría y los estándares de seguridad están evolucionando al mismo ritmo que la implantación de estas soluciones.
La predicción no presupone que el fallo sea inevitable, pero sí apunta a una tendencia. A medida que la automatización se integra en el núcleo de la infraestructura nacional, la resiliencia dependerá tanto de la potencia de la IA como de la capacidad para establecer límites claros, controles efectivos y supervisión humana real.











