El uso de la inteligencia artificial generativa en las empresas crece con rapidez, pero también lo hacen las dudas sobre su fiabilidad. Así lo asegura Gartner que prevé que, para 2028, la mitad de los proyectos de este tipo incluirán sistemas para supervisar cómo funcionan los modelos, frente al 15 % actual.
Uno de los conceptos clave en este cambio es la llamada inteligencia artificial explicable (XAI), que permite entender por qué una herramienta de IA ofrece una respuesta concreta. En otras palabras, no se trata solo de obtener resultados, sino de saber cómo se han generado, detectar posibles errores y evitar sesgos. Este enfoque busca que las empresas puedan confiar en la tecnología cuando la utilizan en decisiones importantes.
A la vez, están ganando peso las soluciones que supervisan el comportamiento de estos sistemas de IA en el día a día. Estas herramientas ayudan a detectar fallos, respuestas incorrectas o incoherencias, y permiten comprobar si el sistema está funcionando como debería. Ya no basta con que la tecnología sea rápida o barata: ahora también tiene que ser fiable.
“Según las empresas amplían el uso de esta tecnología, la necesidad de confiar en ella crece aún más rápido”, explica Pankaj Prasad, analista de Gartner. En su opinión, entender por qué responde una IA y comprobar que lo hace correctamente será clave para que estas soluciones se utilicen en tareas realmente importantes.
Las previsiones apuntan además a un fuerte crecimiento del mercado de la inteligencia artificial generativa en los próximos años, lo que aumentará la necesidad de controlar mejor sus resultados. Para ello, Gartner recomienda medidas como revisar de forma continua el funcionamiento de los sistemas, comprobar la calidad de sus respuestas y formar a los equipos para que entiendan cómo usar esta tecnología con seguridad. El objetivo es claro: que la inteligencia artificial no solo sea útil, sino también fiable y segura en el entorno empresarial.











