Después de dos años en los que la inteligencia artificial ha ocupado todos los titulares, no solo de los medios tecnológicos, podríamos pensar que poco ya puede sorprendernos. Y, aun así, seguimos viendo como los medios y las redes sociales se llenan de publicaciones cada vez que hay un nuevo avance con uno de estos grandes modelos, ya sea por su capacidad de escribir, la mejora en la generación de imágenes y vídeo o su forma de impulsar la escritura de código o testear el software desarrollado. Sin embargo, muchas veces la verdadera disrupción es silenciosa y no salta a los titulares, aquella que resuelve problemas muy concretos, con datos propios y contextos en los que la precisión no es opcional.

Porque cuando trasladamos estos modelos a entornos profesionales, esos en los que se exige precisión y contexto, aparecen las limitaciones. Según Gartner en un reciente informe, para 2027 las organizaciones utilizarán modelos pequeños y especializados en tareas concretas con una frecuencia tres veces superior a los grandes modelos generalistas. ¿La razón? Los LLM funcionan muy bien en tareas abiertas, pero su rendimiento cae al enfrentarse a casos de uso que requieren conocimiento de dominio y reglas de negocio. Hace falta una inteligencia entrenada con datos específicos, una IA que entienda el lenguaje de tu organización.
Y así lo confirman también otras consultoras como McKinsey: la aplicación con más valor estimado en el corto plazo no es la generación de contenido genérico, sino poder automatizar tareas específicas. Y para ello, los modelos pequeños, entrenados con datos propios y ajustados a las reglas de la organización, son mucho más efectivos.
Este cambio de paradigma ya está en marcha. Las organizaciones están dejando de lado el «one size fits all» para construir modelos a medida gracias al fine-tuning o retrieval-augmented generation (RAG), que aprovechan al máximo los datos internos y los convierte en un activo competitivo real. Esto no solo mejora la calidad de los resultados, sino que reduce drásticamente los recursos computacionales y los costes asociados a su operación.
Ahora el reto ya no es acceder a la IA, sino cómo lo hacemos. Aquí entran en juego otros factores críticos: la estructura del conocimiento interno y la capacidad para medir y evaluar resultados. Es vital preparar los datos de forma estructurada, alinear los procesos y contar con una base metodológica sólida sobre la que se pueda construir inteligencia. La IA no debería ser un elemento desconectado del proceso, sino un refuerzo para la toma de decisiones. Porque no se trata solo de automatizar tareas, sino de hacer las cosas más rápido, pero también mejor.
En nuestra experiencia lo que realmente marca la diferencia no es contar con la IA más potente, sino con aquella que se integra en los procesos reales de la organización. La verdadera utilidad de la IA en entornos complejos: convertir el conocimiento acumulado en inteligencia práctica, alineada con los objetivos de negocio. Y de este modo nos lo hemos planteado en LedaMC y su aplicación Quanter, aplicándolo desde la mejora de requisitos hasta la estimación de esfuerzo y coste, pasando por el seguimiento de la productividad y la calidad del software.
El futuro de la IA en la empresa no pasa por modelos que lo saben todo, sino por aquellos que entienden lo que tú haces mejor que nadie. La inteligencia artificial más valiosa será la que, sin grandes titulares, ayude a ejecutar con precisión lo que tu organización necesita construir con excelencia.
Julián Gómez Bejarano
Chief digital officer LedaMC