La inteligencia artificial se ha consolidado como un pilar de la ingeniería de plataformas. Así lo destaca el informe anual The State of AI in Platform Engineering, elaborado por Platform Engineering en colaboración con Vultr. Un estudio que resalta que tres de cada cuatro equipos ya ejecutan o planean ejecutar cargas de trabajo de IA, mientras que un 89 % afirma utilizarla a diario en funciones como la generación de código o la documentación.
Sin embargo, el informe advierte de una “meseta en la implementación de la IA”, donde el entusiasmo y la adopción superan todavía al valor empresarial realmente alcanzado. Para profundizar en esta situación, Vultr llevó a cabo un análisis complementario entre más de 120 profesionales que desarrollan sistemas nativos de IA en distintos países, incluido España. Los resultados reflejan un panorama ambivalente: si bien la adopción es sólida, persisten carencias que limitan su impacto a gran escala. Una de ellas es la falta de claridad en la propiedad de la IA dentro de las organizaciones. Casi el 40 % asigna las responsabilidades de plataforma a los equipos de ingeniería, mientras que un cuarto reparte esa función entre varios grupos y un 13 % admite no tener una figura clara a cargo.
El estudio también pone de manifiesto desigualdades en la orquestación de cargas de trabajo. Más del 40 % de las empresas recurre a Kubernetes ampliado para gestionar GPUs y aplicaciones de IA, pero todavía un 35 % reconoce que no utiliza ningún mecanismo de orquestación, lo que pone de relieve una brecha importante en la madurez de la infraestructura.
En cuanto a la integración de la IA, más de la mitad de las organizaciones ya la incorporan en aplicaciones nativas en la nube. No obstante, el 41 % no ha adaptado aún sus pipelines de CI/CD o DevSecOps, un paso considerado esencial para la consolidación de proyectos a gran escala. Entre quienes sí han avanzado en este terreno, un 28 % ha extendido los pipelines para la gestión de modelos y un 24% ha añadido pasos vinculados a servicios de inferencia.
El informe señala además que, aunque el modelo en la nube es predominante, lo híbrido y lo on-premise continúan vigentes. Un 16 % de las compañías ha optado por un enfoque mixto y un 9 % mantiene cargas de GPU en sus propios centros de datos, lo que demuestra que la necesidad de opciones flexibles de despliegue sigue presente.
Otro de los grandes retos identificados es la ausencia de estandarización. Más de la mitad de los encuestados considera imprescindible contar con plantillas y blueprints de infraestructura para garantizar una adopción segura y escalable. A ello se suma una carencia de colaboración entre los equipos: casi un tercio afirma tener relación limitada con los departamentos de Data Science, y un 16 % reconoce no tener ninguna, lo que pone de relieve barreras culturales y operativas aún no superadas.
“Adopción masiva, pero más experimental que estratégica”
Luca Galante, colaborador principal de la comunidad Platform Engineering, destacó que “no habíamos visto tasas de adopción como estas para una nueva tecnología desde los años noventa; es realmente impresionante. Pero la realidad es que la mayoría de los usos actuales de la IA en las empresas siguen siendo más experimentales que estratégicos”.
En la misma línea, Kevin Cochrane, CMO de Vultr, señaló que “Los ingenieros de plataformas se están convirtiendo rápidamente en el eje de la adopción de la IA en las empresas. Pero el impulso por sí solo no basta. Los equipos necesitan rutas claras y una infraestructura AI-first que garantice cargas de trabajo seguras, repetibles y escalables”.
Hacia un impacto empresarial real
La compañía tecnológica asegura que sus soluciones permiten a los equipos superar la actual “meseta en la implementación de la IA”. Con instancias de GPU desplegables en minutos, orquestación global y arquitecturas componibles para MLOps avanzados, Vultr se presenta como un aliado para transformar la experimentación en resultados medibles y sostenibles a escala global.











