Cuando las empresas hablan de tecnología (y se habla mucho habida cuenta de la dependencia brutal que el negocio tiene de ella), las vertientes desde las que se aborda el debate son diversas. Así, y sólo como ejemplo, se puede hablar de tendencias tecnológicas, aunque muchas veces sean efímeras, de las ventajas competitivas y el valor que aportan, a pesar de su difícil medición, de la digitalización, de nuevos procesos de negocios o de nuevos productos y servicios.
Sin duda, todos estos conceptos son muy importantes, sí, pero en este debate hay que valorar dos factores, a veces no tenidos en cuenta. El primero, que las empresas suelen ser bastante conservadoras a la hora de adoptar tecnología y, el segundo, que existe algo llamado cuenta de explotación que es, en definitiva, lo que importa. Dicho esto, y si queremos acertar, lo mejor es agregar al debate a un nuevo actor: el rendimiento.
Por ello, y si nos centramos en el negocio, en la cuenta de explotación y en el impacto real que la tecnología tiene o puede llegar a tener en la organización, hay un dilema a veces difícil de dilucidar, pero no imposible: saber si las infraestructuras tecnológicas de las que ya disponemos funcionan adecuadamente y a pleno rendimiento, tanto desde un punto de vista técnico, como de soporte al negocio. Inevitablemente, esto implica hablar de las aplicaciones que sustentan nuestra actividad.
Cuando hablamos del gasto en tecnología de grandes organizaciones, y sin entrar en estadísticas detalladas, hemos de pensar que entre un 30% y 40% de esta partida se va en desarrollo y mantenimiento de aplicaciones, y entre el 15% y el 25% en infraestructuras tecnológicas. La diferencia de estos porcentajes reside en que habitualmente las infraestructuras están bien configuradas, ya que hay una fuerte industria de fabricantes alrededor.
Sin embargo, y si nos centramos en qué ocurre con las aplicaciones que corren sobre estas infraestructuras, ineludiblemente, hemos de hacerlo en su rendimiento. Dicho con otras palabras, en determinar si funcionan bien o si se explotan adecuadamente las capacidades del hardware y del software de base. Este es el quid de la cuestión, ya que el desarrollo y el mantenimiento de las aplicaciones, además de implicar un coste importante, está normalmente externalizado, minando así la capacidad de control de las empresas sobre él.
Los tres puntos cardinales del rendimiento
El rendimiento de una aplicación sólo tiene tres puntos cardinales: el coste, el tiempo de respuesta y el cumplimiento de los acuerdos de nivel de servicio, conocidos como SLA o ANS.
Respecto al primero de ellos, los costes, la pregunta fundamental es si estamos haciendo funcionar nuestras aplicaciones con un consumo adecuado de nuestros recursos tecnológicos. La razón de esta pregunta es bien sencilla, el coste de los recursos es muy alto, sea cual sea el entorno tecnológico del que estemos hablando, y un funcionamiento adecuado de nuestras aplicaciones puede contribuir a una reducción de ese coste de entre un 10% y un 20%, dependiendo de en qué sectores y con qué arquitecturas tecnológicas.
Respecto al tiempo de respuesta, sólo baste con decir, a modo de ejemplo, que el sector bancario mantiene actualmente un ritmo de crecimiento anual de sus transacciones digitales del 30%. Esta ratio es de la banca, pero pensemos en los nuevos hábitos de consumo o en la necesidad de digitalización de prácticamente todas las actividades empresariales. Sin embargo, a pesar de las inversiones, los tiempos de respuesta en muchas organizaciones no hacen sino elevarse y ello implica un alto riesgo para el negocio.
Finalmente, y respecto al cumplimiento de los ANS, tanto internos como externos, es asombroso evidenciar que, en el entorno bancario y según nuestra experiencia, un 20% de estos acuerdos se incumplen, lo que en un mundo cada vez más interconectado puede provocar que muchas empresas se encuentren a veces en situaciones difíciles, en términos de negocio.
Medir cómo funcionan las aplicaciones y solventar rápidamente los problemas que generan tiene, además, otro efecto beneficioso y es que podremos reducir entre un 10% y un 20%, los costes de desarrollo y mantenimiento en los contratos con los proveedores. Si a ello sumamos los ahorros de consumo de recursos que mencionábamos anteriormente, la suma total no esta nada mal, máxime cuando los errores en el software siguen inexorablemente la ley de Pareto: muy pocas topologías de problemas (llamémoslas “malas praxis”) generan la mayor parte de los problemas.
La conclusión es que medir cómo funciona el software y los errores que genera nos permite mejorar la gestión de los proveedores y generar así mismo un ciclo de mejora continua de la calidad partiendo desde el final, desde la medición de los problemas, y no al contrario, como es habitual afrontarlo. Por lo tanto, hagámoslo. La digitalización y el negocio exigen ser rigurosos en la medición e identificación de los problemas, y esto ya hemos visto que es más acertado que, simplemente, ir a la moda.
Ángel Pineda
CEO de Orizon