Vivimos en tiempos rápidos. Tan rápidos, de hecho, que un reciente estudio de Google mostraba que más de la mitad de los usuarios abandonarán un sitio web si tarda más de tres segundos en cargarse. Cualquier negocio online sabe que si su sitio web se cae, los usuarios simplemente se irán a la competencia y obtendrán el producto o servicio que desean en otro lugar.
Este rápido ritmo de los negocios es exactamente lo que impulsa la revolución en las arquitecturas de TI. El disaster recovery, tal como la entendemos en la actualidad, está muerto. Cualquier proceso que tarde horas en recuperar la información es, sencillamente, inaceptable.
Tradicionalmente, la mayoría de las empresas se han “blindado” a través de soluciones de disaster recovery, pero estas se han mostrado ineficientes por el tiempo que se puede tardar en recuperar los servicios del negocio. Esto, a su vez, ha llevado a un cambio esencial en la forma en que los datos se almacenan y se distribuyen geográficamente. Dada esta situación, las organizaciones deben evolucionar hacia una infraestructura de datos que pueda soportar la recuperación en tiempo real sin agregar más capas de infraestructura.
Por qué los datos non-stop son el inicio del crecimiento del negocio
Tal vez no sea una gran sorpresa, pero una reciente encuesta de Gartner sobre prioridades de negocio revelaba que los negocios digitales son una prioridad para el año que comienza. La consultora preguntaba a los encuestados si contaban ya con una iniciativa de transformación para hacer su negocio más digital, y una amplia mayoría (el 62%) contestó que sí. Según Gartner, “el futuro de las infraestructuras de TI ha de estar siempre activo, siempre disponible, y en todas partes».
Parece que en 2019 (y más allá) las empresas aprenderán a evolucionar y serán cada vez más ágiles como resultado de su interacción digital con los clientes, como también aumentará su confianza en la disponibilidad de datos en tiempo real. El uso de las nuevas tecnologías para ayudar a competir de manera más eficiente y no ser “víctima de la inercia” es de suma importancia. A medida que las empresas se vuelven más dependientes del análisis de datos y se enfrentan a una competencia impulsada por una sociedad basada en la gratificación instantánea, conceptos como Always On se convierten en un apartado crítico.
El “lado oscuro” de la transformación digital
Nos hemos convertido en dependientes de las TI para gestionar nuestros negocios. Tanto es así, que los arquitectos de infraestructuras están focalizados en la construcción de infraestructuras de datos «Always On» para dar soporte a una empresa que opera sin paradas. Sin embargo, la transición del disaster recovery a Always On no está exenta de problemas.
Las organizaciones están luchando con soluciones tradicionales que emplean arquitecturas Always On dedicadas (por ejemplo, gateways de alta disponibilidad) y que complican la gestión y aumentan el coste total de propiedad (TCO). La solución óptima está en buscar tecnologías que permitan a las organizaciones proteger más aplicaciones sin incremento de coste. También se debe considerar cómo simplificar y configurar la gestión de los datos al tiempo que se reduce la latencia.
El TCO debe incorporarse a cualquier estrategia Always On desde el principio. De lo contrario, las empresas pueden quedar atrapadas en un plan costoso e insostenible. El acceso ininterrumpido a los datos aumenta la reputación de la empresa, pero es la capacidad de moverse rápidamente y adoptar nuevos productos y servicios lo que genera el crecimiento del negocio.
¿Sigue siendo la lealtad algo clave para el éxito?
Sí, pero los consumidores están cambiando. Y no es barato captarlos. Según la consultora Profit Well, en los últimos cinco años, el coste de adquisición de nuevos clientes ha aumentado casi en un 50 %. Trabajar más duro para retener a los clientes tiene tanto sentido comercial como estratégico.
Las expectativas hoy son más altas que nunca antes. Salesforce reveló recientemente que «el 92 % de los clientes piensan que la experiencia que les brinda una marca es tan importante como el producto o servicio que ésta ofrece». Adoptar la tecnología correcta es crucial. Si los sistemas y aplicaciones no están ininterrumpidamente disponibles, la fidelidad estará siempre amenazada.
El mercado actual exige enfoques más inteligentes para mantener a los clientes satisfechos. Asegurar que un servicio esté siempre activo se convierte en la clave última.
Cinco buenas prácticas Always On
Elimine la complejidad de las TI: Hoy en día, la mayoría de las empresas utilizan soluciones puntuales, dedicadas (gateways de alta disponibilidad, o HA) con funciones, herramientas de administración y requisitos de monitorización diferentes. Esto agrega complejidad tanto a la operativa como a los procesos de automatización. Las empresas harían bien en buscar una solución integrada que combine el almacenamiento y las capacidades Always On
Reduzca los costes: los gateways HA son costosos y, a menudo, su precio va en función de la capacidad. Esto obliga a las organizaciones a minimizar el número de aplicaciones que se benefician de sus prestaciones Always On. El coste es aún mayor cuando la solución HA requiere Fibre Channel entre sitios.
Rendimiento constante, en cualquier lugar: las operaciones síncronas a lo largo de dos sistemas de almacenamiento en dos ubicaciones aumentan la latencia, lo que hace que sean más difíciles de adoptar con determinadas aplicaciones. En el caso de las implementaciones a larga distancia, enviar una operación de escritura al array local y otro al remoto duplicará la latencia, generándose una mala experiencia de usuario. A menudo esto es resultado de una mala configuración, y se puede corregir simplificando y automatizando la configuración para permitir que los hosts diferencien las rutas que deben usar todo el tiempo de las que solo deben utilizar en caso de fallo, lo que minimiza el impacto en el rendimiento permitiendo una adopción más amplia.
Funcionalidades variables: Lo cierto es que las soluciones que se autodenominan “Always On” varían notablemente en funcionalidad. Algunas ofrecen una copia read-only en uno de los sitios y fail-over automatizado, pero otras arrojan graves penalizaciones de rendimiento cuando envían escrituras a la copia secundaria. En este segundo caso, al tratar ambas copias por igual, la penalización es mínima o inexistente, ya que los hosts pueden escribir en ambas caras (copias realmente activas) sin ningún proceso de fail-over.
Fiabilidad: como cualquier solución distribuida geográficamente, los clusters Always On requieren una forma de «romper el vínculo» en caso de un fallo de comunicación entre los sistemas. En última instancia, las empresas deben implementar un “testigo”, un tercer dominio con networking redundante con cada sitio, para el caso de que los dos sistemas no puedan comunicar directamente.
No todas las infraestructuras son iguales. Aquellas que ayudan a retener a los clientes garantizando el funcionamiento y el rendimiento seguramente estarán por delante de las demás en cualquier checklist corporativa. Sin una infraestructura moderna, no es posible desplegar un negocio moderno. Y está claro que el disaster recovery, tal como lo conocemos, tiene los días contados.
Eran Brown
CTO, EMEA de Infinidat