El espacio de almacenamiento debe estar diseñado y distribuido de acuerdo a las necesidades de los servidores para evitar posibles colapsos. Admitimos que hoy en día el primer objetivo de la virtualización es el de estabilizar la inflación de los gastos informáticos: ¡Optimizar las actividades con el mismo presupuesto! Esto quiere decir que hay que optimizar los servicios prestados a los usuarios incluyendo la notable mejora de los entornos de desarrollo y de preproducción. El otro activo principal de las tecnologías de virtualización es el de ofrecer, de forma sencilla y sin impactar en la producción, gran cantidad de operaciones como la migración o la clonación de servidores, la simulación de incidentes o la sustitución de componentes físicos o de operaciones de mantenimiento. Además, para atender los objetivos legítimos a través de una infraestructura de calidad, conviene comenzar con unas bases adecuadas.
En primer lugar, hay que cartografiar el sistema de información. Una auditoría completa de los servidores permite agruparlos en términos de tipología y de procesos. Este inventario inicial evita unificar las futuras máquinas virtuales (VM) que serían incompatibles debido a la ejecución de tareas simultáneas o de protección. La asignación meticulosa de las VM es una primera medida vital para prevenir mensajes de error o problemas de rendimiento. En segundo lugar, debemos tener en cuenta la distribución del almacenamiento. Repartido entre todos los nodos de la infraestructura virtualizada, el almacenamiento debe estar diseñado y distribuido de acuerdo al tráfico de da- tos generado por los diferentes servidores para evitar provocar colapso. ¿Qué máquinas virtuales utilizarán simultáneamente el mismo volumen de almacena- miento? ¿Cómo colocar las VM en las diferentes redes virtuales que se han creado? Esto evita caídas de rendimiento repentinas. Por otra parte, el ahorro también debe llevarse a cabo sin agentes. Gracias a la aparición de la virtualización las soluciones de protección sin agentes aportan una rapidez de ejecución y una fiabilidad mayor. Se basan en los snapshots generados por el hipervisor. Estos mecanismos de snapshots provocan gran cantidad de I/O, por lo que el sistema de almacenamiento debe estar adaptado a estos picos de actividad preservando en todo momento la ejecución de las aplicaciones en curso. En un contexto de ahorro sin agentes, el API (interfaz de programación de aplicaciones) del hipervisor, gestiona el acceso a los recursos asignados para todas las máquinas virtuales. A la inversa, las soluciones tradicionales de protección con agentes crean riesgos de contención, cada VM se comporta como si los recursos propios de cada una de ellas estuvieran asignados. La infraestructura también debe estar dirigida a una recuperación granular.
Numerosas herramientas de trabajo a nivel de la VM se limitan a la restauración de éstas o a la restauración de archivos dentro de las máquinas virtuales para sistemas de ficheros importantes. Sería una pena renunciar a soluciones modernas de protección de datos, que aprovechan al máximo la tecnología de virtualización, para ser capaz de cubrir la restauración de todos los sistemas de ficheros, así como restauración de items de aplicación para la mayoría de aplicaciones virtualizadas. Más allá de la granularidad, esta solución debería permitir reducir al máximo el RTO (Recovery Time Objective) así como la recuperación inmediata de las VM.
Finalmente, hay que atreverse con un plan de disaster recovery. La virtualización facilita la definición de un plan de disaster recovery involucrando tres copias de seguridad, una principal y dos de protección . En el caso de transferir una copia de seguridad o réplica a un sitio remoto, o a la nube a través de una red WAN, es necesario disponer de los enlaces entre sitios. Éstos, también pueden ser optimizados a través de la deduplicación y compresión de datos. Además, las funciones de pruebas automatizadas garantizan posteriormente que las copias de seguridad, y las réplicas, sean de calidad y se pueda lanzar con confianza a un plan de disaster recovery, en vez de provocar el cese de la actividad que implicaría la restauración total de un array de almacenamiento, o la parada de un centro de datos por mantenimiento eléctrico.
[button link=»» icon=»9998″ target=»» color=»000000″ textcolor=»ffffff» size=»small»]Alexis de Pablos, director técnico para Iberia de Veeam Software[/button]