sábado, diciembre 5, 2020
Inicio Noticias Gestión de datos en 2020: ocho variables fundamentales

Gestión de datos en 2020: ocho variables fundamentales

0
217
gestion-de-datos-directortic-madrid-españa

2019 fue un año irregular para el mercado del almacenamiento empresarial. Según datos de IDC, se produjo una ligera disminución en el gasto en sistemas de este tipo durante la primera mitad del año, mientras que el tercer trimestre deparó un incremento del 1,3 %. Pero muchos analistas creen que esto podría cambiar en 2020. Forrester, por ejemplo, considera que el próximo será un año clave para las estrategias de gestión de datos, y señala que “las empresas saben que esto lo tienen que hacer bien, y van a duplicar o triplicar sus presupuestos en estrategia de datos para superar a sus competidores». Gartner, por su parte, vaticina un crecimiento del 3,7 % para este mercado durante este año.

En definitiva, los analistas esperan en 2020 un mercado de almacenamiento más fuerte que en 2019. Las tendencias clave que han estado dando forma al mercado durante años continuarán, y otras nuevas llegarán. A continuación se detallan algunas de las principales.

Mundo cloud: vuelta al modelo híbrido

El almacenamiento en la nube sigue siendo muy importante, pero el panorama está cambiando; los crecientes costes de la nube pública y las dificultades con la propia gestión de costes están llevando a algunas empresas a retroceder hacia un modelo de almacenamiento más híbrido. En su informe “Data Storage Predictions for 2020”, ESG (Enterprise Strategy Group) señala que la mayoría de las empresas trasladaron al menos una carga de trabajo de la nube a las instalaciones durante 2019.

La percepción de que al final todas las TI estarán en la nube pública empiezan a desvanecerse. La infraestructura de nube híbrida es el estándar de facto de la TI moderna. En otras palabras, la infraestructura local será una parte cada vez más importante de las TI a lo largo de 2020.

El software, cada vez más importante

Durante los últimos años, las infraestructuras de TI se han ido volviendo más y más definidas por software. Una de los últimas referencias sobre este ámbito es el informe “SDS Market Analysis, Trends, and Forecasts” de la consultora Research and Markets, según la cual el mercado de almacenamiento definido por software experimentará un crecimiento del 35.8 % durante los próximos seis años, hasta colocarse cerca de los 40.000 millones de dólares.

Uno de los principales drivers para esta tendencia del “todo definido por software” serán los entornos de nube híbrida. Todavía se requerirá hardware, pero éste podrá ubicarse en cualquier lugar, mientras que el software coordinará cada vez más la creciente complejidad de las TI.

Gestión automatizada de datosgestion-de-datos-directortic-madrid-españa

En su informe “Top 10 Data and Analytics Trends”, Gartner señala que, con la escasez de skills técnicos en este ámbito, las organizaciones necesitan automatizar la gestión de sus datos. Por su parte, los fabricantes van agregando capacidades de machine learning e inteligencia artificial para hacer que los procesos de gestión de datos sean auto-configurables y autoajustables, de forma que el personal técnico más cualificado pueda concentrarse en tareas de mayor valor.

En 2020, la IA se convertirá en más que un conjunto de cargas de trabajo exigentes; se convertirá en una tecnología fundamental en la construcción de infraestructuras híbridas inteligentes en la nube. Pero esto requerirá sistemas inteligentes de almacenamiento que puedan satisfacer las necesidades de rendimiento y capacidad de estos sistemas de negocio basados en estas soluciones.

Seguridad, aspecto clave

Se espera que el gasto en seguridad de infraestructuras de almacenamiento (especialmente, seguridad del almacenamiento en la nube) continúe aumentando en 2020. Según datos de Gartner, el gasto total en seguridad aumentó un 10,5 % en 2019, y estima que el gasto en concreto en seguridad en la nube crecerá más de un 40 % en los próximos cinco años.

Una tendencia relacionada creciente es la demanda de datos fiables. Los gestores se enfrentan a una creciente necesidad de demostrar no solo que sus datos son seguros, sino también que son fiables, esto es, que se han recopilado, almacenado y procesado con integridad y responsabilidad. En 2020, esto será llevado al extremo, por la alarma social que causan las brechas de datos y la cada vez mayor regulación de este apartado.

Del tiempo de backup al tiempo de recuperación como referencia

Si bien los tiempos de backup suelen estar optimizados, las organizaciones actuales luchan sobre todo por acelerar el tiempo de recuperación. Ante un ataque de ransomware, por ejemplo, la experiencia del cliente se verá afectada mientras espera a que la recuperación se complete. Este es un reto cada vez mayor para los CIO, ya que ninguna organización puede permitirse esperar varias horas para recuperar su operatividad (según un reciente estudio de Google, más del 50% de los usuarios abandonarán un sitio web si tarda más de 3 segundos en cargarse).

Reducción del coste por TB

Un aspecto especialmente importante en mercados como el nuestro. Optimizar la infraestructura de almacenamiento no significa cambiar a medios más costosos, sino a la arquitectura correcta. Cabe recordar, en este sentido, el duro golpe que supuso para muchos CIOs darse cuenta de que, ante la necesidad de cifrar los datos de extremo a extremo para cumplir con el RGPD, el coste de sus medios All-Flash subiría hasta convertirlo en una opción descartable.

La reducción en el coste por Terabyte se ha convertido en el caballo de batalla, y así seguirá siendo en 2020. Y, en este sentido, han surgido en el mercado nuevas propuestas que tratan de hacer frente a este reto con arquitecturas modernas y más eficientes que permiten aprovechar lo mejor de los medios (disco, DRAM, flash…) a gran escala, con un coste por Terabyte mucho menor.

Nuevos modelos de adquisición

Otra tendencia sobre la que venimos apreciando un interés creciente en nuestro país. Y es que, si el crecimiento de la infraestructura de almacenamiento requiere adquirir, instalar y configurar nuevo hardware, otros criterios básicos, como la elasticidad, pueden quedar seriamente dañados.

En 2020 veremos la eclosión de nuevas tendencias como el modelos Capacity on Demand (COD), con el que la infraestructura puede crecer en cuestión de segundos, permitiendo iniciar el servicio de negocio correspondiente y después pagar por la ampliación. De este modo, el time-to-market no se verá limitado por la infraestructura de datos.

Tendencias de futuro: ¿será 2020 el año de su explosión?

Junto con todas estas tendencias, podemos hablar de otras que se vislumbran en el horizonte, pero cuya cristalización se prevé más a largo plazo. Analítica aumentada, inteligencia artificial en tiempo real, robótica, blockchain, Internet de las cosas… IDC, en su informe “ICT Spending Forecast 2018-2022”, asegura que «una parte cada vez mayor del gasto en servidores y almacenamiento se está destinando al despliegue de estas nuevas tecnologías de back-end».

Pase lo que pase, desde Infinidat compartimos el criterio de Gartner de que los responsables de gestión de datos deben buscar, experimentar o implementar nuevas tecnologías de forma activa, no limitarse a reaccionar ante las tendencias a medida que éstas maduran. Como declaraba recientemente uno de sus prestigiosos analistas, “siendo proactivos, los responsables de TI pueden hacer que el almacenamiento deje de ser un centro de costes para convertirse en una ventaja competitiva para la empresa”.

Israel Serrano

Country manager de Infinidat en España