Gestión de datos
Los datos han cambiado el mundo actual de forma drástica. Todos los procesos, ya sean las interacciones con clientes externos como las tareas internas de los empleados, dejan un rastro de datos a su paso.
Los datos generados por las máquinas y los humanos crecen diez veces más rápido que los datos tradicionales de negocios y, en comparación con estos últimos, los datos generados por máquinas crecen cincuenta veces más. Dado que el modo en el que consumimos e interactuamos con los datos cambia a diario, también contamos con un número considerable de innovaciones para mejorar la agilidad de las empresas y su eficacia operacional. En este entorno, resulta fundamental para las empresas entender la demanda de gestión inteligente de datos para así poder mantenerse un paso por delante y ofrecer servicios mejorados a los clientes.
Con el mercado EMEA en mente, he destacado las siguientes 5 tendencias relevantes que los responsables de la toma de decisiones deben conocer de cara a 2019:
Aumentará el uso y aprovechamiento en entornos multi-cloud.
Un informe de McKinsey & Company ha mostrado que el flujo de datos a Asia es hasta 45 veces mayor que en 2005. Los datos de regiones clave como Norteamérica y Europa han crecido de manera considerable pasando de 5.000 a 20.000 Gbps y de 1.000 a 5.000 Gbps respectivamente, partiendo de las cifras originales de 100-500 Gbps y menos de 50 Gbps en 2005. Con empresas que operan más allá de sus fronteras y siendo más dependientes de la tecnología que nunca, resulta prácticamente inevitable la ampliación del uso del entorno multi-cloud. IDC estima que los clientes gastarán 554.000 millones de dólares en informática en la nube y servicios relacionados en 2021, más del doble que en 2016. Los datos y aplicaciones onpremises no se quedarán obsoletos, pero aumentarán los modelos de despliegue de los datos mezclando cada vez más la opción onpremise(dacenter propio), software como servicio (SaaS), infraestructura como servicio (IaaS), nubes gestionadas y nubes privadas.
Con el tiempo, esperamos que una mayor parte de la carga de trabajo salga de las instalaciones, no obstante, esta transición se realizará a lo largo de varios años y creemos que es importante estar preparados hoy para hacer frente a esta nueva realidad.
La escasez de suministro de memoria flash y los precios mejorarán en 2019.
De acuerdo con un informe de Gartner de octubre de este año, se espera que vuelva a haber un ligero problema de desabastecimiento en el suministro de memoria flash a mediados de 2019 y que los precios se estabilicen en gran medida gracias al incremento de la producción de memoria en China. Un mayor suministro y una mejora en la fijación de precios supondrán que se utilizará más el despliegue flash en el ámbito dela recuperación operativa, donde normalmente se alojan los catorce días más recientes de backup y de datos de replicación. En nuestra opinión, esta mayor capacidad flash dará como resultado un uso creciente del montaje instantáneo de imágenes de máquinas de backup (o gestión de datos de copia).
Los sistemas que ofrecen la función de gestión de datos de copia (CDM) podrán aportar valor más allá de la disponibilidad, además de mejores resultados comerciales. Algunos de los ejemplos prácticos de uso para aprovechar el backup y los datos de replicación son: DevOps, DevSecOps y DevTest, PatchTesting, AnalyticsyReporting (prueba, análisis y generación de informes de parches).
El análisis predictivo se convertirá en algo generalizado y en la norma.
Las previsiones indican que el mercado del análisis predictivo alcanzará los 12.410 millones de dólares en 2022, lo que supondrá un incremento del 272 % desde 2017, con una tasa de crecimiento anual compuesto del 22,1 %. En concreto, se espera que el mercado Asia-Pacífico (APAC) registre la mayor tasa de crecimiento anual compuestodurante el periodo de esta previsión.
El análisis predictivo basado en datos de telemetría, esencialmente asesoramiento y recomendaciones impulsadas por el aprendizaje automático (ML o machine learning), es una de las categorías que seguramente se convierta en algo generalizado y en la norma.
Las previsiones del aprendizaje automático no son nada nuevo, pero empezaremos a ver que usa firmas y huellas dactilares, que contiene configuraciones y políticas de mejores prácticas que permitirán a las empresas obtener un mayor valor de la infraestructura que se ha implantado y de la que son responsables.
El análisis predictivo, o diagnóstico, nos ayudará a garantizar la continuidad de las operaciones, al tiempo que reduce la carga administrativa que supone mantener los sistemas optimizados. Esta función se convertirá en algo fundamental a medida que se pida a las empresas TI que gestionen un entorno cada vez más diverso, con más datos y objetivos de nivel de servicio más estrictos.
Ahora que el análisis predictivo se está convirtiendo en algo más generalizado, los contratos de nivel de servicios (SLA) y los objetivos de niveles de servicio de recuperación (SLO) aumentarán y las expectativas de niveles de servicio (SLE) serán incluso mayores. Esto significa que necesitaremos más ayuda, más inteligencia, para poder ofrecer lo que esperan las empresas de nosotros.
La función “versátil” (o generalista) se convertirá en el nuevo modelo operativo para la mayoría de las empresas TI.
Si bien las dos primeras tendencias se centraban en aspectos tecnológicos, el futuro de lo digital sigue siendo analógico: la gente. Si juntamos la escasez de talento con infraestructura nueva y al borde del colapso onpremises, la nube pública + software como servicio (SaaS), nos encontraremos con que se necesitan especialistas con experiencia en una amplia serie de disciplinas, que además tienen que conocer mejor el negocio. Por ejemplo, el mercado de trabajo de la tecnología de la información (TI) en Singapur sigue registrando altos niveles de contratación.
La estandarización, organización y automatización son factores que contribuyen a su aceleración, dado que sistemas más capaces permitirán a los admistradores adoptar un punto de vista más horizontal en lugar de centrarse en una única especialización extrema. Por supuesto que la especialización seguirá siendo importante, pero a medida que TI pase a ser cada vez más fundamental en relación con los resultados comerciales, es lógico pensar que el talento TI tendrá que conocer la totalidad del negocio de la empresa para poder aportar valor en diversos ámbitos TI.
Sin embargo, aunque veremos como estas tendencias plantean retos para el statu quo el año que viene, algunas cosas no van a cambiar. Siempre existen constantes en el mundo y hemos identificado dos factores principales que se mantendrán como prioridades para las empresas de todo el mundo…
La frustración con los enfoques y soluciones de backup tradicional.
Los tres proveedores principales en el sector seguirán perdiendo cuota de mercado en 2019. De hecho, el mayor proveedor en el sector lleva perdiendo cuota de mercado desde hace diez años. Las empresas están dejando de lado a los proveedores tradicionales y prefieren opciones más ágiles, disruptivas y dinámicas, como Veeam, que les ofrezcan las funciones que necesitan para crecer en la era impulsada por los datos. Un informe de Cognizant destacó que el 82 % de los líderes de empresas en el mercado Asia-Pacífico (APAC) cree que el futuro del trabajo radica en las máquinas inteligentes.
Los puntos críticos de las tres C: Coste, complejidad y capacidad
Estas tres C siguen siendo el motivo por el que los que trabajan con data centers no están contentos con las soluciones de otros proveedores. En líneas generales, los costes son excesivos, es innecesariamente complejo y carece de capacidad suficiente, lo que afecta a la velocidad del backup, de la restauración o al montaje instantáneo a una imagen de máquina virtual. Estos tres criterios clave seguirán siendo las principales razones por las que las empresas aumenten o reemplacen del todo sus soluciones de backup.
La llegada de las primeras redes 5G crearán nuevas oportunidades para que los distribuidores y los proveedores de servicios cloud (CSPs) puedan recopilar, gestionar, almacenar y procesar el mayor volumen posible de datos.
A principios de 2019 seremos testigos de la llegada al mercado de los primeros terminales 5G en el CES en Estados Unidos y en el MWC en Barcelona. Creo que la 5G será adoptada rápidamente para la comunicación máquina a máquina y para la tecnología de Internet de las cosas (IoT). La red móvil de consumo ha llegado a un punto en el que es probable que la velocidad 4G ya sea suficientemente rápida como para satisfacer las necesidades de la mayoría de los consumidores.
2019 se centrará más en la estandarización y testeo generalizado de la tecnología, en dispositivos pensados para el futuro capaces de garantizar que son compatibles con la tecnología cuando esté disponible y en Europa convertida en una auténtica “Sociedad Gigabit”.
Los distribuidores y los proveedores de servicios cloud (CSPs) disfrutarán de la llegada de nuevas oportunidades de ingresos al poder aprovechar la 5G o la infraestructura necesaria para darle soporte. Procesar estos grandes volúmenes de datos en tiempo real, a una mayor velocidad, con nuevos requisitos de hardware y dispositivos, así como nuevas aplicaciones para la gestión de datos supondrán oportunidades y ayudará a facilitar las conversaciones sobre edge computing.
Fuente : cepymenews