Almacenamiento en 2020: 5 tecnologías disruptivas

0
110

Durante décadas, el progreso de la tecnología de almacenamiento se ha medido principalmente en términos de capacidad y velocidad. Ya no más. En los últimos tiempos, estos puntos de referencia firmes han sido aumentados, e incluso superados, por nuevas y sofisticadas tecnologías y metodologías que hacen que el almacenamiento sea más inteligente, más flexible y más fácil de gestionar.

El año que viene promete causar aún más trastornos en el mercado de almacenamiento, que antes era muy estable, ya que los líderes de TI buscan formas más eficientes de hacer frente al tsunami de datos generado por la inteligencia artificial, los dispositivos de Internet de las cosas (IoT, por sus siglas en inglés) y muchas otras fuentes. A continuación, le presentamos las cinco tecnologías de almacenamiento que crearán la mayor disrupción en el 2020, a medida que la adopción empresarial gane terreno.

Almacenamiento definido por software
Atraídas por los atractivos de la automatización, la flexibilidad, el aumento de la capacidad de almacenamiento y la mejora de la eficiencia del personal, un número cada vez mayor de empresas está considerando una transición hacia el almacenamiento definido por software (SDS, por sus siglas en inglés).

SDS separa los recursos de almacenamiento de su hardware subyacente. A diferencia de los sistemas convencionales de almacenamiento en red (NAS) o de red de área de almacenamiento (SAN), SDS está diseñado para funcionar en cualquier sistema x86 estándar de la industria. Los usuarios de SDS se benefician de interacciones más inteligentes entre las cargas de trabajo y el almacenamiento, un consumo de almacenamiento ágil y escalabilidad en tiempo real.

«Las tecnologías SDS virtualizan los recursos de almacenamiento disponibles, a la vez que proporcionan una interfaz de gestión de almacenamiento simplificada que representa diferentes pools de almacenamiento como un recurso de almacenamiento unificado», explica Cindy LaChapelle, consultora principal de la empresa de investigación tecnológica y consultoría ISG.

SDS ofrece abstracción, movilidad, virtualización y gestión, y optimización de recursos de almacenamiento. La tecnología también requiere que los gerentes cambien su visión del hardware como el elemento de almacenamiento empresarial más importante, a la de un actor de soporte menos crítico. En el 2020, los administradores utilizarán las existencias para el despliegue estratégico por diversas razones.

«A menudo, el objetivo es mejorar los gastos operativos (OpEx) requiriendo menos esfuerzo administrativo», señala LaChapelle. Las tecnologías de unidades de estado sólido (SSD) están cambiando la forma en que las organizaciones utilizan y gestionan sus necesidades de almacenamiento, convirtiéndolas en los principales candidatos para una transición a SDS. «Estas tecnologías proporcionan a las organizaciones un mayor control y configurabilidad para permitir el nivel adecuado de rendimiento y capacidad, a la vez que optimizan la utilización y controlan los costos».

La selección del enfoque menos perturbador de las existencias para el despliegue estratégico requiere una comprensión clara y completa de los requisitos de las aplicaciones en materia de capacidad y rendimiento. Los posibles adoptantes también necesitan evaluar honestamente la capacidad de sus organizaciones para gestionar un entorno de SDS. Dependiendo del nivel de experiencia interna, un dispositivo SDS con software y hardware preempaquetados suele ofrecer el mejor curso de adopción.

NVMe/NVMe-oF
Los primeros dispositivos de almacenamiento flash se conectaban a través de SATA o SAS, interfaces heredadas que se desarrollaron hace décadas para unidades de disco duro (HDD). NVMe (Non-Volatile Memory Express), que se ejecuta en la parte superior de la capa Peripheral Component Interconnect Express (PCIe), es un protocolo de comunicaciones mucho más potente, dirigido específicamente a sistemas de almacenamiento flash de alta velocidad.

Compatible con comandos de baja latencia y colas paralelas, NVMe está diseñado para aprovechar el rendimiento de las unidades SSD de gama alta.

«No solo ofrece un rendimiento significativamente más alto y latencias más bajas para las aplicaciones existentes que los protocolos heredados, sino que también permite nuevas capacidades para el procesamiento de datos en tiempo real en el centro de datos, la nube y los entornos de borde», comenta Yan Huang, profesor asistente de tecnologías empresariales en la Tepper School of Business de la Universidad Carnegie Mellon. «Estas capacidades pueden ayudar a las empresas a diferenciarse de la competencia en el gran entorno de datos». NVMe es especialmente valioso para empresas basadas en datos, especialmente para aquellas que requieren análisis de datos en tiempo real o que se basan en tecnologías emergentes.

El protocolo NVMe no se limita a la conexión de unidades flash; también puede servir como protocolo de red. La llegada de NVMe-oF (NVMe over Fabrics) permite ahora a las organizaciones crear una red de almacenamiento de muy alto rendimiento con latencias que compiten con el almacenamiento adjunto directo (DAS). Como resultado, los dispositivos flash pueden compartirse, cuando sea necesario, entre servidores.

Juntos, NVMe y NVMe-oF representan un salto adelante en términos de rendimiento y baja latencia en relación con sus predecesores, como SATA y SAS.

«Esto permite nuevas soluciones, aplicaciones y casos de uso que antes eran inalcanzables o de costo prohibitivo», anota Richard Elling, arquitecto principal del fabricante de almacenamiento Viking Enterprise Solutions.

La falta de robustez y madurez ha limitado hasta ahora la adopción de NVMe/NVMe-oF. «Con mejoras, como la recién anunciada NVMe sobre TCP, vemos que la adopción de nuevas aplicaciones y casos de uso se acelera drásticamente», señala Elling. «A pesar de experimentar un crecimiento modesto en este período de adopción temprana, ahora vemos que NVMe y NVMe-oF están dando sus primeros pasos y acelerando su despliegue en el 2020».

Almacenamiento computacional
El almacenamiento computacional, un enfoque que permite que se realice cierto procesamiento en la capa de almacenamiento, en lugar de en la memoria principal de la CPU del host, está atrayendo el interés de un número cada vez mayor de líderes de TI.

Las aplicaciones emergentes de IA e IoT requieren cantidades cada vez mayores de almacenamiento de alto rendimiento, así como recursos computacionales adicionales; sin embargo, el traslado de datos al procesador host es costoso e inherentemente ineficiente. «Debido a las unidades SSD de alto rendimiento, la tendencia de acercar las computadoras al almacenamiento, ha estado en marcha durante varios años», afirma Paul von-Stamwitz, arquitecto jefe de almacenamiento de la incubadora de tecnología Fujitsu Solutions Labs. Los observadores creen que el 2020 será el año en que el método entre finalmente en la corriente principal de TI.

El almacenamiento computacional puede utilizarse de varias maneras diferentes, «desde el uso de dispositivos edge pequeños para filtrar los datos antes de enviarlos a la nube, hasta matrices de almacenamiento que proporcionan clasificación de datos para bases de datos, pasando por sistemas de nivel de bastidor que transforman grandes conjuntos de datos para grandes aplicaciones de datos», explica von-Stamwitz.

NVMe y los contenedores son los principales habilitadores del almacenamiento computacional. «Por lo tanto, si aún no lo han hecho, los administradores de TI deberían planificar la transición a infraestructuras basadas en NVM y contenedores», aconseja von-Stamwitz. «Además, los gerentes pueden identificar las aplicaciones que podrían beneficiarse más de las mejoras en la eficiencia del almacenamiento computacional, y relacionarse con los proveedores adecuados», sugiere.

Memoria de storage-class
La adopción generalizada de la memoria storage-class (SCM) se ha pronosticado durante varios años, y el 2020 puede ser el año en que finalmente ocurra. Aunque los módulos de memoria Intel Optane, Toshiba XL-Flash y Samsung Z-SSD han estado disponibles durante algún tiempo, su impacto no ha sido exactamente devastador hasta ahora.

«La gran diferencia ahora es que Intel ha conseguido que su versión de módulo de memoria persistente Optane DCPMM funcione», señala Andy Watson, CTO del desarrollador de software de almacenamiento empresarial Weka.io. «Eso es un cambio de juego».

El dispositivo de Intel combina las características de una DRAM rápida pero volátil, con un almacenamiento NAND más lento pero persistente. Este combo de dos perforaciones tiene como objetivo aumentar la capacidad de los usuarios para trabajar con grandes conjuntos de datos, proporcionando tanto la velocidad de la DRAM como la capacidad y persistencia de NAND.

SCM no solo es más rápido que las alternativas de flash basadas en NAND, sino que se encuentra en el rango de mil veces más rápido. «Latencia de microsegundos, no de milisegundos», anota Watson. «Nos va a llevar algún tiempo entender lo que esto significará para nuestras aplicaciones y nuestra infraestructura», añade.

El hecho de que los centros de datos que planean adoptar SCM se limiten a la implementación en servidores que utilicen las CPUs Intel de última generación (Cascade Lake) amenaza con silenciar el impacto inmediato de la tecnología. «Pero el retorno de la inversión puede resultar tan irresistible que podría impulsar una ola de actualizaciones de los centros de datos para aprovechar las oportunidades que se presentan asociadas con este gran cambio», afirma Watson.

Gestión del almacenamiento basado en contenido
Sobre la base de las existencias para el despliegue estratégico y otras innovaciones recientes en materia de almacenamiento, se espera que la gestión del almacenamiento basada en la intención mejore la planificación, el diseño y la aplicación de las arquitecturas de almacenamiento en el 2020 y más adelante, en particular para las organizaciones que se enfrentan a entornos de misión crítica.

«Los enfoques basados en intenciones…. pueden ofrecer los mismos beneficios que hemos visto en las redes, como el rápido escalado, la agilidad operativa y la adopción de tecnología emergente, años antes, tanto para las aplicaciones existentes como para las nuevas», afirma Hal Woods, director de Tecnología de Datera, desarrollador de software de almacenamiento para empresas. Añade que el enfoque también puede comprimir el tiempo de implementación y el esfuerzo administrativo por orden de magnitud, en comparación con la administración del almacenamiento convencional, a la vez que es mucho menos propenso a los errores.

Con la gestión de almacenamiento basada en intenciones, un desarrollador que especifica un resultado deseado (por ejemplo, «Necesito un almacenamiento rápido») no se consume con los gastos administrativos generales y, por lo tanto, puede suministrar contenedores, microservicios o aplicaciones convencionales con mayor rapidez.

«Los operadores de infraestructura pueden entonces gestionar las necesidades de la aplicación y del desarrollador, incluyendo el rendimiento, la disponibilidad, la eficiencia y la colocación de datos, y permitir que la inteligencia del software optimice el entorno de datos para satisfacer las necesidades de la aplicación», indica Woods.

Además, con la gestión de almacenamiento basada en intenciones, un desarrollador puede simplemente ajustar las políticas de almacenamiento, en lugar de pasar días sintonizando manualmente cada array.

Un ciclo continuo y autónomo de despliegue, consumo, telemetría, análisis y tecnología SDS hacen posible el almacenamiento basado en intenciones. «El sistema SDS puede entonces emplear técnicas AI/ML para asegurar continuamente que se cumpla la intención especificada por el cliente, e incluso permitir que la intención se ajuste sin interrupciones a medida que el motor AI/ML proporciona información sobre la mejora del entorno del cliente», anota Woods.

El inconveniente de la gestión del almacenamiento basada en intenciones, como ocurre con cualquier tecnología disruptiva, es el obstáculo de la implementación frente al valor prometido. «El almacenamiento basado en contenido no es una tecnología única», señala Woods. «Ofrece el mayor valor en entornos desagregados, a escala, de misión crítica, en los que la velocidad del desarrollador y la agilidad operativa tendrán el mayor impacto en el negocio». Para entornos más pequeños y menos críticos, los enfoques como el almacenamiento conectado directamente o una infraestructura hiperconvertida suelen ser suficientes, afirma.

John Edwards, NetworkWorld.com