Otra tecnología de moda para el centro de datos. Otra tecnología destinada a revolucionar, una vez más, la forma de hacer las cosas en este entorno. Se trata de los sistemas hiperconvergentes, herederos de los convergentes que, a su vez, las capacidades de los “primitivos” blades. Más simplicidad, mejor gestión, más facilidad en su implantación… La lista de bondades es tan larga como suele ser la que presenta cualquier tecnología novedosa. Proveedores y canal se han puesto a ello y ya han empezado a desentrañar si será la que defina, al fin, cómo será el centro de datos del futuro. Al menos, hasta que surja la siguiente.
Ubicando la hiperconvergencia
La irrupción de los sistemas hiperconvergentes está proporcionando una nueva manera de entender los centros de datos. Su aparición viene a confirmar la penetración de la computación unificada (encarnada en los sistemas convergentes) frente a los antiguos modelos de los centros de datos complejos e inconexos en los que los distintos elementos —la computación, las redes, el acceso al almacenamiento y la virtualización— se encontraban ubicados en “silos”. “Son capaces de redefinir el concepto de agilidad y simplicidad ya que integran las tecnologías de computación, red, virtualización y almacenamiento, además de proporcionar, dentro de la misma solución, capacidades de consumo ilimitado de almacenamiento en la nube, así como software y servicios para proteger los datos corporativos y garantizar la alta disponibilidad de todos sus elementos”, explica Paloma Herranz, directora de preventa de EMC España.
Aunque tanto los sistemas convergentes como los hiperconvergentes encarnan la unificación de los recursos del centro de datos la diferencia entre ambos es notoria ya que mientras que los primeros están formados por elementos o “building blocks” que se podrían separar y funcionar de forma independiente, “los hiperconvergentes están integrados dentro del servidor x86, típicamente basados en software (aunque en algunos casos también hay componentes hardware de aceleración) y los elementos no se pueden separar físicamente”, especifica, con claridad, Luis Palacios, director de data center y virtualización en Cisco España. Por tanto, en el caso de que se necesiten más recursos “es necesario añadir más appliances (servidores x86) que se configuran en clúster empleando su propio sistema de distribución de archivos y la red Ethernet 10 GB”, remata.
Se apela, como no podía ser de otra manera, a la virtualización que parece que alcanza en estos sistemas cierto clímax. “La hiperconvergencia constituye una virtualización, con todo lo que ello implica, de todos los elementos tradicionalmente basados en hardware”, razona Sergio Reiter, responsable de desarrollo de negocio de servidores de Fujitsu. Tras virtualizar el proceso de cómputo, se siguió con los sistemas de almacenamiento y la conectividad (I/Os) y, ahora, con estos sistemas, se “eliminan las barreras que el desconocimiento de todas estas tecnologías podrían suponer y la consolidación de las mismas en un solo sistema testeado y de implementación extraordinariamente rápida”.
Se llega, por tanto, a un nivel superior de gestión, siendo el software quien controla todos los componentes como un sólo sistema. “Esto permite desplegar con la mayor facilidad, eliminando costes como la necesidad de redes de almacenamiento compartido para cargas de trabajo virtualizadas”, apunta Miguel Díaz, arquitecto de TI de Lenovo España.
Algunas consultoras consideran que estos sistemas integrados, tanto convergentes como “hiper”, representarán en el futuro un gran porcentaje del mercado, con crecimientos del 40 % anual, dentro de los cuales estos últimos supondrán más del 20 % de ese crecimiento. Unos sistemas integrados que nacen para dar respuesta a “las necesidades de las empresas de contar con equipos que ofrezcan densidad en cuanto a formato, pero que sean capaces de adaptarse a las necesidades reales de cargas de trabajo”, apunta Óscar Gómez, entreprise field marketing manager de Dell España. “La escalabilidad y modularidad que ofrecen este tipo de soluciones son perfectas para provisionar de forma rápida y cuando la empresa realmente lo necesita”.
En 2013, según IDC, este mercado global “integrado” alcanzó los 1.400 millones de dólares y prevé que en 2016 las infraestructuras integradas representarán casi el 14 % de las infraestructuras tecnológicas, lo que supone una oportunidad de mercado de 16.000 millones de dólares. “Este tipo de infraestructuras pueden aumentar drásticamente la eficiencia y la agilidad de las instalaciones para centros de datos y reducir al mismo tiempo los riesgos de la puesta en marcha; lo que las convierte en uno de los segmentos del mercado de infraestructuras tecnológicas de más rápido crecimiento”, explica Javier Martínez, director técnico de NetApp.
Ventajas frente a lo tradicional
El futuro se torna muy halagüeño para esta tecnología. IDC calcula que el pasado año los sistemas hiperconvergentes generaron 373 millones de dólares, lo que supone un 162,3 % de crecimiento en relación a 2013. Para este año la previsión es que se alcancen los 807 millones de dólares y que en 2016 se llegue a 1.500 millones de dólares (en un mercado total de sistemas convergentes que se moverá en torno a los 18.000 millones de dólares).
Se trata, sin duda, de un mercado de oportunidad, como lo reflejan los 24 proveedores que, calcula IDC, anunciaron su entrada en este mercado el pasado año. “La entrada de los sistemas hiperconvergentes ha abierto una nueva e inteligente manera para manejar los retos de crecimiento, con un TCO real y planificado”, asegura Arnaud Demene, director de preventa de Nutanix Iberia. “Permite crecer de una manera modular y sencilla, reflejando las necesidades actuales de las empresas y sin requerir una inversión inicial basada en “expectativas de crecimiento”, continúa.
Frente a la instalación de los sistemas tradicionales, que requieren días o semanas, los sistema hiperconvergente invierten horas, asegura Demene. “Hoy en día, el go to market es más crítico que nunca y las empresas lo saben”.
La lista de ventajas parece larga. “La principal es la simplicidad y la reducción de costes, además de mayor rendimiento y agilidad de negocio”, arranca Luis Palacios, de Cisco. “Despliegue más rápido, mayor gestionabilidad, conexionado por software y servidores plug & play”, se enumera por parte de Manuel Vidal, de Oracle.
Al ser sistemas fabricados por un único vendedor permiten tener un solo punto de contacto para el soporte. “Incluyen una solución de administración completa en lugar de consolas individuales”, recuerda César Funes, ingeniero de sistemas para empresas de la región sur de CommVault. “En general, el tiempo de implantación y el coste de propiedad disminuyen”.
El crecimiento es “sencillo”. “Están preparados para ampliarse de forma lineal, basta con añadir nuevos módulos generando a un clúster común, proceso que por supuesto no implica ninguna interrupción”, explica Álvaro Morán, de HP. “La arquitectura hiperconvergente integra software de red que descubre y añade automáticamente nuevos nodos al clúster, logrando así que multipliquemos los recursos de computación y de almacenamiento con cada módulo adicional”.
En la lista de ventajas no podía faltar la alusión a la nube. Margarita Sanz, directora de canal de VMware, cree que estos sistemas facilitan la adopción de los modelos cloud, “puesto que aportan una manera sencilla de simplificar las TI para mejorar la productividad a la vez que reducen los costes de infraestructura”.
¿Qué se pierde?
La convivencia es posible con los sistemas tradicionales y lo que hay que hacer es analizar qué necesita cada empresa. “Los sistemas hiperconvergentes son válidos para cualquier uso o cliente, pero no son la opción óptima para todas las combinaciones de uso y cliente. Hay soluciones de propósito específico que son óptimas para determinadas cargas”, sentencia Manuel Vidal, de Oracle.
“No es un sistema válido para todo modelo de negocio ya que se requiere un análisis previo de los pormenores económicos de cada proyecto”, analiza, con lógica, Santiago Julián, IT solution manager de Huawei Empresas.
Apelando al detalle virtualizado, Miguel Díaz, de Lenovo, determina que los sistemas tradicionales son más adecuados para cualquier tipo de carga de trabajo no virtualizable, así como cuando se requiere un mayor nivel de rendimiento. “Además los sistemas tradicionales pueden proporcionar configuraciones a medida necesarias para determinadas cargas”.
También enarbola la bandera del matrimonio entre virtualización e hiperconvergencia Margarita Sanz. “La verdad es que no se pierde nada, más bien todo lo contrario, se gana flexibilidad para la infraestructura”, defiende. “La pieza de hardware puede limitar, pero el software puede hacer que se escale todo lo necesario, acumulando estos sistemas hiperconvergentes para que puedan crecer tanto horizontalmente como verticalmente dentro del centro de datos”.
Ahora bien, como apunta Luis Palacios, de Cisco, la integración impide, lógicamente, la separación. “Se pierde la posibilidad de separar sus distintos elementos (la computación, el almacenamiento o la red) y que funcionen de forma independiente”. Y para escalar no se pueden añadir simplemente más recursos, “sino que es necesario añadir más servidores x86”.
¿A quién le encaja mejor?
Los principales escenarios donde los sistemas hiperconvergentes parecen adaptarse perfectamente son las soluciones de virtualización de escritorio (Virtual Desktop Infrastructure o VDI) y para líneas de negocio o departamentos internos que necesitan gestionar fácilmente los servicios de aplicaciones. “Normalmente, los centros de datos que disponen de una infraestructura clásica basada en redes independientes de computación y almacenamiento, no se plantean el cambio de su infraestructura actual con esta nueva tecnología”, apunta Miguel Díaz, de Lenovo.
También parecen ser una buen solución para responder a las necesidades de uso de recursos remotos en entornos tipo ROBO (Remote Office Branch Office). “Permite a empresas con oficinas y sucursales repartidas en diferentes puntos geográficos virtualizar una gran variedad de cargas de trabajo”, explica Álvaro Morán, de HP.
El canal, ¿integrado?
Todos los proveedores aseguran que estos sistemas abren nuevas oportunidades al canal de distribución. Unos sistemas que permiten al canal extender su oferta más allá del almacenamiento, como asegura la responsable de preventa de una marca tan almacenada como EMC. “El socio se abre a todo lo relacionado con los servidores y la virtualización, lo que hace que las operaciones resulten más interesantes desde el punto de vista comercial y proporciona al partner un control mucho mayor sobre la tecnología del cliente”.
Ahora bien, siempre hay una cierta carga de escepticismo, inherente a todo nuevo negocio. “El canal tiene que mover, de una zona confortable, a muchos de sus clientes”, razona Sergio Reiter, de Fujitsu. Un escepticismo al que Santiago Campuzano, de Citrix, une la expectación. “Por un lado simplifica los procesos y el esfuerzo en la venta y por otro, puede aumentar la competitividad con un menor diferencial tecnológico”.
A vueltas con el papel del integrador
Cuando se trata de comercializar soluciones tan “cerradas” siempre cabe la duda de si el integrador pierde parte de su valor y de su capacidad de servicio si las implanta. Óscar Gómez, de Dell, defiende que su papel, además de mantener su rol de prescriptor, persiste en observar cómo se integra con el ecosistema de la empresa. “Los servicios alrededor de la solución siguen siendo necesarios y el canal ahí tiene un papel protagonista”. Prescriptor, integrador y consultor. “Sigue siendo necesario evaluar las necesidades concretas de cada cliente y realizar una exhaustiva evaluación para aprovechar los sistemas heredados y/o adoptar nuevos sistemas cuando sea necesario”, recuerda Palacios, de Cisco.
El integrador también puede presentar nuevos valores delante del cliente. El representante de Nutanix recuerda que entre un integrador que oferta «semanas de instalación y configuración de los servidores y almacenamiento» y otro que propone «servicios de consultoría y asesoramiento del entorno virtual», la mayor parte de los clientes finales elige la segunda opción.
Otra ventaja que puede ser absorbida por el canal es la simplicidad que parece que presentan estas soluciones y que permite a los socios y clientes “dedicar más tiempo y recursos a generar valor”, recuerda Morán, de HP.
Y el futuro…
La gran pregunta es si estos sistemas serán los que marquen el futuro en entornos como los centros de datos. La consultora Technology Business Research estima que los sistemas hiperconvergentes representaron el 3,5 % del mercado total de sistemas convergentes en 2014 y crecerán hasta el 11,5 % en 2018, con una tasa de incremento interanual del 71,6 % frente al 18,4 % de crecimiento interanual que presenta el mercado total de sistemas convergentes.
César Funes, de Commvault, explica que a medida que los sistemas se hacen complejos en un nivel de arquitectura, se tiende a paquetizarlos en base a soluciones que se compran de fábrica, para centrarse en el siguiente nivel de personalización. “Hoy en día casi nadie se plantea comprar componentes para montar sus propios servidores o almacenamiento, o utilizar lenguaje ensamblador para programar”. Por tanto, estas infraestructuras del centro de datos, compradas e integradas por “bloques”, “permitirán al departamento de TI centrarse en el despliegue de servicios”, remata.
Otros, como Sergio Reiter, de Fujitsu, cree que se trata de un paso más en un proceso evolutivo del centro de datos en los que la integración con elementos en cloud es innegable. “La evolución pasa por sistemas definidos por software, no necesariamente hiperconvergentes en su totalidad, y por la integración en cloud usando modelos de pago por uso”.
El blade, ¿el “homo sapiens” de los sistemas hiperconvergentes?
Los blades, cuya aparición en el mercado casi alcanza la década, también integraban todo el hardware en un mismo conjunto, lo que permite situarlos como los antecesores, más remotos, de estos modernos sistemas hiperconvergentes. “Sin embargo carecían de software convergente para aprovechar todos los elementos e integrarlos en una única arquitectura SDDC (Software Defined Data Center)”, puntualiza Paloma Herranz, de EMC. “Sólo ofrecían ventajas en referencia a su densidad y compatibilidad entre los subcomponentes”.
Óscar Gómez, de Dell, reconoce que muchas de las características esenciales presentes en los blades se pueden encontrar en las soluciones de infraestructura convergente. “El hecho de compartir elementos en un único formato y con un único punto de gestión estaba ya presentes en los blades”. Si bien con las soluciones de infraestructura convergente “se intenta ir un paso más allá en cuanto a densidad, adaptabilidad a determinadas cargas de trabajo y dotarlos de una versatilidad aún mayor en cuanto a modularidad y escalabilidad”.
Sin embargo, como puntualiza Álvaro Morán, HP servers category manager, estos nuevos sistemas hiperconvergentes no vienen a reemplazar la tecnología blade, sino que se orientan a entornos que necesitan “una gestión más centralizada y simplificada, donde exista una necesidad de consolidación de infraestructura, desarrollos de VDI o bien sea necesario dar respuesta inmediata a necesidades locales y no se comprometa el crecimiento”.
No todos en la industria están de acuerdo en designar a los blades como los antepasados más lejanos de los sistemas hiperconvergentes. Manuel Vidal, director de preventa de sistemas de Oracle Ibérica, reitera que sus antecesores son los sistemas convergentes o integrados; no este tipo de dispositivos.
El dominio del software
En todo engranaje donde se integra hardware y software, se abre el debate acerca de qué elemento debe llevar la voz cantante y si los demás actúan de comparsa. Un debate en el que enseguida se percibe cuál es el corazón tecnológico de cada compañía. “Lo diferencial siempre es el componente software, incluso en los grandes fabricantes de almacenamiento es donde aportan su valor diferencial”, arranca Santiago Campuzano, director general de Citrix en Iberia. “Pero en muchos casos hay plataformas especialmente diseñadas para la hiperconvergencia que ayudan a optimizar los entornos”.
Un debate en el que algunos fabricantes vinculan al hardware con el término commodity. Arnaud Demene, director de preventa de Nutanix Iberia, asegura que su software permite convertir el hardware en “commodity” y unificar la gestión y la monitorización de todo el entorno virtual. “Para poder simplificar los entornos de virtualización hace falta deshacerse de las restricciones impuestas por el hardware”, remata.
Otras voces se levantan a favor del valor del hardware. Sergio Reiter, de Fujitsu, reconoce que la clave en la hiperconvergencia es el software, un elemento que ha roto con ciertas exclusividades, dando más flexibilidad a los entornos de almacenamiento compartido. “Pero los recursos de hardware que van por debajo siguen siendo necesarios”.
El rendimiento de estos sistemas no sólo lo da el software: hay componentes hardware de aceleración, como es el caso de tarjetas aceleradoras; y no debe olvidarse que una gran parte del software integrado es controlado por el servidor.
Incluso Manuel Vidal, de Oracle, alerta que dependiendo de cómo se defina los sistemas hiperconvergentes no tiene por qué ser el software el elemento clave. “El hardware nunca será un commodity puesto que muy pocas empresas del mundo son capaces de diseñar y fabricar un procesador”.