El centro de datos es uno de los entornos que mantiene en los últimos tiempos un ritmo de crecimiento estable. Con la gestión de la información como corazón del mismo, juegan en él un papel esencial elementos como la eficiencia, la seguridad o la virtualización. Y los servicios. La cadena de distribución tiene mucho que decir en este entorno: es el caso de NetApp, como proveedor tecnológico; la división de Soluciones Avanzadas de Ingram Micro y el canal de ambas compañías, del que forman parte Acuntia, Exevi, Ermestel, del grupo Econocom; Solium y UCS (Unified Cloud Services).
El centro de datos… ¿accesible para todos?
No hay estrategia inteligente para el centro de datos que no contemple la eficiencia. Y NetApp, lógicamente, no es una excepción. Javier Martínez, director técnico de la marca, recuerda que la flexibilidad es clave. “Hay que asegurar al cliente que cuando opta por una solución, la pueda ir adaptando a sus necesidades”. Junto a ella, se trabaja en pos de optimizar el modelo de backup, ante el vertiginoso crecimiento que ha experimentado el volumen de datos; o en mejorar la deduplicación y la comprensión de los datos. “Son tecnologías que cuentan con un ratio de adopción muy alto porque permiten ahorros de espacio y de energía; y por tanto, una mayor eficiencia”.
Una eficiencia de la que participan tanto el hardware, imprescindible, al que Martinez se refiere como “un mal necesario”, como el software, que es el encargado de dotar de vida a los sistemas de almacenamiento. Con 20 años de desarrollo a sus espaldas, el último fruto de NetApp lleva el nombre de Clustered ONTAP. Martínez alerta de la palabra clave en esta evolución: cluster. “Por primera vez contamos con un sistema de almacenamiento de propósito general que puede crecer de forma lineal lo que nos permite cambiar el modelo de operación de los equipos: es posible realizar las renovaciones tecnológicas sin parar el servicio”.
También el canal mayorista ha percibido las oportunidades que abre el centro de datos. En la división de Soluciones Avanzadas de Ingram Micro, recientemente reorganizada, el 80 % de su negocio tiene su origen en este entorno. Alberto Pascual, director de Ingram Micro Madrid, señala que los pilares en los que se sustenta la división son los mismos que conforman el centro de datos. “Hemos dividido la división en torno a tecnologías: servidores, almacenamiento, networking, seguridad, virtualización y software; en definitiva, todos los elementos que constituyen el centro de datos”. Una organización a la que se ha unido una unidad centrada, precisamente, en la eficiencia energética. “Elemento clave en España donde la energía es más cara que en otros países europeos; por lo que resulta más importante optimizar y mejorar la eficiencia”.
Hace un par de años el mayorista puso en marcha una iniciativa, Data Center Power On, junto a un ramillete de marcas entre las que se encontraba NetApp, para extender los dominios del centro de datos. Pascual asegura que se ha hecho una labor de evangelización tecnológica en este tiempo. “Antes el centro de datos era una posibilidad reservada a las grandes compañías y, en cierto modo, hemos sabido democratizarlo y llevarlo a la pyme”.
Una democratización que se ha servido de la nube, en este caso bajo un sabor híbrido, para aumentar el número de votantes. “Aquellas compañías que no tenían capacidad para albergar un centro de datos puedan aprovecharse de muchas funcionalidades porque las contratan como un servicio”, explica el responsable técnico de NetApp. “El panorama admite todas las opciones: desde empresas que apuestan por un modelo de servicios hasta otras que por cumplimiento de normativas y por un control más directo, prefieren actuar en local”.
Lógicamente la democracia también ha beneficiado a los partners de ambas compañías que se encargan de acercar la tecnología al cliente. UCS (Unified Cloud Services) está especializada en servicios cloud relacionados con la virtualización de los servidores, el correo y, sobre todo, el puesto de trabajo. “El éxito del negocio no está en la tecnología. Sabemos que funciona y más con marcas como NetApp; pero el éxito de nuestros servicios está en el modelo de negocio”, asegura Mario Monge, CEO de la empresa. “Tenemos que democratizar estos servicios y acercarlos a la pyme. Ofrecemos pago por uso real”. Una oferta en la que también está incluido el “almacenamiento bajo demanda”, donde trabaja de la mano de NetApp.
Monge asegura que este modelo híbrido es cada vez más demandado por el mercado. “El cliente determina cuál es el corazón de su negocio, al que mantiene en una nube privada; destinando a la nube pública aquello donde hay poco riesgo en materia de fiabilidad y seguridad”.
¿Y qué se externaliza? Manuel Monterrubio, CEO-director general de Exevi, recuerda que la informática y el dato en los últimos tiempos se han convertido en un elemento crítico. “Y el CIO decide externalizar ciertas aplicaciones para dotarlas de una mayor protección: entre ellas, por ejemplo, el correo”, asegura. Una externalización que, a su juicio, alcanza a tecnologías más complejas como la recuperación ante desastres o el backup. “En Exevi nos gusta acceder a mercados complejos; lo que nos permite diferenciarnos y aportar valor. Y con la ayuda de NetApp e Ingram Micro es mucho más rápido y fácil”.
Alberto Carrillo, business development manager de Ermestel, del Grupo Econocom, introduce un término clave: la automatización. “Resulta fácil externalizar elementos como el correo o el backup, lo que también supone un ahorro para la empresa”, explica. “Lo que ya no resulta tan sencillo es tratar de homogeneizar el valor de negocio de la empresa. Tener en propiedad un equipo no proporciona valor a una empresa, es el uso de un servicio el que sí es valioso: esto es lo que no puedo externalizar. Hay que separar lo que da valor, imposible de externalizar, con las áreas genéricas y económicas, que es posible subir a la nube”.
Mario Monge, de UCS, insiste en el valor de la automatización. “Desde el punto de vista de los servicios, la automatización de los procesos es el éxito. El mercado demanda servicios pero lo demanda a un bajo precio y esto solo se consigue automatizando. Las manos no pueden intervenir en los procesos”, explica.
El centro de datos es también motor de negocio para Solium que nació precisamente de la mano del modelo ASP o del pago por uso (“ancestro” de la actual nube). Ángel Cuellas, director de la empresa, asegura que siempre han ofrecido soluciones en este tipo de formatos. “La consumerización y democratización del centro de datos es evidente”.
Acuntia tampoco escapa al embrujo del centro de datos. Ni de su democratización. José Antonio Álvarez, gerente de negocio de Acuntia para soluciones de virtualización y data center, asegura que su vocación tecnológica es clara ya que el 90 % del personal está integrado por ingenieros. “Los clientes nos demandan soluciones cada vez más complejas, compuestas por diferentes tecnologías. Acuntía tiene definido un ecosistema de marcas capaces de ofrecer una solución global. Y una pieza clave de este puzzle son las soluciones de almacenamiento de NetApp”.
Mario Monge, de UCS, reivindica el papel clave que tiene el centro de datos en las organizaciones. “Su reconversión, desde las punto.com, ha sido evidente y se ha hecho de manera muy positiva”. A su juicio, ya sea on-premise, en la nube o híbrido, el gran valor es que permite a los partners comercializar servicios, claves en nuestros negocios. “Y buscando siempre economías de escala”.
La gestión del dato
El dato es crítico. Su crecimiento, enorme en los últimos años, ha imprimido una mayor complejidad a su gestión y ha provocado la “aparición” del famoso big data. “En los últimos 2 años se ha generado la misma cantidad de datos que en toda la historia”, recuerda Alberto Carrillo, de Ermestel, del Grupo Econocom.
Unas tecnologías de big data que, en un primer momento, fueron utilizadas por las grandes empresas, como fue el caso de Google o Amazon. “Y ahora se está extendiendo al resto”, asegura José Antonio Álvarez, de Acuntia. Una “nueva” democratización, esta del big data, que parece que ha alcanzado, en primer lugar, a empresas relacionadas con el ecommerce o las finanzas.”Y se torna muy útil para destapar fraudes fiscales ya que permite analizar muchos datos y confrontarlos”, remata.
El análisis de los datos y la posterior extracción de conclusiones que sirvan al negocio es la clave de todo. Un análisis que se ha complicado ante la irrupción de fenómenos como el Internet de las cosas o la explosión de la movilidad. “Las aplicaciones tradicionales de base de datos se quedan cortas ante este nuevo modelo”, recuerda Javier Martínez, de NetApp. “El big data no es una revolución sino un paso más en la nueva manera de abordar este crecimiento de la información. El gran cambio es ver cómo se gestiona la información de manera diferente: y no se trata de contar con más TB sino en saber extraer un análisis de valor.
En una línea parecida se manifiesta Alberto Pascual, de Ingram Micro, que asegura que el actual big data no es sino una evolución del CRM y del business inteligence. “Hemos recuperado el papel del departamento TI como ventaja competitiva de la empresa; algo que se había perdido”, reivindica. “Con el big data, hemos tomado conciencia de que podemos aprovechar todo ese volumen de información, analizarlo y convertirlo en una ventaja competitiva para la empresa”.
Un análisis que se complica por el carácter desestructurado que tiene el dato que procede de numerosas fuentes. “Antes el análisis estaba mucho más controlado; había una manera de dejar los datos, muy estructurada; ahora no es así”, recuerda Alberto Carrillo, de Ermestel, del grupo Econocom. “La clave es saber evolucionar la aplicación: se pueden inyectar más recursos desde la infraestructura pero si la aplicación no sabe gestionarlos, no sirve de nada”. A su juicio, debe ser el CIO quien debe liderar este tipo de proyectos. “Tiene que dejar de ser la persona que pone las pegas y liderar el cambio”.
Y tan importante es el dato que como recuerda Mario Monge, de UCS, ya hay universidades que están poniendo en marcha una nueva licenciatura: arquitecto del dato.
La seguridad, garantía… y ¿freno?
La seguridad, en ocasiones, ha supuesto un freno para el desarrollo de algunos proyectos en la nube. Una realidad que ha provocado, según asegura Alberto Carrillo, de Ermestel, del grupo Econocom, que se incremente el nivel de seguridad que se ofrece en ella. “Al percibir que muchos proyectos en la nube se paraban por el temor a que no fuera segura, las compañías hemos tendido a elevar los niveles de seguridad, precisamente para superar esta barrera”. Una concepción de la seguridad que, como recuerda Carrillo, requiere un cambio de mentalidad: se pasa de una concepción centralizada, cerrada, con unas fronteras seguras claras a un modelo en el que está distribuida. “Esto supone un cambio de cultura que implica una nueva capacidad de gestión. Ahora bien, hay que dejar claro que los entornos cloud son, al menos, tan seguros como los entornos físicos”.
La explosión de la movilidad ha añadido más complejidad. “Ha revolucionado la seguridad”, completa Ángel Cuellas, de Solium. Una revolución en la que el fenómeno BYOD es un elemento clave y que alcanza a cualquier tipo de compañía. “Contamos con soluciones que garantizan a los empleados la protección de su entorno profesional y la convivencia con el entorno personal”, asegura, “que incluye tanto la protección de la aplicación como del propio contenido; lo que evita poner en riesgo a la organización y evita fugas de información”.
Un hábito, el BYOD, que no está llegando a través de los directivos de las grandes empresas sino a través de los becarios, como asegura Javier Martínez, de NetApp. “Son nativos digitales y utilizan las últimas tecnologías y herramientas sociales con normalidad”.
Clave resulta en este entorno seguro encontrar el equilibrio entre las exigencias del negocio y la gestión de la seguridad. “Hay que definir qué nivel de riesgo se va a asumir. Y la seguridad de la cadena está asociada, precisamente, al eslabón más débil, en este caso, los dispositivos móviles. Ahí es donde se ha puesto más esfuerzo”, apunta José Antonio Álvarez, de Acuntia.
Una afirmación que asevera Miguel Monterrubio, de Exevi, que defiende que se trata de analizar qué riesgos merece la pena mitigar y cuáles no. “El concepto de la seguridad se está generalizando, por lo que debe contemplarse de manera unificada en la empresa; lo que exige marcar una estrategia global”.
Más allá del CIO
Según un reciente estudio, el 60 % de los proyectos de TI de una empresa ya no están liderados por el CIO. Una realidad que confirma José Antonio Álvarez, de Acuntia, que asegura que el responsable financiero tiene cada vez más peso en las decisiones tecnológicas. “El CIO tiene que manejar un presupuesto cada vez más pequeño en el que el 70 % está destinado al mantenimiento; sólo el 30 % va dirigido a proyectos de valor añadido para la empresa”. El reto de los integradores, explica, es que mute la filosofía de que “el TI es un coste y se convierta en un TI como servicio”.
La explosión de la movilidad ha contribuido a la “aparición” de estos nuevos portavoces. “Esta tecnología ha hecho sonar todas las alarmas: los proyectos ya no se venden al departamento TI sino que han entrado en la empresa por otros departamentos”, explica Alberto Carrillo, de Ermestel, de Econocom. “Sin embargo, deber ser el departamento de TI el que lidere este cambio”.
También el boom del análisis y de las herramientas de inteligencia de negocio han contribuido a ello. “Antes se analizaban más los colectivos, ahora es más el individuo”, apunta Ángel Cuellas, de Solium. “Un cambio provocado porque antes el único interlocutor en la compañía era el departamento TI y ahora también aparece el área de marketing, el de negocio, etc.”.
La virtualización versus almacenamiento
“La virtualización es una realidad en el mundo del almacenamiento desde hace mucho tiempo”. Javier Martínez, de NetApp, lo tiene claro. “La revolución ha sido virtualizar el servicio en sí. Es posible definir servicios virtuales, lo que permite abstraerse del hardware que hay por debajo y asegurar que el servicio se mantenga siempre”.
Y es que tras virtualizar el servidor y el puesto de trabajo, ahora la virtualización llega al almacenamiento. Y por ende al centro de datos. “El centro de datos definido por software viene a reflejar los tres pilares en los que se basaba la virtualización de servidores tradicional: pool de recursos, abstracción (independencia del hardware) y automatización”, asegura José Antonio Álvarez, de Acuntia.
Vuelve a aparecer la automatización. Un término al que Ángel Cuellas, de Solium, une el catálogo de servicios que dependiendo de la empresa puede adoptar una fórmula paquetizada o bien un formato mucho más personalizado. El director explica que Solium ha optado por la segunda opción e incluso han creado dentro del integrador un perfil de SAN (Services Automatization Manager), lo que evidencia su foco en el servicio.