Desde hace algunos años, los departamentos TI de nuestras empresas están en proceso de transformación, intentando adecuar las Tecnologías de la Información a las necesidades reales de los negocios. Hablamos de una evolución, desde los rígidos modelos de antaño, con infraestructuras propias y dedicadas, hacia otros más dinámicos y adaptables, en línea con los requerimientos de cada momento.
Un factor muy importante en esta progresión ha sido, y es, la virtualización. Los centros de datos se han ido transformando, pasando de albergar múltiples servidores heterogéneos e identificados con los diferentes servicios TI, a granjas homogéneas de servidores físicos, con almacenamientos compartidos y sobre los que se despliegan los entornos virtuales. Gracias a ello, se ha conseguido reducir el número de equipos físicos, simplificar la administración, y disminuir el tiempo de provisión de nuevos servidores y servicios. Asimismo, el hecho de que la implantación de procesos de disponibilidad y recuperación ante desastres sea ahora mucho más sencilla, ha impulsado una reducción de los costes de explotación e inversión y una mejora de la calidad de los servicios TI.
Aunque no todo han sido ventajas, lo cierto es que durante este proceso de transformación las empresas sí han logrado acercar sus departamentos de TI al negocio, garantizándose así unos niveles de servicios mínimos. Asimismo, la automatización de los procesos de provisión y gestión de TI ha favorecido despliegues mucho más sencillos, reduciendo drásticamente los tiempos de implantación.
Todo ello ha inspirado nuevos medios de explotación de los servicios TI, además del advenimiento de diferentes modelos de negocio, como el cloud computing, que busca ofrecer servicios informáticos en modo servicio, ya sea infraestructura, software o servicio. Implementándose sobre una infraestructura propia —cloud privada y dedicada—, en un proveedor de servicios al que se accede por Internet —cloud pública—, o en entornos mixtos de cloud privada y pública —cloud híbrida—, estos modelos de negocio se basan en la automatización de los procesos de provisión y administración, permitiendo a los usuarios definir y dimensionar dichos servicios mediante portales.
El nuevo centro de datos definido por software
La industria de las Tecnologías de la Información también ha evolucionado para dar respuesta a las crecientes necesidades del centro de datos.
Desde el auge de los discos de estado sólido, que aseguran una mayor capacidad de respuesta y latencias muy bajas, hasta el desarrollo de procesadores multi-core pensados para la virtualización, o las nuevas soluciones hiperconvergentes. Basadas en software, este tipo de soluciones consiguen dar respuesta a las necesidades de disponer de centros de datos flexibles, fáciles de administrar y que aseguren una fácil integración.
La hiperconvergencia permite simplificar la arquitectura tradicional de los datacenter de tres capas —computo, red y almacenamiento— en una única y sobre servidores de propósito general, agrupándose en clústers. En estas soluciones, las imágenes de las máquinas virtuales se reparten entre todos los discos, gracias a sistemas de ficheros distribuidos. Con ello se consigue acercar las máquinas virtuales a la capa de computo, eliminar los cuellos de botella y mejorar la calidad del servicio, reduciendo, además, la latencia y optimizando la capacidad de proceso. Asimismo, y al tratarse de soluciones escalables, su crecimiento se realiza ampliando el número de servidores que añaden computo, memoria y almacenamiento.
En definitiva, las tendencias de TI intentan simplificar las infraestructuras IT, con soluciones basadas en software, que permiten independizarse del hardware, y fácilmente adaptables a las necesidades del negocio.
Óscar García Montero
Arquitecto de sistemas de infraestructura de EinzelNet