Cisco ha anunciado el lanzamiento de una nueva familia de servidores de IA diseñados para cargas de trabajo con uso intensivo de GPU y computación acelerada por Nvidia, junto a AI POD para fortalecer su oferta de infraestructura para los centros de datos.
Estas novedades se han diseñado para ayudar a los clientes a preparar su infraestructura para las nuevas cargas de trabajo que requiere la inteligencia artificial. Jeetu Patel, director de productos en Cisco, comentó que “las innovaciones de Cisco, como los AI POD y el servidor GPU, fortalecen la seguridad, el cumplimiento y la potencia de procesamiento de esas cargas de trabajo a medida que los clientes evolucionan su estrategia de IA”.
Estas soluciones se han diseñado para que las empresas puedan transformar sus centros de datos e instalar redes escalables, sostenibles, programables y seguras.
Una de las novedades es la familia de servidores UCS C885A M8, que se ha diseñado para cargas de trabajo de IA con uso intensivo de GPU. Estos servidores pueden procesar las cargas de trabajo de inferencia y entrenamiento de IA más exigentes ya que aprovechan la plataforma de supercomputación Nvidia HGX con GPU Nvidia H100 y H200 Tensor Core. Cada modelo incluye NIC o SuperNIC Nvidia para acelerar el rendimiento de la red de IA y DPU Nvidia BlueField-3 para acelerar el acceso a la GUP a los datos y permitir una seguridad sólida.
La otra novedad son los AI POD, stacks de infraestructura diseñados para casos de uso e industrias de IA específicos. Combinan computación, redes, almacenamiento y gestión en la nube para ofrece una mayor escalabilidad.
Estos POD ofrecen un punto de partida a las empresas para posteriormente adaptarlo a sus necesidades. Estos paquetes de infraestructura prediminesionados y configurados reducen las incógnitas a la hora de implementar soluciones de inferencia de IA. Estas soluciones incluyen Nvidia AI Enterprise, una plataforma de software nativa de nube de extremo a extremo que acelera los procesos de data science y optimiza la implementación de IA.