La plataforma de modelos fundacionales de Red Hat que permite a los usuarios desarrollar, probar y ejecutar de manera eficiente modelos de IA generativa, que se denomina Red Hat Enterprise Linux (RHEL) AI, ya está disponible en la nube híbrida, según ha comunicado Red Hat.
La plataforma une Granite, la familia de grandes modelos lingüísticos (LLM), con las herramientas de alineación de modelos InstructLab, que se basan en la metodología de LAB (Alineación a gran escala para chatBots). De este modo, todo está empaquetado con una imagen RHEL preparada para arrancar para despliegues en servidores individuales en la nube híbrida.
Red Hat considera que, durante la próxima década, los modelos de IA más pequeños, eficientes y creados a medida formarán parte de los entornos de TI empresariales. Pero para lograrlo, la IA generativa debe ser accesible y estar disponible, tanto a nivel de costes, colaboradores, así como dónde puede ejecutarse en la nube híbrida.
Para resolver estos retos lanza RHEL AI que permitirá potenciar la innovación de la IA generativa con modelos empresariales Granite con licencia de código abierto y alineados con una gran variedad de casos de uso de IA. Además, optimiza la adaptación de los modelos de IA generativa a los requisitos empresariales con la herramienta InstructLab; y permite entrenar y desplegar IA generativa en cualquier lugar de la nube híbrida.
RHEL AI también ofree una vía de acceso a Red Hat OpenShift AI para entrenar, ajustar y servir estos modelos a escala utilizando las mismas herramientas y conceptos.
“RHEL AI ofrece a los expertos en la materia, no solo a los científicos de datos, la posibilidad de contribuir con un modelo de IA generativa construido a medida en toda la nube híbrida, al mismo tiempo que permite a las organizaciones de TI escalar estos modelos para la producción a través de Red Hat OpenShift AI”, comentó Joe Fernandes, vice president and general manager de Foundation Model Platforms de Red Hat.