Red Hat, Inc., el proveedor líder mundial de soluciones open source, anunció hoy la disponibilidad general de Red Hat Enterprise Linux (RHEL) AI en toda la nube híbrida. RHEL AI es la plataforma de modelos base de Red Hat que permite a los usuarios desarrollar, probar y ejecutar modelos de IA generativa (GenAI) de manera más sencilla para potenciar las aplicaciones empresariales. Esta plataforma fusiona la familia de modelos de lenguaje de gran tamaño (LLM) Granite, con licencia open source, con las herramientas de alineación de modelos InstructLab basadas en la metodología Large-scale Alignment for chatBots (LAB), empaquetadas como una imagen de RHEL de inicio optimizada para implementaciones de servidores individuales en toda la nube híbrida.

Si bien la promesa de la GenAI es enorme, los costos asociados a la adquisición, la capacitación y el ajuste de los LLM pueden ser exorbitantes y el entrenamiento previo al lanzamiento de algunos modelos líderes puede llegar a costar casi USD 200 millones de dólares. Esto no incluye el costo de alineación según los requisitos o datos específicos de una organización determinada, que generalmente requiere de científicos de datos o desarrolladores con un alto grado de especialización. Independientemente del modelo seleccionado para una aplicación en particular, siempre es necesario alinearlo según los datos y procesos específicos de la empresa, lo que hace que la eficiencia y la agilidad sean claves para la IA en entornos de producción reales.

Según Red Hat, durante la próxima década, la pila de la TI empresarial incluirá modelos de IA más pequeños, eficientes y específicamente diseñados a medida a la par de las aplicaciones nativas de la nube. Pero, para lograrlo, la GenAI debe ser más accesible y estar más disponible en términos de costos, colaboradores y hasta dónde puede ejecutarse en la nube híbrida. Durante décadas, las comunidades open source han ayudado a resolver desafíos semejantes planteados por problemas de software complejos a través de la colaboración de diversos grupos de usuarios. Adoptar un enfoque similar podría reducir los obstáculos para la adopción efectiva de la GenAI.

El enfoque open source frente a la GenAI

Estos son los desafíos que RHEL AI pretende abordar: lograr que la GenAI sea más accesible, más eficiente y más flexible para los CIO y las organizaciones de TI empresariales en toda la nube híbrida. RHEL AI ayuda a:

  • Potenciar la innovación de la GenAI mediante modelos Granite con licencia open source de grado empresarial, alineados con una amplia variedad de casos de uso de la GenAI.
  • Optimizar la alineación de modelos de GenAI con los requisitos empresariales por medio de las herramientas de InstructLab, lo que permite que los expertos y los desarrolladores dentro de una organización contribuyan a sus modelos con habilidades y conocimientos específicos aun sin ser muy avezados en ciencia de datos.
  • Entrenar e implementar la GenAI en cualquier lugar de la nube híbrida al proporcionar todas las herramientas necesarias para ajustar e implementar modelos para servidores de producción dondequiera que estén los datos asociados. RHEL AI también ofrece una vía de acceso a Red Hat OpenShift AI para entrenar, ajustar y proveer estos modelos a escala utilizando las mismas herramientas y conceptos.

RHEL AI también cuenta con los beneficios que ofrece una suscripción de Red Hat, que incluye la distribución confiable de productos empresariales, soporte de producción 24×7, soporte de ciclo de vida extendido de modelos e indemnización por la propiedad inteligente de modelos, junto con protecciones legales de Open Source Assurance.

RHEL AI abarca toda la nube híbrida

A fin de contribuir a las estrategias de IA de producción, es fundamental poder llevar una plataforma de modelos base más coherente adonde se encuentran los datos de una organización. RHEL AI, como extensión del portfolio de nube híbrida de Red Hat, abarcará casi todos los entornos empresariales que se pueden imaginar, desde centros de datos locales y entornos de edge hasta la nube pública. Esto significa que RHEL AI estará disponible directamente de Red Hat, de los partners fabricantes de equipos originales (OEM) de Red Hat, y podrá ejecutarse en los proveedores de nube más grandes del mundo, como Amazon Web Services (AWS), Google Cloud Platform (GCP), IBM Cloud y Microsoft Azure. Esto permite que los desarrolladores y las organizaciones de TI aprovechen el poder de los recursos informáticos de los hiperescaladores para crear conceptos de IA innovadores con RHEL AI.

Disponibilidad

RHEL AI ya tiene disponibilidad general a través del Portal de Clientes de Red Hat para ejecutarse en modo local o para cargarlo en AWS e IBM Cloud como oferta BYOS (traiga su propia suscripción). Para el cuarto trimestre de 2024, se prevé la disponibilidad de una oferta BYOS en Azure y GCP y se espera que RHEL AI esté disponible en IBM Cloud como servicio a finales de este año.

En los próximos meses, Red Hat planea expandir aún más la apertura de la nube de RHEL AI y los partners OEM, para lo cual brindará aún más opciones en entornos de nube híbrida.

Shares: