Nutanix extiende su plataforma de IA a la nube pública
Nutanix Enterprise AI proporciona un modelo operativo multinube consistente y una forma sencilla de implementar, escalar y ejecutar LLM de forma segura.
Nuntanix anunció que amplió la plataforma de infraestructura de inteligencia artificial de la compañía con una nueva oferta nativa en la nube, Nutanix Enterprise AI (NAI), que se puede implementar en cualquier plataforma de Kubernetes, en el Edge, en centros de datos y en servicios de nube pública como AWS EKS, Azure AKS y Google GKE.
NAI ofrece un modelo operativo híbrido multinube consistente para cargas de trabajo de IA aceleradas, lo que permite a las organizaciones aprovechar sus modelos y datos en una ubicación segura de su elección mientras mejoran el retorno de la inversión (ROI). Al aprovechar NVIDIA NIM para optimizar el rendimiento de los modelos básicos, Nutanix Enterprise AI ayuda a las organizaciones a implementar, ejecutar y escalar de forma segura puntos finales de inferencia para modelos de lenguaje grandes (LLM) para respaldar la implementación de aplicaciones de IA generativa (GenAI) en minutos.
La IA generativa es una carga de trabajo inherentemente híbrida, con nuevas aplicaciones a menudo creadas en la nube pública, ajuste de modelos utilizando datos privados que ocurren en las instalaciones e inferencias implementadas más cerca de la lógica empresarial, que podría estar en el Edge, en las instalaciones o en la nube pública. Este flujo de trabajo híbrido distribuido de GenAI puede presentar desafíos para las organizaciones preocupadas por la complejidad, la privacidad de los datos, la seguridad y el costo.
Nutanix Enterprise AI proporciona un modelo operativo multinube consistente y una forma sencilla de implementar, escalar y ejecutar LLM de forma segura con NIM de NVIDIA microservicios de inferencia optimizados, así como modelos de base abiertos de Hugging Face. Esto permite a los clientes reforzar la infraestructura GenAI empresarial con la resiliencia, las operaciones del día y la seguridad que necesitan para aplicaciones críticas para el negocio, en las instalaciones o en AWS Elastic Kubernetes Service (EKS), Azure Managed Kubernetes Service (AKS) y Google Motor Kubernetes (GKE).
Además, Nutanix Enterprise AI ofrece un modelo de precios transparente basado en recursos de infraestructura, lo cual es importante para los clientes que buscan maximizar el retorno de la inversión de sus inversiones en GenAI. Esto contrasta con el uso difícil de predecir o los precios basados en tokens.
Nutanix Enterprise AI es un componente de Nutanix GPT-in-a-Box 2.0. GPT-in-a-Box también incluye Nutanix Cloud Infrastructure, Nutanix Kubernetes Platform y Nutanix Unified Storage junto con servicios para respaldar la configuración del cliente y las necesidades de dimensionamiento para capacitación e inferencia en las instalaciones. Para los clientes que buscan implementar en la nube pública, Nutanix Enterprise AI se puede implementar en cualquier entorno de Kubernetes, pero es operativamente consistente con las implementaciones locales.
“Con Nutanix Enterprise AI, ayudamos a nuestros clientes a ejecutar aplicaciones GenAI de forma sencilla y segura en las instalaciones o en nubes públicas. Nutanix Enterprise AI puede ejecutarse en cualquier plataforma Kubernetes y permite que sus aplicaciones de IA se ejecuten en su ubicación segura, con un modelo de costos predecible”, dijo Thomas Cornely, vicepresidente senior de gestión de productos de Nutanix.
Nutanix Enterprise AI se puede implementar con la plataforma de IA de pila completa de NVIDIA y está validada con el Enterprise IA de NVIDIA plataforma de software, incluyendo NIM de NVIDIA, un conjunto de microservicios fáciles de usar diseñados para una implementación segura y confiable de inferencia de modelos de IA de alto rendimiento. Nutanix-GPT-in-a-Box también es un sistema certificado por NVIDIA, lo que también garantiza la confiabilidad del rendimiento.
“Las cargas de trabajo de IA generativa son inherentemente híbridas, y la capacitación, la personalización y la inferencia se producen en nubes públicas, sistemas locales y ubicaciones perimetrales”, afirmó Justin Boitano, vicepresidente de IA empresarial de NVIDIA. “La integración de NVIDIA NIM en Nutanix Enterprise AI proporciona un modelo multinube consistente con API seguras, lo que permite a los clientes implementar IA en diversos entornos con el alto rendimiento y la seguridad necesarios para las aplicaciones críticas para el negocio”.
Nutanix Enterprise AI puede ayudar a los clientes a:
- Abordar la escasez de habilidades en IA. La simplicidad, las opciones y las funciones integradas significan que los administradores de TI pueden ser administradores de IA, lo que acelera el desarrollo de la IA por parte de los científicos y desarrolladores de datos que se adaptan rápidamente utilizando los últimos modelos y la computación acelerada de NVIDIA.
- Eliminar las barreras para construir una plataforma preparada para la IA. Muchas organizaciones que buscan adoptar GenAI luchan por construir la plataforma adecuada para soportar cargas de trabajo de IA, incluido el mantenimiento de la coherencia en su infraestructura local y múltiples nubes públicas. Nutanix Enterprise AI aborda esto con un flujo de trabajo simple impulsado por la interfaz de usuario que puede ayudar a los clientes a implementar y probar puntos finales de inferencia LLM en minutos, ofreciendo al cliente opciones con soporte para microservicios NVIDIA NIM que se ejecutan en cualquier lugar, garantizando un rendimiento optimizado del modelo en la nube y en entornos locales. También se admiten Hugging Face y otros estándares de modelos. Además, la integración nativa con Nutanix Kubernetes Platform mantiene la alineación con la capacidad de aprovechar toda Nutanix Cloud Platform o brindar a los clientes la opción de ejecutar cualquier tiempo de ejecución de Kubernetes, incluidos AWS EKS, Azure AKS o Google Cloud GKE con computación acelerada de NVIDIA.
- Mitigar los problemas de privacidad y seguridad de los datos. Nutanix Enterprise AI ayuda a mitigar los riesgos de privacidad y seguridad al permitirle a los clientes ejecutar modelos y datos en los recursos informáticos que usted controla. Además, Nutanix Enterprise AI ofrece un panel intuitivo para la resolución de problemas, la observabilidad y la utilización de los recursos utilizados para los LLM, así como controles de acceso basados en roles (RBAC) rápidos y seguros para garantizar que la accesibilidad a los LLM sea controlable y comprendida. Las organizaciones que requieran una seguridad reforzada también podrán implementar en entornos con espacios aislados o en sitios oscuros.
- Llevar la infraestructura empresarial a las cargas de trabajo GenAI. Los clientes que ejecutan Nutanix Cloud Platform para aplicaciones críticas para el negocio ahora pueden brindar la misma resiliencia, operaciones del día 2 y seguridad a las cargas de trabajo GenAI para una experiencia de infraestructura empresarial.
Los casos de uso clave para los clientes que aprovechan Nutanix Enterprise AI incluyen: mejorar la experiencia del cliente con GenAI a través del análisis de los comentarios y documentos de los clientes; acelerar la creación de código y contenido aprovechando los copilotos y el procesamiento inteligente de documentos; aprovechar modelos de ajuste fino en datos de dominios específicos para acelerar la generación de código y contenido; fortalecer la seguridad, incluido el aprovechamiento de modelos de inteligencia artificial para la detección de fraudes, detección de amenazas, enriquecimiento de alertas y creación automática de políticas; y mejorar el análisis aprovechando modelos ajustados sobre datos privados.
Nutanix Enterprise AI, que se ejecuta localmente, en el borde o en la nube pública, y Nutanix GPT-in-a-Box 2.0 están actualmente disponibles para los clientes