Nutanix hat seine KI-Infrastrukturplattform um ein neues Cloud-natives Angebot erweitert: Das Nutanix Enterprise AI (NAI).
Dieses lässt sich auf unterschiedlichsten Kubernetes-Plattform bereitstellen, am Edge, im Rechenzentrum und auf Public-Cloud-Services wie AWS EKS, Azure AKS und Google GKE. NAI bietet ein konsistentes Hybrid-Multicloud-Betriebsmodell für beschleunigte KI-Workloads. Unternehmen können damit Modelle und Daten in einer sicheren Umgebung ihrer Wahl nutzen und gleichzeitig ihre Kapitalrendite (ROI) erhöhen.
Nutanix Enterprise AI nutzt NVIDIA NIM für eine optimale Leistung der KI-Basismodelle und hilft dadurch Unternehmen, Inferencing-Endpunkte für grosse Sprachmodelle (LLMs) sicher bereitzustellen, zu betreiben und zu skalieren. Das gibt ihnen die Möglichkeit, generative KI-Modelle innerhalb von Minuten statt Tagen oder Wochen bereitzustellen.
Bei generativer KI (GenAI) handelt es sich um einen inhärent hybriden Workload. Neue Anwendungen werden oft in der Public Cloud erstellt, während die Modelle auf Basis privater Daten in On-premises-Umgebungen angepasst und feinjustiert werden. Die Inferenzierung findet hingegen in der unmittelbaren Nähe des Betriebsorts der Geschäftslogik statt, ob am Edge, on-premises oder in der Public Cloud. Dieser verteilte hybride GenAI-Workflow kann jedoch für Unternehmen eine Herausforderung hinsichtlich Komplexität, Datenschutz, Sicherheit und Kosten darstellen.
Multicloud-Betriebsmodell
Nutanix Enterprise AI bietet ein konsistentes Multicloud-Betriebsmodell und eine einfache Möglichkeit, LLMs mithilfe der NVIDIA NIM-optimierten Inferencing-Microservices und quelloffener Basismodelle von Hugging Face sicher bereitzustellen, zu skalieren und zu betreiben. Dadurch können Kunden eine Enterprise-GenAI-Infrastruktur mit dem Mass an Resilienz, Betriebsmöglichkeiten und Sicherheit aufbauen, das sie für geschäftskritische Anwendungen benötigen, ob on-premises oder auf AWS Elastic Kubernetes Service (EKS), Azure Managed Kubernetes Service (AKS) und Google Kubernetes Engine (GKE).
Darüber hinaus bietet Nutanix Enterprise AI ein transparentes Preismodell auf der Basis von Infrastrukturressourcen, so dass sich Budgets verlässlich planen lassen. Im Gegensatz zu nutzungs- oder Token-abhängigen Preismodellen, mit denen sich Ausgaben nur schwer vorausberechnen lassen, dürfte das Nutanix-Modell für Kunden von Interesse sein, die mit ihren GenAI-Investitionen eine möglichst hohe Kapitalrendite erzielen wollen.
Neue Komponente
Nutanix Enterprise AI ist eine neue Komponente von GPT-in-a-Box 2.0. Das Angebot beinhaltet die HCI-Software Nutanix Cloud Infrastructure (NCI), die Kubernetes-Plattform von Nutanix NKP und die Objekt- und Dateispeicherlösung Nutanix Unified Storage (NUS). Darüber hinaus enthält GPT-in-a-Box 2.0 Services zur Unterstützung von Kundenanforderungen hinsichtlich Konfiguration und Sizing für On-premises-Training und -Inferencing. Kunden können bei Bedarf Nutanix Enterprise AI in verschiedensten Kubernetes-Umgebungen in der Public Cloud bereitstellen und konsistent zusammen mit On-premises-Bereitstellungen betreiben.
Dazu erklärt Thomas Cornely, Senior Vice President, Product Management bei Nutanix:«Mit Nutanix Enterprise AI helfen wir unseren Kunden, GenAI-Anwendungen ohne Schwierigkeiten und sicher on-premises oder in Public-Cloud-Umgebungen zu betreiben. Nutanix Enterprise AI läuft auf verschiedensten Kubernetes-Plattformen und erlaubt Kunden mit seinem berechenbaren Kostenmodell, ihre KI-Anwendungen an einem sicheren Ort auszuführen».
Nutanix Enterprise AI lässt sich zusammen mit der Full-Stack-KI-Plattform von NVIDIA bereitstellen und ist für die Softwareplattform NVIDIA AI Enterprise validiert, einschliesslich NVIDIA NIM. Die einfach zu nutzenden Nutanix Inference Microservices sind dafür konzipiert, hochperformantes KI-Modell-Inferencing sicher und zuverlässig bereitzustellen. Die leistungsstarke GPT-in-a-Box-Lösung ist ebenfalls von NVIDIA zertifiziert.