Thomas Cornely, Senior Vice President of Product Management bei Nutanix
Thomas Cornely, Senior Vice President of Product Management bei Nutanix

Nutanix hat die allgemeine Verfügbarkeit der neuesten Version seiner Lösung Nutanix Enterprise AI (NAI) bekanntgegeben.

Sie bietet eine vertiefte Integration mit NVIDIA AI Enterprise einschliesslich NVIDIA NIM Microservices und NVIDIA NeMo Framework, um die Einführung von Agentic-AI-Anwendungen in Unternehmen zu beschleunigen. NAI ist dazu konzipiert, die Bereitstellung von generativer KI in den Unternehmen schneller voranzubringen, und vereinfacht zu diesem Zweck die Art und Weise, wie Kunden Modelle und Inferencing-Dienste am Edge, im Rechenzentrum oder in der Public Cloud auf von der Cloud Native Computing Foundation (CNCF) zertifizierten Kubernetes-Umgebungen erstellen, betreiben und sicher managen.

Das neueste NAI-Release erweitert die gemeinsame Model-Service-Methodologie, die Agentic-Workflows vereinfacht und dabei hilft, deren Bereitstellung und laufenden Betrieb einfacher zu gestalten. Mithilfe gemeinsamer Embedding-, Reranking- und Guardrail-Funktionsmodelle für Agenten optimiert das Release die Ressourcen und Modelle, die für die geschäftsbereichsübergreifende Bereitstellung multipler Anwendungen erforderlich sind. Die neue Version baut auf dem NAI-Kern auf, der ein zentrales Repository für LLM-Modelle enthält. Damit lassen sich sichere Endpunkte erstellen, welche die Anbindung generativer KI-Anwendungen und -Agenten vereinfachen und schützen.

«Nutanix hilft Kunden dabei, mit der hohen Innovationsrate im GenAI-Markt Schritt zu halten», erklärt Thomas Cornely, Senior Vice President of Product Management bei Nutanix. «Wir haben Nutanix Enterprise AI erweitert, um neue NVIDIA NIM- und NeMo-Microservices zu integrieren. Dadurch können Unternehmenskunden KI-Agenten umgebungsunabhängig sowie sicher und effizient erstellen, betreiben und managen.»

NAI für Agentic-Anwendungen unterstützt Kunden bei:

  • der Bereitstellung von Agentic-AI-Anwendungen mit Shared-LLM-Endpunkten – Kunden können bereits bestehende und bereitgestellte Modell-Endpunkte als Shared Services für multiple Anwendungen wiederverwenden.
  • der Nutzung einer grossen Bandbreite an LLM-Endpunkten – NAI ermöglicht ein grosses Spektrum an Agentic-Model-Services einschliesslich der Open-Reasoning-Modelle NVIDIA Llama Nemotron, NVIDIA NeMo Retriever und NeMo Guardrails.
  • bei der Absicherung von generativen KI – Mithilfe der neuen NAI-Version können Kunden Guardrail-Modelle nutzen und dadurch Agentic-Anwendungen unter Einhaltung der in ihren Unternehmen geltenden Regeln implementieren.
  • bei der Gewinnung von Erkenntnissen mithilfe der NVIDIA AI Data Platform – Die Nutanix Cloud Platform baut auf der Referenzarchitektur der NVIDIA AI Data Platform auf und integriert Nutanix Unified Storage und Nutanix Database Service für strukturierte und unstrukturierte Daten zur Nutzung durch KI.

NAI ist für die Nutzung weiterer Services der Nutanix-Plattform ausgelegt und ermöglicht gleichzeitig Bereitstellungen auf hyperkonvergenter Infrastruktur (HCI), Bare Metal und Cloud IaaS. NAI-Kunden können ferner die Kubernetes-Plattform von Nutanix für das Flottenmanagement containerisierter Cloud-nativer Anwendungen in der Multicloud sowie Nutanix Unified Storage (NUS) und Nutanix Database Service (NDB) als diskrete Datenservices nutzen.