Mit "GPT-in-a-Box" hat Nutanix einen Software-Stack vorgestellt, der Unternehmen bei der Skalierung und Konfigurierung von Hard- und Software helfen soll, mit Open-Source-Frameworks für KI und "Machine Learning Operations" (MLOps) auf der Nutanix Cloud Platform ein Set von "Large Language Models" (LLMs) bereitzustellen. Nutanix verspricht eine "schlüsselfertige Infrastruktur für den Einsatz von KI-Lösungen", mit deren Hilfe Unternehmn "Generative Pre-trained Transformers" (GPTs) und LLMs in ihren Edge-Umgebungen und Rechenzentren betreiben und optimieren können.
Stärken seines Angebots sieht Nutanix insbesondere da, wo Firmen aufgrund von Bedenken bezüglich Datenhoheit, Governance und Privatsphäre KI nicht in der Public Cloud nutzen wollen oder können. Einer aktuellen Umfrage von Gigamon zufolge haben solche Bedenken zum Beispiel beim Einsatz von ChatGPT in Deutschland etwa ein Viertel der Firmen, wobei fünf Prozent das Angebot sogar ganz aus ihrem Unternehmen verbannt haben.
Ein Großteil der Unternehmen ist jedoch KI gegenüber aufgrund des Erfolges von ChatGPT deutlich aufgeschlossener als noch im Vorjahr. Insbesondere für generative KI wird Potenzial für die Verbesserung von Kundenservice, Entwicklerproduktivität und Betriebseffizienz gesehen. Doch selbst Firmen, die bei der Nutzung der dafür angebotenen Dienste grundsätzlich wenig Sicherheitsbedenken haben, sollten sich über den Schutz geistigem Eigentums, die Einhaltung von Vorschriften und Regularien sowie die möglicherweise bald strengeren Vorschriften zum Datenschutz Gedanken machen. Darüber hinaus fehlt Firmen oft das Wissen, wie sie einen einsatzbereiten KI-Stack aufbauen können und wie sie dabei die Kosten im Rahmen halten.
"Kunden, die generative KI-Lösungen entwickeln und bereitstellen möchten, haben damit zu kämpfen, dass sie das für die Installation, Konfiguration und Ausführung dieser Workloads erforderliche Fachwissen mit den Bedenken hinsichtlich Datensicherheit und Schutz des geistigen Eigentums des Unternehmens in Einklang bringen müssen - und das alles bei gleichzeitiger Kostenkontrolle", fasst Greg Macatee, Senior Research Analyst, Infrastructure Systems, Platforms and Technologies Group bei IDC die Problematik zusammen.
Zum Gesamtpaket von GPT in a Box gehören die Nutanix-Cloud-Infrastructure-Plattform, die Speicherlösungen Nutanix Files Storage und Nutanix Objects Storage, der Hypervisor Nutanix AHV und Kubernetes sowie die Nvidia-GPU-Beschleunigungstechnologie. Alle lassen sich beliebig nach oben und unten skalieren. Ebenfalls dabei sind Dienste zur Unterstützung von Kunden bei der Skalierung ihres Clusters und der Bereitstellung eines umfassenden Stacks mit Open-Source-Frameworks für Deep Learning und MLOps, Inferenzservern und ein Set an LLMs wie Llama2 (das Angebot des Meta-Konzern) Falcon AI (Open-Source-Angebot aus Abu Dhabi) und MPT (ebenfalls ein Open-Source-Angebot).
Nutzen lässt sich GPT in a Box mit beliebigen Anwendungen, einer erweiterten Terminal-UI oder einer Standard-CLI. Außerdem gibt es die Möglichkeit, auf der Plattform weitere GPT-Modelle zu betreiben und unter Verwendung interner Daten, die auf den mitgelieferten Files- oder Objects-Storage-Diensten von Nutanix gehostet werden, zu optimieren. Nutanix "GPT-in-a-Box" ist ab sofort verfügbar.