HPE Private Cloud AI

Neue Ära der KI für HPE-Partner

26.07.2024 von Redaktion ChannelPartner
In Kooperation mit Nvidia bietet HPE IT-Dienstleistern eine vollständig vorintegrierte KI-Lösung an, die den Betrieb erheblich vereinfachen soll - ein erweitertes Partnerprogramm für Verkauf und Implementierung der KI-Technologie inklusive.

HPE hat eine erweiterte KI-Partnerschaft mit Nvidia und ein gemeinsames KI-Portolio angekündigt - das ist soweit nichts Außergewöhnliches. Andere Hersteller haben das auch getan. Was ist das Besondere an der HPE-Nvidia-Partnerschaft?

Gerry Steinberger: Zum einen ist der Integrationgrad einzigartig. Das vereinfacht die Einführung und den Betrieb extrem. Nehmen Sie die neue Lösung HPE Private Cloud AI als Beispiel: Sie umfasst alle Hardware- und Softwarekomponenten und Services, die Kunden brauchen, um generative KI in einer privaten, geschützten Umgebung zu betreiben.
Es ist wichtig zu verstehen, dass das keine Referenzarchitektur ist - es ist eine komplett vorintegrierte, schlüsselfertige Lösung mit einem sehr hohen Automatisierungsgrad. Es braucht nur drei Klicks, dann ist das System betriebsbereit.

Gerry Steinberger, Head of Partner Ecosystem Germany und Geschäftsstellenleiter München bei HPE: "Über 50 Prozent der Unternehmen in Deutschland wollen in den nächsten 12 Monaten ihre Investitionen in generative KI hochfahren."
Foto: HPE

Und zum anderen?

Gerry Steinberger: Wir haben zusammen mit Nvidia ein umfangreiches Enablement-Programm für unsere Partner aufgesetzt, das ihnen hilft, KI zu verkaufen, zu implementieren und zu betreiben. Dafür erweitern wir HPE Partner Ready Vantage um viele neue Kompetenzen und Zertifizierungen. Das kommt alles genau zum richtigen Zeitpunkt, weil die Investitionswelle im Enterprise-Markt erst am Anfang steht.

Woher kommt diese Welle?

Gerry Steinberger: Bisher haben vor allem Modell-Bauer, Hyperscaler und Service Provider in generative KI investiert. Beispiele hier aus der Region sind Aleph Alpha oder Northern Data. Bei Unternehmen und Verwaltungen, also im Enterprise-Markt, stehen diese Investitionen dagegen erst an. KPMG hat in einer Studie herausgefunden, dass über 50 Prozent der Unternehmen in Deutschland in den nächsten 12 Monaten ihre Investitionen in generative KI hochfahren wollen.

Trotzdem erfordert das zunächst einmal Investitionen - wie haben Ihre Partner auf die Ankündigungen reagiert?

Gerry Steinberger: Das Interesse ist riesig. Wir haben die Anzahl an Partner-Workshops, in denen wir NVIDIA AI Computing by HPE vorstellen, für dieses Jahr schon vervierfachen müssen, um der Nachfrage gerecht zu werden.
Denn unsere KI-Lösungen sind nicht nur für die großen Platinum-Partner interessant, sondern auch für viele mittelgroße und kleine Partner. Es geht ja nicht immer um die große KI-Komplettlösung - es gibt auch großen Bedarf nach KI-Servern für den operativen Einsatz von KI-Modellen.

Dafür haben Sie jetzt erste Modelle der 12. ProLiant-Generation angekündigt...

Gerry Steinberger: Korrekt, dazu gehören beispielsweise der ProLiant DL384 Gen12 und der DL380a Gen12 - verfügbar ab Herbst. Sie sind mit Grace-Hopper- bzw. Hopper-GPUs ausgerüstet und somit ideal für den Betrieb von LLMs. Und noch ein wichtiges Argument spricht für die 12. Generation.

Und zwar?

Gerry Steinberger: Mit jeder Generation werden die ProLiant-Server effizienter und sparsamer. Und zwar enorm. Bei Gen11 gegenüber Gen10+ sprechen wir hier von einem von Faktor 1:2. Im Vergleich zu Gen8 und Gen9, die ja immer noch genutzt werden, sogar von 1:11.
Diese Entwicklung geht mit Generation 12 weiter. Und das muss auch so sein, wenn wir das KI-Wachstum ohne exorbitante CO2-Belastung und Energiekosten ermöglichen wollen.

Energieeffizienz der Gen11 ProLiant-Server im Vergleich zu den Vorgängergenerationen
Foto: HPE