Computex

AMD und Nvidia kündigen neue KI-Chips an

Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
Das Rennen um leistungsstarke KI-Beschleuniger verschärft sich. AMD und Nvidia wollen jedes Jahr eine neue Produktgeneration herausbringen.
AMD-Chefin Lisa Su kündigte auf der Computex 2024 für jedes Jahr eine neue KI-Chip-Generation an.
AMD-Chefin Lisa Su kündigte auf der Computex 2024 für jedes Jahr eine neue KI-Chip-Generation an.
Foto: AMD

AMD hat zum Auftakt der IT-Messe Computex im taiwanischen Taipeh einen neuen KI-Beschleuniger-Chip vorgestellt. Der "MI 325X" soll im vierten Quartal 2024 herauskommen. AMD will den Chip mit 288 Gigabyte HBM3E-Memory (HBM = High Bandwidth Memory) ausstatten, was laut Hersteller den Datendurchsatz auf sechs Terabyte pro Sekunde aufbohren soll. AMD zufolge biete der MI 325X eine um den Faktor 1,3 bessere Compute-Leistung als vergleichbare Chips der Konkurrenz.

AMD-Chefin Lisa Su kündigte in ihrer Keynote auf der Computex an, den Takt für die weitere KI-Chipentwicklung hochzuhalten und jedes Jahr eine neue Generation herauszubringen. Bereits 2025 soll die MI-350-Serie folgen, die zwar auf dem gleichen Server-Design wie die aktuelle MI-300-Familie basieren soll, aber mit CDNA4 eine neue Architektur beinhalten werde. Die KI-Leistung des MI 350 soll AMD zufolge um bis zu 35-mal besser sein, als beim aktuellen MI 300. 2026 soll dann mit CDNA Next und der MI-400-Serie die nächste Ausbaustufe folgen.

AMD setzt auf die KI-Karte

"KI besitzt ganz eindeutig die höchste Priorität im Unternehmen", sagte Su in Taipeh. Man habe dafür die Entwicklungsressourcen entsprechend umverteilt. Der jährliche Rhythmus sei notwendig, weil der Markt ständig neuere Produkte und neuere Fähigkeiten erfordert. "Jedes Jahr haben wir das nächste große Ding, sodass wir immer das wettbewerbsfähigste Portfolio haben", kündigte die AMD-Chefin an.

Mit den Ankündigungen will AMD dem großen Konkurrenten Nvidia Paroli bieten. Nvidia-CEO Jensen Huang hat ebenfalls angekündigt, jedes Jahr eine neue Produktgeneration herausbringen zu wollen. Überraschend kündigte Nvidia im Vorfeld der Computex mit "Rubin" eine neue KI-Chip-Plattform an, die 2026 ausgeliefert werden soll. Erst im März 2024 hatte der Hersteller "Blackwell" vorgestellt. Die Chips sollen Ende des Jahres auf den Markt kommen. Rubin soll eine deutlich verbesserte KI-Leistung bieten und dabei weniger Energie verbrauchen, hieß es.

Markt für KI-Chips legt deutlich zu

Die jüngsten Ankündigungen der beiden Chipgiganten deuten darauf hin, dass sich das Wettrennen um immer leistungsstärkere KI-Chips weiter beschleunigen dürfte. Ein Rennen, das sich lohnen könnte. Gartner zufolge wird sich der weltweite Umsatz mit KI-Chips 2024 auf rund 71 Milliarden Dollar belaufen, ein Drittel mehr als im vergangenen Jahr (54 Milliarden Dollar). 2025 soll der Markt weiter wachsen, auf dann knapp 92 Milliarden Dollar.

"Heute treibt generative KI (GenAI) die Nachfrage nach leistungsstarken KI-Chips in Rechenzentren an", sagte Alan Priestley, VP-Analyst bei Gartner. Allerdings herrsche derzeit noch viel Bewegung im Markt. Neben den Halbleiterherstellern, die in erster Linie auf GPU-Architekturen setzten, arbeiteten auch die Plattformanbieter wie AWS, Google, Meta und Microsoft an eigenen für den KI-Einsatz optimierten Chip-Designs.

Die Entwicklung von Chips sei zwar kostspielig, erläuterte Gartner Analyst Priestley. Allerdings könnten maßgeschneiderte Chips die betriebliche Effizienz verbessern, die Kosten für die Bereitstellung von KI-basierten Diensten für die Nutzer senken und die Hürden für den Zugang der Nutzer zu neuen KI-basierten Anwendungen abbauen. "Da sich der Markt von der Entwicklung zur Bereitstellung verlagert, erwarten wir, dass sich dieser Trend fortsetzt."

Zur Startseite