NVIDIA und der Cloud-Dienstleister CoreWeave haben die Erweiterung ihrer langjährigen Partnerschaft bekannt gegeben. Der neue Vertrag verbindet Infrastrukturausbau, Kapitalinvestitionen und frühen Zugang zu zukünftigen Computing-Plattformen eng miteinander.

Gemäß der Vereinbarung wird CoreWeave einer der ersten Cloud-Anbieter sein, der die NVIDIA Vera Rubin-Generation von Computing-Plattformen einsetzen wird. Dies festigt seine Position als wichtiger Partner im Bereich der groß angelegten KI-Infrastruktur weiter. NVIDIA hat CoreWeave zudem durch den direkten Kauf von Aktien mit 2 Milliarden US-Dollar unterstützt, was die Tiefe der Zusammenarbeit unterstreicht.
Das Kernziel dieser Partnerschaft ist die Beschleunigung des Aufbaus von KI-Fabriken. CoreWeave plant, bis 2030 eine Rechenkapazität von über 5 Gigawatt zu erreichen. NVIDIAs Beteiligung geht über die Bereitstellung von Hardware-Beschleunigern hinaus und umfasst auch Hilfe bei der Beschaffung von Land, Stromressourcen und physischer Infrastruktur.
Jensen Huang, Gründer und CEO von NVIDIA, sagte: „Künstliche Intelligenz tritt in eine neue Entwicklungsphase ein und treibt den größten Infrastrukturausbau in der Geschichte der Menschheit voran.“ Er fügte hinzu: „CoreWeave verfügt über das Fachwissen, die Plattformsoftware und die schnelle Umsetzungsfähigkeit für den Bau von KI-Fabriken. Gemeinsam arbeiten wir daran, die starke Nachfrage nach NVIDIA-KI-Fabriken zu erfüllen – der Grundlage der industriellen KI-Revolution.“
Die Abstimmung zwischen den Parteien auf Infrastruktur- und Softwareebene wird ebenfalls vertieft. Die Cloud-Plattform-Stack und Betriebstools von CoreWeave werden zusammen mit NVIDIAs Referenzarchitektur getestet und validiert. Michael Intrator, Mitgründer, Vorstandsvorsitzender und CEO von CoreWeave, sagte: „Von Anfang an basierte unsere Zusammenarbeit auf einer Kernidee: KI kann nur erfolgreich sein, wenn Software, Infrastruktur und Betrieb gemeinsam gestaltet werden.“
CoreWeave plant, mehrere Generationen von NVIDIA-Computing-Plattformen in seinen Rechenzentren einzusetzen, darunter die frühe Einführung der Rubin-Plattform, der Vera-CPU und des BlueField-Speichersystems. Diese Mehrgenerationen-Strategie zeigt, dass NVIDIA CoreWeave als Testplattform für vollständige Lösungsstacks betrachtet und nicht nur als Testumgebung für einzelne Komponenten.
Die Vera-CPU wird als eigenständige Option angeboten, was NVIDIAs Bestreben widerspiegelt, die mit zunehmenden Agent-KI-Workloads immer deutlicher werdenden Einschränkungen der Hauptprozessoren anzugehen. Diese Prozessoren nutzen ein maßgeschneidertes Arm-Design mit hoher Kernanzahl, großem kohärentem Speicher und Hochbandbreiten-Interconnect.
Jensen Huang äußerte sich über eine Social-Media-Plattform: „Wir werden erstmals die Vera-CPU anbieten. Vera ist ein herausragender Hauptprozessor. Wir werden die Vera-CPU als eigenständige Komponente der Infrastruktur bereitstellen. Benutzer können ihren Computing-Stack nicht nur auf NVIDIA-GPUs ausführen, sondern jetzt auch überall dort, wo CPU-Workloads benötigt werden, auf NVIDIA-CPUs.“
Diese Zusammenarbeit spiegelt zwei aktuelle Trends im KI-Markt wider. Server-CPUs werden zu einem entscheidenden Engpass in der Lieferkette, insbesondere in agentenbasierten Anwendungsszenarien. Gleichzeitig bietet die separate Bereitstellung von High-End-CPUs Kunden eine Alternative zu vollständigen Rack-Systemen, was die Anfangskosten für bestimmte Bereitstellungsszenarien senken könnte.









