de.wedoany.com-Bericht: Meta und Amazon haben am 24. April gemeinsam ein mehrjähriges Chip-Beschaffungsabkommen bekannt gegeben. Meta wird in großem Umfang AWS Graviton-Prozessoren einsetzen. Wie aus der offiziellen Pressemitteilung von Amazon hervorgeht, umfasst die erste Phase dieser Bereitstellung mehrere zehn Millionen Graviton-Kerne. In der Folge soll die Anzahl je nach dem Wachstum der KI-Fähigkeiten von Meta flexibel erweitert werden. Der Vizepräsident und Distinguished Engineer von Amazon, Nafea Bshara, erklärte öffentlich, dass die Laufzeit des Abkommens drei bis fünf Jahre beträgt und Meta damit zu einem der fünf weltweit größten Graviton-Kunden von AWS machen wird.
Santosh Janardhan, der für die Infrastruktur von Meta zuständige Verantwortliche, betonte in der Pressemitteilung, dass mit der stetigen Vergrößerung der Infrastruktur, die Metas KI-Vision untermauert, die Diversifizierung der Rechenressourcen zu einer strategischen Notwendigkeit geworden sei. Er wies darauf hin, dass die Erweiterung auf Graviton es Meta ermögliche, die CPU-intensiven Workloads hinter KI-Agenten mit der erforderlichen Leistung und Effizienz auszuführen. Meta hat in diesem Jahr bereits Chip-Kooperationsvereinbarungen mit Nvidia, AMD und Arm Holdings getroffen. Anfang dieser Woche wurden zudem GPU-Rechenleistungs-Leasingverträge im Gesamtwert von 48 Milliarden US-Dollar mit CoreWeave und Nebius abgeschlossen sowie die Reduzierung von rund 8.000 Arbeitsplätzen im Mai angekündigt, um die kontinuierlich steigenden Investitionskosten für die KI-Infrastruktur auszugleichen.
Der in diesem Abkommen genannte Graviton5-Chip ist ein von Amazon selbst entwickelter, auf der Arm-Architektur basierender Allzweck-CPU. Er wird im 3-Nanometer-Verfahren gefertigt, verfügt über 192 Kerne pro Chip, der Cache wurde im Vergleich zur Vorgängergeneration um das Fünffache erhöht, und die Kommunikationslatenz zwischen den Kernen konnte um bis zu 33 % reduziert werden. Amazon gibt an, dass Graviton auf der AWS EC2-Plattform das kosteneffizienteste Angebot unter vergleichbaren Rechenoptionen darstellt. Der Stromverbrauch sei im Vergleich zu vergleichbaren x86-Lösungen um etwa 60 % niedriger, bei einer Leistungssteigerung von bis zu 25 %. Der Chip läuft auf dem AWS Nitro System und unterstützt den Elastic Fabric Adapter. Dies ermöglicht eine latenzarme, bandbreitenstarke Kommunikation zwischen den Instanzen, was für die Verteilung umfangreicher KI-Agenten-Workloads auf viele gemeinsam arbeitende Server entscheidend ist.
Diese Zusammenarbeit markiert eine strukturelle Aufweichung der von GPUs dominierten KI-Chip-Landschaft. Der Aufstieg von KI-Agenten hat eine Vielzahl CPU-intensiver Arbeitslasten hervorgebracht, die Bereiche wie Echtzeit-Inferenz, Codegenerierung, Suche und die Orchestrierung mehrschrittiger Aufgaben abdecken. Der Graviton5 wurde speziell für diese Szenarien entwickelt und kann komplexe Agenten-Workflows effizient im Milliarden-Interaktionsmaßstab koordinieren. Diese Tendenz wird auch durch die Äußerungen von Intel-CEO Lip-Bu Tan in einer Telefonkonferenz zu den Quartalszahlen am Donnerstag bestätigt. Er wies darauf hin, dass die Nachfrage in allen Geschäftsbereichen trotz steigender Produktionskapazitäten das Angebot übersteige, insbesondere bei den Xeon-Server-CPUs. Er fügte hinzu, dass die CPU sich wieder zu einer unverzichtbaren Infrastruktur im KI-Zeitalter entwickle.
Die industrielle Positionierung des Graviton-Chips wird durch dieses Abkommen weiter gestärkt. Amazon-CEO Andy Jassy offenbarte im jährlichen Aktionärsbrief, dass das Geschäft mit Amazons selbst entwickelten Chips, einschließlich Graviton, Trainium und Nitro, einen annualisierten Umsatz von über 20 Milliarden US-Dollar erzielt hat und zudem beabsichtigt werde, Chip-Racks direkt an Dritte zu verkaufen. Angesichts der anhaltend hohen KI-Nachfrage wird der strategische Wert von CPUs in der Rechenzentrums-Infrastruktur neu bewertet. Die umfassende Bereitstellung von Graviton durch Meta liefert einen wegweisenden Beleg für die umfassende Renaissance der CPU im KI-Inferenz-Zeitalter.
Dieser Artikel wurde von Wedoany übersetzt und bearbeitet. Bei jeglicher Zitierung oder Nutzung durch künstliche Intelligenz (KI) ist die Quellenangabe „Wedoany“ zwingend vorgeschrieben. Sollten Urheberrechtsverletzungen oder andere Probleme vorliegen, bitten wir Sie, uns unverzüglich zu benachrichtigen. Wir werden den entsprechenden Inhalt umgehend anpassen oder löschen.
E-Mail: news@wedoany.com










