de.wedoany.com-Bericht: Der US-Technologieriese Google führt Gespräche mit dem in Kalifornien ansässigen Chip-Hersteller Marvell, um gemeinsam zwei neue Inferenzchips zu entwickeln. Diese Zusammenarbeit zielt darauf ab, die Hardware-Fähigkeiten von Google im Bereich der künstlichen Intelligenz zu stärken.

Berichten von The Information und FundaAI zufolge konzentrieren sich die Diskussionen auf eine Speicherverarbeitungseinheit, die mit Googles Tensor Processing Units zusammenarbeiten soll, sowie auf eine neue Art von TPU, die speziell für die Ausführung von KI-Modellen entwickelt wird. Informierte Kreise berichten, dass dieser Speicherprozessor die KI-Arbeitslast je nach Rechen- und Speicherbedarf gemeinsam mit der TPU bewältigen wird. Die beiden Unternehmen streben an, das Design bis 2027 abzuschließen und planen die Produktion von etwa 2 Millionen Hardware-Einheiten. Die Berichte weisen jedoch darauf hin, dass die Diskussionen noch in einem frühen Stadium sind und die genauen Zahlen möglicherweise angepasst werden.
Obwohl Google in der Vergangenheit Rechenzentrumsprozessoren wie CXL-Controller-Chips von Marvell bezogen hat, handelte es sich dabei um Standardprodukte. Die aktuellen Gespräche betreffen hingegen maßgeschneiderte Chips. Derzeit ist Broadcom der exklusive Design-Partner für Googles TPUs. Beide Seiten gaben Anfang dieses Monats eine langfristige Vereinbarung bekannt, wonach Broadcom die Entwicklung von Google-Prozessoren bis 2031 fortsetzen wird. Berichten zufolge sucht Google jedoch seit 2023 nach Alternativen zu Broadcom, unter anderem aufgrund der hohen Gebühren, die der Chiphersteller verlangt und die mit der steigenden Nachfrage nach Prozessoren weiter ansteigen.
Die Entwicklung neuer Inferenzchips bei Google wurde durch die Ankündigung der Language Processing Unit von Nvidia auf der GTC-Konferenz im letzten Monat beschleunigt. Gleichzeitig stellte Microsoft Anfang dieses Jahres seinen Maia 200 Inferenz-Chip vor, und Meta präsentierte kürzlich die vierte Generation seiner Meta Training and Inference Accelerator-Chips, die hauptsächlich generative KI-Inferenzaufgaben unterstützen. Letzte Woche kündigte Meta eine Zusammenarbeit mit Broadcom zur Entwicklung mehrerer Generationen von MTIA-Hardware an. OpenAI arbeitet ebenfalls mit Broadcom an einem maßgeschneiderten Inferenz-Chip, obwohl es seit der Bekanntgabe der Vereinbarung im Oktober 2025 keine Aktualisierungen gab.
Speziell für Inferenzaufgaben entwickelte Chips gewinnen zunehmend an Bedeutung. Dies liegt an Veränderungen in den KI-Trainingsworkloads sowie am Aufkommen von Agenten-KI-Tools und Workloads mit hohem Rechenaufwand und geringer Latenz, die von universellen Prozessoren nur schwer zu bewältigen sind. Die Zusammenarbeit zwischen Google und Marvell wird voraussichtlich die weitere Entwicklung von KI-Inferenzchips vorantreiben und die Hardware-Vorteile von Google im Wettbewerb stärken.
Dieser Artikel wurde von Wedoany übersetzt und bearbeitet. Bei jeglicher Zitierung oder Nutzung durch künstliche Intelligenz (KI) ist die Quellenangabe „Wedoany“ zwingend vorgeschrieben. Sollten Urheberrechtsverletzungen oder andere Probleme vorliegen, bitten wir Sie, uns unverzüglich zu benachrichtigen. Wir werden den entsprechenden Inhalt umgehend anpassen oder löschen.
E-Mail: news@wedoany.com









