Laut Brancheninformationen bewertet OpenAI aktiv Alternativen zu Nvidias KI-Inferenzchips, um dem steigenden Rechenleistungsbedarf zu begegnen. Im Rahmen laufender Verhandlungen über Hardware-Partnerschaften hat das Unternehmen bereits technische Gespräche mit Chipherstellern wie AMD und Cerebras aufgenommen, wobei der Schwerpunkt auf der Prüfung von Hardware-Lösungen liegt, die die Inferenzgeschwindigkeit von Anwendungen wie ChatGPT erhöhen können.

Seit 2023 hat OpenAI schrittweise seinen Kreis an Chiphersteller-Partnern erweitert. Obwohl Nvidia weiterhin sein zentraler Hardware-Partner ist, hat OpenAI Verbesserungsbedarf bei der Latenzleistung bestehender Geräte in Szenarien wie Code-Optimierung und Software-Kommunikation angemeldet. Technischen Dokumenten zufolge zielt das Unternehmen darauf ab, durch eine diversifizierte Hardware-Landschaft sicherzustellen, dass Alternativen künftig etwa 10 % der Inferenz-Arbeitslast übernehmen können, um eine elastischere Rechenarchitektur zu schaffen.
„Wir setzen uns stets für die Optimierung der Modelleffizienz ein“, sagte der Leiter der Hardware-Abteilung von OpenAI. „Die derzeitige Erkundung umfasst Chip-Lösungen mit unterschiedlichen Architekturen, wobei der Schwerpunkt auf der Bewertung der Kosten und der Energieeffizienz pro Rechenleistungseinheit liegt.“ Es ist bemerkenswert, dass OpenAI zwar eine Kooperationsvereinbarung mit Cerebras getroffen hat, aber noch keine Technologielizenz von Groq erworben hat, während Nvidia seine technische Zusammenarbeit mit Groq durch Chip-Designlizenzen und den Transfer von Fachkräften vertieft hat.
Zu Marktgerüchten äußerte sich Nvidias CEO Jensen Huang öffentlich: „Die Grundlage der Zusammenarbeit mit OpenAI ist solide, und wir werden weiterhin Hardware-Lösungen bereitstellen, die ihren Entwicklungsbedürfnissen entsprechen.“ Laut Quellen aus der Lieferkette befindet sich die Bewertung von Alternativen durch OpenAI noch in einem frühen Stadium, und es wird erwartet, dass die bestehende Hardware-Architektur in den nächsten 12-18 Monaten nicht umfassend angepasst wird.









