
Dieser Artikel stellt keine Finanzberatung dar. Der Autor hält keine Positionen in den genannten Aktien.
Google entwickelt seine KI-Tensor-Processing-Units (TPUs) aktiv weiter und positioniert sich damit im sich entwickelnden KI-Hardware-Markt gegenüber NVIDIA. Der Markt diskutiert, ob in NVIDIAs teure KI-GPUs investiert oder günstigere, hauseigene Alternativen in Betracht gezogen werden sollen. Jüngste Berichte deuteten auf einen starken Rückgang der Amazon-Aktie hin, die nach der Veröffentlichung der Ergebnisse des zweiten Quartals um 9, 8 % fiel. Der Rückgang wird auf rückläufige Einnahmen aus dem Cloud-Computing zurückgeführt, die laut Analysten auf Amazons Entscheidung zurückzuführen sind, anstelle von NVIDIAs Angeboten auf seine eigenen Trainium-KI-Chips zurückzugreifen. Als Reaktion darauf arbeitet Google Berichten zufolge mit kleineren Cloud-Computing-Unternehmen zusammen, um seine TPU-Chips neben NVIDIAs GPUs zu integrieren.
Google zielt auf TPU-Integration mit NVIDIA-GPUs in Rechenzentren ab
Ein Bericht vom Juni hob hervor, dass OpenAI Googles TPUs nutzt, um ChatGPT und verschiedene KI-Dienste zu verbessern. Diese Behauptung basierte zwar auf einer einzigen Quelle, doch selbst wenn sie zutreffend wäre, dürfte sie die Abhängigkeit von OpenAI von Google-Hardware nur geringfügig erhöht haben. The Information berichtete anschließend über eine Initiative, bei der Google kleinere Cloud-Infrastrukturanbieter kontaktiert, um die Einbindung seiner TPUs neben den bekannteren NVIDIA-GPUs vorzuschlagen. Dieser strategische Schritt scheint darauf abzuzielen, die Marktnachfrage nach Google-Produkten in einem wettbewerbsintensiven Umfeld zu fördern.

Laut The Information geht Googles Absicht, TPUs zu fördern, über die bloße Herausforderung der Marktdominanz von NVIDIA hinaus. Ein entscheidender Faktor könnten Googles Kapazitätsengpässe sein. Obwohl das Unternehmen über ausreichend Chips verfügt, ist es nicht in der Lage, seine Rechenzentrumsinfrastruktur schnell zu erweitern, um die GPUs ausreichend zu nutzen. Daher ist Google möglicherweise auf Rechenzentren von Drittanbietern angewiesen, die mit seinen TPUs ausgestattet sind, um die internen KI-Rechenanforderungen zu erfüllen.
Die Aufmerksamkeit auf NVIDIAs KI-GPUs und die Strategien der Tech-Giganten zur eigenen Chip-Fertigung hat sich nach Amazons jüngstem Ergebnisbericht verschärft. Diese Veröffentlichung führte zunächst zu einem Rückgang des Amazon-Aktienkurses um fast 10 %, da Investoren Bedenken hinsichtlich einer möglichen Stagnation des Cloud-Computing-Wachstums aufgrund der Abhängigkeit von Trainium äußerten. Ein aktueller Bericht von New Street betont, dass die Einführung von Amazon Web Services (AWS) weiterhin Herausforderungen mit sich bringt, was auf eine Präferenz für GPUs gegenüber Trainium hindeutet, insbesondere von Anthropic, einem wichtigen Akteur in der KI-Modellentwicklung.
Während die finanziellen Anreize proprietärer Chips für große Technologieunternehmen attraktiv sind, behauptet NVIDIA, dass seine GPUs unübertroffene Leistung und Effizienz bieten. Der Wettbewerb in der KI-Chip-Technologie verschärft sich weiter, und jedes Unternehmen versucht, seine Überlegenheit in einem zunehmend wichtigen Bereich zu beweisen.
Schreibe einen Kommentar