
Questo articolo non costituisce consulenza finanziaria. L’autore non detiene alcuna posizione nei titoli azionari menzionati.
Google sta attivamente sviluppando le sue unità di elaborazione tensoriale (TPU) per l’intelligenza artificiale, posizionandosi così contro NVIDIA nel panorama in continua evoluzione dell’hardware per l’intelligenza artificiale. Il mercato si è dibattuto se investire nelle costose GPU per l’intelligenza artificiale di NVIDIA o prendere in considerazione alternative interne più convenienti. Recenti report hanno indicato un forte calo delle azioni di Amazon, in calo del 9, 8% dopo la pubblicazione degli utili del secondo trimestre. Il calo è stato attribuito a un calo dei ricavi del cloud computing, che secondo gli analisti deriva dalla scelta di Amazon di utilizzare i propri chip Trainium per l’intelligenza artificiale al posto di quelli offerti da NVIDIA. In risposta a ciò, Google si starebbe impegnando con aziende di cloud computing più piccole per integrare i suoi chip TPU insieme alle GPU di NVIDIA.
Google punta all’integrazione TPU con GPU NVIDIA nei data center
Un rapporto di giugno ha evidenziato che OpenAI stava sfruttando le TPU di Google per migliorare ChatGPT e vari servizi di intelligenza artificiale. Sebbene questa affermazione si basi su un’unica fonte, anche se accurata, probabilmente rappresenta un aumento marginale della dipendenza di OpenAI dall’hardware di Google. The Information ha successivamente segnalato un’iniziativa in cui Google si sta rivolgendo a fornitori di infrastrutture cloud più piccoli per proporre l’inclusione delle sue TPU accanto alle più note GPU NVIDIA. Questa mossa strategica sembra progettata per alimentare la domanda di mercato per i prodotti Google in un contesto competitivo.

Secondo The Information, l’intenzione di Google di promuovere le TPU va oltre la semplice sfida al predominio di NVIDIA. Un fattore cruciale potrebbe essere la limitazione della capacità di Google: pur disponendo di una fornitura sufficiente di chip, l’azienda non è in grado di espandere rapidamente la propria infrastruttura di data center per utilizzare in modo adeguato le GPU. Di conseguenza, Google potrebbe dipendere da data center di terze parti dotati delle sue TPU per soddisfare i requisiti interni di elaborazione dell’intelligenza artificiale.
L’attenzione sulle GPU AI di NVIDIA e sulle strategie dei giganti della tecnologia in merito alla produzione interna di chip si è intensificata in seguito all’ultimo rapporto sugli utili di Amazon. Questa divulgazione ha inizialmente portato a un calo di quasi il 10% del prezzo delle azioni Amazon, poiché gli investitori hanno espresso preoccupazione per la potenziale stagnazione della crescita del cloud computing alimentata dalla dipendenza da Trainium. Un recente rapporto di New Street sottolinea che persistono difficoltà di adozione per Amazon Web Services (AWS), indicando una preferenza per le GPU rispetto a Trainium, in particolare da parte di Anthropic, un attore chiave nello sviluppo di modelli di intelligenza artificiale.
Mentre gli incentivi finanziari dei chip proprietari attraggono le principali aziende tecnologiche, NVIDIA sostiene che le sue GPU offrano prestazioni ed efficienza senza pari. La concorrenza nella tecnologia dei chip per l’intelligenza artificiale continua a intensificarsi, con ogni azienda impegnata a dimostrare la propria superiorità in un settore sempre più importante.
Lascia un commento