
OpenAI sta lavorando attivamente per ridurre la sua dipendenza da NVIDIA e dalle sue GPU sviluppando un chip AI personalizzato. Secondo gli ultimi report, i progressi di questa iniziativa sembrano promettenti, poiché l’azienda procede con la progettazione del silicio, la cui finalizzazione è prevista in pochi mesi. Se lo sviluppo procede senza intoppi, OpenAI punta a inviare questo progetto di chip interno a TSMC per la fase di tape-out nella prima metà del prossimo anno.
Scopo iniziale del chip AI personalizzato di OpenAI
Nonostante le varie sfide che potrebbero presentarsi, OpenAI è fermamente impegnata a raggiungere questo obiettivo. Come sottolineato da CNBC, il processo di tape-out, che dovrebbe durare sei mesi, potrebbe comportare costi significativi. Tuttavia, se OpenAI decidesse di pagare un premio a TSMC, la produzione del chip AI potrebbe essere accelerata. Tuttavia, è importante sottolineare che il primo tentativo di tape-out potrebbe fallire, rendendo necessario un processo ripetuto per identificare eventuali problemi riscontrati.
In precedenza, i report indicavano che OpenAI stava sfruttando il processo A16 Angstrom di TSMC per il suo generatore video Sora. Tuttavia, non è ancora chiaro se il prossimo progetto di chip AI implichi questo stesso processo o se sia in fase di sviluppo una soluzione interna diversa. Il progetto è attualmente guidato da Richard Ho presso OpenAI, con il team che si sta espandendo a 40 persone qualificate. Broadcom sta anche prestando competenza a questo progetto di chip interno, sebbene l’entità del loro contributo non sia stata divulgata con precisione.
Per quanto riguarda il nome specifico del chip AI personalizzato di OpenAI, i dettagli sono ancora segreti. Il chip è destinato principalmente all’addestramento e al funzionamento di modelli AI, con una funzionalità iniziale piuttosto limitata. Se tutto procede come previsto, si prevede che la produzione di massa inizierà nel 2026. Si prevede che TSMC impiegherà la sua avanzata tecnologia a 3 nm per il chip, integrando un’architettura array sistolica insieme a High Bandwidth Memory (HBM), simile alla tecnologia utilizzata nelle GPU AI di NVIDIA.
Lascia un commento