AMD vede il futuro nell’inferenza per dispositivi mobili e laptop; punta a competere con la leadership di NVIDIA nell’intelligenza artificiale

AMD vede il futuro nell’inferenza per dispositivi mobili e laptop; punta a competere con la leadership di NVIDIA nell’intelligenza artificiale

AMD prevede un allontanamento dall’inferenza tradizionale dei data center verso un futuro in cui i dispositivi consumer, come smartphone e laptop, diventeranno le piattaforme principali per queste operazioni.

Il Chief Technology Officer di AMD delinea la prossima ondata di intelligenza artificiale: migrazione dell’inferenza verso i dispositivi edge

L’inizio della “frenesia dell’IA” si è inizialmente concentrato sull’addestramento dei modelli, con diverse aziende che hanno accumulato ingenti risorse computazionali per l’addestramento di modelli linguistici di grandi dimensioni (LLM).Tuttavia, sta emergendo una tendenza degna di nota, che indica una svolta verso le capacità di inferenza. In una recente intervista con Business Insider, Mark Papermaster, Chief Technology Officer di AMD, ha condiviso approfondimenti su questa transizione, evidenziando che l’inferenza si sta sempre più spostando verso i dispositivi edge. AMD è pronta a sfidare NVIDIA in questo segmento di mercato in rapida crescita.

Domanda: OK, diciamo che siamo nel 2030: quanta inferenza viene fatta ai margini?

CTO di AMD: Col tempo, la maggioranza sarà rappresentata. Non posso dire quando avverrà il passaggio, perché è guidato dalle applicazioni, dallo sviluppo di applicazioni innovative che possono essere eseguite su dispositivi edge. Al momento stiamo solo assistendo a un’accelerazione, ma credo che la situazione si stia evolvendo rapidamente.

Papermaster suggerisce che l’aumento dei costi relativi all’elaborazione dell’intelligenza artificiale nei data center costringerà giganti della tecnologia come Microsoft, Meta e Google a riconsiderare le proprie strategie, portando a una più ampia adozione di soluzioni di intelligenza artificiale edge. Sottolinea che AMD considera il potenziale dei “PC AI” più seriamente rispetto a concorrenti come Intel e Qualcomm. Questa prospettiva si riflette nelle ultime linee di APU di AMD, tra cui Strix Point e Strix Halo, progettate per integrare le funzionalità di intelligenza artificiale in sistemi compatti, pur mantenendo un ottimo rapporto qualità-prezzo.

Le APU AMD Krackan Point a 8 core "CPU e GPU" sono riservate alle APU Ryzen AI 7, le CPU Strix a 8 core sono disponibili solo nelle versioni "PRO" con 12 core GPU.

Discutendo dell’evoluzione delle risorse di elaborazione, Papermaster ha sottolineato l’importanza di migliorare l’accuratezza e l’efficienza dei modelli di intelligenza artificiale. Con l’introduzione di DeepSeek, i principali attori del settore tecnologico stanno adottando sempre più alternative ottimizzate per i loro processi di intelligenza artificiale. L’obiettivo a lungo termine è che i dispositivi eseguano localmente modelli di intelligenza artificiale sofisticati, massimizzando così l’esperienza utente nell’utilizzo dell’intelligenza artificiale.

Le opinioni espresse dal CTO di AMD riecheggiano le precedenti affermazioni di Pat Gelsinger, ex CEO di Intel, sulla necessità di concentrarsi sull’inferenza per i progressi futuri. Ciò indica che le aziende concorrenti di NVIDIA hanno incontrato difficoltà a penetrare nel settore del “training dell’IA”, in cui NVIDIA ha consolidato una posizione di leadership formidabile. AMD sembra invece pronta a compiere passi da gigante nel mercato dell’IA edge, offrendo processori specificamente progettati per queste applicazioni emergenti.

Fonte e immagini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *