
AMD ha intrapreso una missione volta a migliorare l’efficienza energetica dei cluster di intelligenza artificiale su scala rack, con l’ambizione ambiziosa di raggiungere un miglioramento dell’efficienza di 20 volte entro il 2030. Questa iniziativa mira a rendere i calcoli di intelligenza artificiale più scalabili e sostenibili dal punto di vista ambientale, in quanto la domanda di risorse di calcolo continua a crescere.
L’impegno di AMD per l’efficienza energetica nell’intelligenza artificiale
[ Comunicato stampa ]: Per AMD, l’efficienza energetica è un principio fondamentale che influenza da anni la nostra filosofia di progettazione e la roadmap dei prodotti. Nell’ultimo decennio, abbiamo definito e raggiunto obiettivi ambiziosi e pubblicamente annunciati per migliorare le prestazioni energetiche delle nostre offerte. Oggi annunciamo con orgoglio di aver superato il nostro obiettivo 30×25, puntando al contempo a un nuovo entusiasmante obiettivo per i prossimi anni.
Durante la recente conferenza Advancing AI, abbiamo rivelato che AMD non solo ha raggiunto, ma ha anche superato l’obiettivo 30×25 stabilito nel 2021, che mirava a migliorare di 30 volte l’efficienza energetica dei nodi di addestramento dell’IA e di elaborazione ad alte prestazioni tra il 2020 e il 2025. Sebbene il raggiungimento di questo traguardo sia un risultato significativo, il nostro percorso non finisce qui.
Con la continua espansione ed evoluzione dell’intelligenza artificiale, la necessità di progettare sistemi di intelligenza artificiale end-to-end completi diventa sempre più evidente. Per mantenere la nostra leadership nella progettazione a basso consumo energetico, ci stiamo ponendo un nuovo, ambizioso obiettivo: aumentare di 20 volte l’efficienza energetica a livello di rack per l’addestramento e l’inferenza dell’intelligenza artificiale, partendo da un obiettivo base del 2024 e puntando al completamento entro il 2030.
Definire un nuovo standard per l’efficienza dell’intelligenza artificiale
Con la crescita dei carichi di lavoro dell’IA e l’incessante aumento della domanda, è chiaro che i miglioramenti limitati all’efficienza a livello di nodo non saranno sufficienti. I maggiori progressi in termini di efficienza sono ora realizzabili a livello di sistema, che è al centro del nostro obiettivo per il 2030.
Siamo fiduciosi nella nostra capacità di raggiungere questo ambizioso aumento di 20 volte dell’efficienza energetica a livello di rack nell’addestramento e nell’inferenza dell’IA entro il 2030, che supererà di quasi tre volte i miglioramenti previsti nel settore dal 2018 al 2025. Questo obiettivo comprende miglioramenti delle prestazioni per watt che interessano l’intero rack, inclusi CPU, GPU, memoria, networking, storage e la progettazione sinergica di hardware e software: un’evoluzione resa possibile dalla nostra strategia completa di IA end-to-end volta a garantire operazioni di data center scalabili e sostenibili.
Impatto reale del miglioramento dell’efficienza
Il raggiungimento di un miglioramento di 20 volte dell’efficienza a livello di rack, con un tasso di accelerazione quasi tre volte superiore alla media del settore precedente, avrà conseguenze profonde. Utilizzando come riferimento l’addestramento di un modello di intelligenza artificiale rappresentativo previsto per il 2025, i benefici previsti includono:
- Consolidamento di rack da oltre 275 a meno di uno completamente utilizzato.
- Una notevole riduzione del consumo energetico operativo di oltre il 95%.
- Una riduzione delle emissioni di carbonio da circa 3.000 tonnellate a sole 100 tonnellate di CO2 equivalente durante l’addestramento del modello.
In AMD, siamo entusiasti di cogliere queste opportunità non solo per migliorare i livelli di prestazioni, ma anche per ridefinire le possibilità quando l’efficienza energetica ha la precedenza. Man mano che ci avviciniamo al nostro obiettivo, terremo informati i nostri stakeholder sui nostri progressi e sugli impatti positivi che questi miglioramenti avranno sull’intero ecosistema.
Lascia un commento