Il progetto Battlematrix di Intel con GPU Arc Pro B60 raggiunge prestazioni 4 volte superiori per dollaro rispetto a NVIDIA nei benchmark MLPerf v5.1

Il progetto Battlematrix di Intel con GPU Arc Pro B60 raggiunge prestazioni 4 volte superiori per dollaro rispetto a NVIDIA nei benchmark MLPerf v5.1

Intel ha pubblicato i nuovi risultati dei benchmark per la sua workstation Project Battlematrix, dotata di GPU Arc Pro B60, nell’ambito delle valutazioni MLPerf Inference v5.1.

Approfondimenti sulle prestazioni: Intel Project Battlematrix con GPU Arc Pro B60 e CPU Xeon 6

Comunicato stampa: In un’importante novità, MLCommons ha presentato gli ultimi benchmark MLPerf Inference v5.1, che mostrano i sistemi GPU avanzati di Intel. Questi sistemi utilizzano processori Intel Xeon abbinati a P-core e GPU Arc Pro B60, collettivamente denominati Project Battlematrix.

I benchmark indicano che Intel Arc Pro B60 raggiunge prestazioni per dollaro fino a 1, 25 volte superiori nel benchmark Llama 8B e dimostra un impressionante vantaggio prestazionale fino a quattro volte superiore rispetto a RTX Pro 6000 e L40S di NVIDIA. Questo risultato in termini di prestazioni segna un passo significativo nel rendere le soluzioni di inferenza AI avanzate accessibili principalmente tramite hardware interamente Intel.

Il significato di questo sviluppo

Per i professionisti che necessitano di piattaforme di inferenza AI robuste, le opzioni sono state notevolmente limitate. La necessità di una soluzione in grado di offrire eccellenti prestazioni di inferenza garantendo al contempo la privacy dei dati, evitando gli elevati costi di abbonamento associati ai modelli di intelligenza artificiale proprietari, è diventata una preoccupazione crescente. L’iniziativa Project Battlematrix mira a colmare questa lacuna fornendo una soluzione completa in grado di implementare efficacemente modelli linguistici di grandi dimensioni (LLM).

I nuovi sistemi GPU di Intel sono progettati non solo per affrontare le moderne attività di intelligenza artificiale, ma anche per fornire una piattaforma di inferenza completa, che unisce hardware affidabile a framework software convalidati. L’attenzione all’esperienza utente è evidente, poiché questi sistemi sono dotati di una nuova soluzione containerizzata ottimizzata per ambienti Linux, che facilita prestazioni di inferenza eccezionali attraverso il ridimensionamento multi-GPU e il trasferimento dati punto-punto PCIe.

Il ruolo essenziale delle CPU nei sistemi di intelligenza artificiale

Le CPU rimangono centrali nell’architettura dei sistemi di intelligenza artificiale, fungendo da orchestratore critico per l’elaborazione, la trasmissione e la gestione complessiva del sistema. Negli ultimi quattro anni, Intel ha costantemente migliorato le prestazioni delle sue CPU nelle applicazioni di intelligenza artificiale. Questi progressi hanno posizionato i processori Intel Xeon come la scelta preferita per gestire efficacemente i carichi di lavoro di intelligenza artificiale all’interno di sistemi basati su GPU.

L’impegno di Intel verso l’eccellenza è ulteriormente evidenziato dal suo status di unico fornitore a inviare i risultati delle CPU server a MLPerf, a dimostrazione del suo impegno nel migliorare le capacità di inferenza dell’intelligenza artificiale sia sulle piattaforme di calcolo che su quelle di accelerazione. In particolare, l’introduzione del processore Intel Xeon 6 con core P ha prodotto un miglioramento delle prestazioni di 1, 9 volte generazione dopo generazione negli ultimi benchmark di MLPerf Inference v5.1.

Fonte e immagini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *