
Intel hat im Rahmen der MLPerf Inference v5.1-Bewertungen neue Benchmark-Ergebnisse für seine Project Battlematrix-Workstation mit Arc Pro B60-GPUs veröffentlicht.
Leistungseinblicke: Intel Project Battlematrix mit Arc Pro B60-GPUs und Xeon 6-CPUs
Pressemitteilung: In einer bedeutenden Entwicklung hat MLCommons die neuesten Benchmarks für MLPerf Inference v5.1 vorgestellt, die die fortschrittlichen GPU-Systeme von Intel präsentieren. Diese Systeme verwenden Intel Xeon-Prozessoren gepaart mit P-Cores und Arc Pro B60-GPUs, die zusammen als Project Battlematrix bezeichnet werden.
Die Benchmarks zeigen, dass die Intel Arc Pro B60 im Llama 8B Benchmark eine bis zu 1, 25-mal bessere Leistung pro Dollar erzielt und einen beeindruckenden Leistungsvorteil von bis zu viermal so viel gegenüber NVIDIAs RTX Pro 6000 und L40S aufweist. Dieses Leistungshighlight markiert einen bedeutenden Schritt, um fortschrittliche KI-Inferenzlösungen primär über reine Intel-Hardware zugänglich zu machen.
Die Bedeutung dieser Entwicklung
Für Fachleute, die robuste KI-Inferenzplattformen benötigen, sind die Optionen bisher deutlich eingeschränkt. Der Bedarf an einer Lösung, die eine hervorragende Inferenzleistung bietet und gleichzeitig den Datenschutz gewährleistet – und die hohen Abonnementgebühren für proprietäre KI-Modelle vermeidet –, ist ein wachsendes Anliegen. Die Initiative „Project Battlematrix“ will diese Lücke schließen und bietet eine umfassende Lösung für den effektiven Einsatz großer Sprachmodelle (LLMs).
Die neuen GPU-Systeme von Intel sind nicht nur für moderne KI-Aufgaben konzipiert, sondern bieten auch eine umfassende Inferenzplattform, die zuverlässige Hardware mit validierten Software-Frameworks verbindet. Der Fokus liegt deutlich auf der Benutzerfreundlichkeit, da diese Systeme mit einer neuen, für Linux-Umgebungen optimierten Containerlösung ausgestattet sind, die durch Multi-GPU-Skalierung und PCIe-Punkt-zu-Punkt-Datenübertragungen eine außergewöhnliche Inferenzleistung ermöglicht.
Die wesentliche Rolle von CPUs in KI-Systemen
CPUs spielen nach wie vor eine zentrale Rolle in der Architektur von KI-Systemen und dienen als entscheidender Koordinator für Verarbeitung, Übertragung und das gesamte Systemmanagement. In den letzten vier Jahren hat Intel die CPU-Leistung in KI-Anwendungen kontinuierlich verbessert. Diese Fortschritte haben Intel Xeon Prozessoren zur bevorzugten Wahl für die effektive Verwaltung von KI-Workloads in GPU-basierten Systemen gemacht.
Intels Engagement für Spitzenleistung wird durch die Tatsache unterstrichen, dass Intel als einziger Anbieter Server-CPU-Ergebnisse an MLPerf übermittelt und damit sein Engagement für die Verbesserung der KI-Inferenzfähigkeiten sowohl auf Rechen- als auch auf Beschleunigerplattformen unter Beweis stellt. Insbesondere die Einführung des Intel Xeon 6-Prozessors mit P-Cores hat in den neuesten MLPerf Inference v5.1-Benchmarks zu einer 1, 9-fachen Leistungssteigerung gegenüber den Vorgängergenerationen geführt.
Schreibe einen Kommentar