NVIDIAs Blackwell AI GPU-Reihe wird zwei große Beschleuniger umfassen, den B100 für 2024 und den B200 für 2025, wie Dell bekannt gab.
Dell enthüllt die Blackwell-KI-GPU-Beschleuniger der nächsten Generation von NVIDIA: B100 im Jahr 2024, gefolgt von B200 im Jahr 2025
Während seiner jüngsten Gewinnmitteilung gab Dell bekannt, dass die Blackwell-Reihe der nächsten Generation von NVIDIA nicht nur über einen B100-KI-Beschleuniger verfügen wird, sondern dass später auch eine aktualisierte Version angeboten wird. Wie es aussieht, scheint NVIDIA diese Informationen bereits an seine größten Partner wie Dell weitergegeben zu haben, die Server und Rechenzentren mit der neuesten KI und rechenfertiger Hardware von NVIDIA betreiben werden.
Wir wissen, dass die Blackwell-GPUs von NVIDIA noch in diesem Jahr auf den Markt kommen und diesen Monat ihr offizielles Debüt auf der GTC 2024 geben werden , die nur noch wenige Wochen entfernt ist. Die aktuellen Roadmaps weisen auf NVIDIA B100, GB200 und GB200NVL hin, wobei B100 der Codename für die GPU selbst ist, GB200 die Superchip-Plattform und GB200NVL die vernetzte Plattform für den Supercomputing-Einsatz.
Derzeit gibt es Berichte, dass die Blackwell-GPUs von NVIDIA möglicherweise ein monolithisches Design verwenden, obwohl noch nichts Konkretes ist. Bekannt ist, dass der Blackwell B100 in seiner ersten Generation wie die Hopper H200-GPUs HBM3e-Speichertechnologien nutzen wird. Daher kann die aktualisierte B200-Variante am Ende eine noch schnellere Version des HBM-Speichers zusammen mit möglicherweise höheren Speicherkapazitäten, verbesserten Spezifikationen und erweiterten Funktionen verwenden. Samsung soll ein wichtiger Speicheranbieter für die Blackwell-GPUs sein .
Offensichtlich sind wir bei jedem Blick auf Änderungen gespannt darauf, was mit dem H200 und seiner Leistungsverbesserung passiert. Wir sind gespannt darauf, was auf der B100 und der B200 passiert , und wir glauben, dass es dort tatsächlich eine weitere Gelegenheit gibt, technisches Selbstvertrauen hervorzuheben. Unsere Charakterisierung im thermischen Bereich besagt, dass man wirklich keine direkte Flüssigkeitskühlung benötigt, um die Energiedichte von 1.000 Watt pro GPU zu erreichen.
Das passiert nächstes Jahr mit dem B200 . Die Gelegenheit für uns, unsere Ingenieurskunst wirklich zu präsentieren und wie schnell wir vorankommen können, sowie die Arbeit, die wir als Branchenführer geleistet haben, um unser Fachwissen einzubringen, um die Flüssigkeitskühlung in großem Maßstab leistungsfähig zu machen, sei es im Bereich der Flüssigkeitschemie und Leistung, unserer Verbindungstechnik Arbeit, die Telemetrie, die wir durchführen, die Energieverwaltungsarbeit, die wir durchführen, es ermöglicht uns wirklich, darauf vorbereitet zu sein, dies in großem Maßstab auf den Markt zu bringen, um von dieser unglaublichen Rechenkapazität, -intensität oder -fähigkeit zu profitieren, die es auf dem Markt geben wird .
Interessanterweise weist der SVP von Dell auch darauf hin, dass die Leistungsdichte dieser GPUs der nächsten Generation wie der NVIDIA Blackwell B100 und B200 1000 W betragen wird, was eine enorme Zahl ist, aber nichts, was wir von einigen der schnellsten KI-Beschleuniger der Welt nicht erwartet hätten . Der NVIDIA Hopper H200 und der AMD Instinct MI300X können bei Spitzenleistung bereits bis zu 800 W verbrauchen. Angesichts der erwarteten Leistungssteigerungen von Blackwell wird eine Leistungssteigerung um 200 W aufgrund der Effizienzsteigerung eher nominell sein.
Der Energiebedarf für CPUs und GPUs wird in Zukunft weiter steigen, wie vor einiger Zeit in der Roadmap von Gigabyte dargelegt wurde . Um diese zu überwinden, werden die Unternehmen fortschrittliche Prozess- und Verpackungstechnologien nutzen, um sicherzustellen, dass die Kosten für die Chipentwicklung optimal bleiben und gleichzeitig eine höhere Energieeffizienz gewährleistet wird.
NVIDIA-Rechenzentrum/KI-GPU-Roadmap
GPU-Codename | X | Einreiben | Blackwell | Trichter | Ampere | Zeit | Pascal |
---|---|---|---|---|---|---|---|
GPU-Familie | GX200 | GR100 | GB200 | GH200/GH100 | GA100 | GV100 | GP100 |
GPU WeU | X100 | R100 | B100/B200 | H100/H200 | A100 | V100 | P100 |
Erinnerung | HBM4e? | HBM4? | HBM3e | HBM2e/HBM3/HBM3e | HBM2e | HBM2 | HBM2 |
Start | 202X | 2025 | 2024 | 2022-2024 | 2020-2022 | 2018 | 2016 |
Nachrichtenquelle: Barron’s
Schreibe einen Kommentar