![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
Super Micro Computer、Inc。(SMCI)、AI/ML、HPC、クラウド、ストレージ、5G/エッジの合計ITソリューションプロバイダー
Leading industry-standard performance in select MLPerf V5.0 Inference benchmarks is announced today by Super Micro Computer, Inc. (Nasdaq: SMCI), a premier provider of complete IT solutions for AI/ML, HPC, cloud, storage, and 5G/edge.
Select MLPERF V5.0の推論ベンチマークの主要な業界標準のパフォーマンスは、AI/ML、HPC、クラウド、ストレージ、5G/エッジの完全なITソリューションのプレミアプロバイダーであるSuper Micro Computer、Inc。(NASDAQ:SMCI)によって本日発表されました。
In several V5.0 Inference benchmarks, Supermicro systems achieved the best performance. The company's 4U liquid-cooled and 10U air-cooled systems, which used the NVIDIA HGX B200 8-GPU, outperformed H200 8-GPU systems by more than 3 times in the generation of tokens per second (Token/s) for the Llama2-70B and Llama3.1-405B benchmarks.
いくつかのV5.0推論ベンチマークでは、SuperMicro Systemsが最高のパフォーマンスを達成しました。 NVIDIA HGX B200 8-GPUを使用した同社の4U液化および10U空冷システムは、LLAMA2-70BおよびLLAMA3.1-405Bベンチマークの1秒あたりのトークン(トークン/s)の生成(トークン/s)の生成で3倍以上優れたH200 8-GPUシステムを上回りました。
"We are pleased to see the first new benchmarks from MLCommons in 2025, with Supermicro remaining a leader in the AI industry," said Charles Liang, president and CEO of Supermicro. "Our building block architecture allows us to be first to market with a diverse range of systems optimized for various workloads. We continue to collaborate closely with NVIDIA to fine-tune our systems and secure a leadership position in AI workloads."
「2025年のMLCommonsの最初の新しいベンチマークを見て、SupermicroがAI業界のリーダーであり続けていることを嬉しく思います」とSupermicroの社長兼CEOであるCharles Liang氏は述べています。 「当社のビルディングブロックアーキテクチャにより、さまざまなワークロード用に最適化された多様なシステムで最初に市場に出ることができます。NVIDIAと密接に協力して、システムを微調整し、AIワークロードでリーダーシップの地位を確保し続けます。」
Learn more about the new MLPerf v5.0 Inference benchmarks at: https://mlcommons.org/benchmarks/inference-datacenter/
新しいMLPERF V5.0推論ベンチマークの詳細については、https://mlcommons.org/benchmarks/inference-datacenter/
Supermicro is the only system vendor to publish record MLPerf inference performance (on select benchmarks) for both the air-cooled and liquid-cooled NVIDIA HGX B200 8-GPU systems. Both air-cooled and liquid-cooled systems were operational before the MLCommons benchmark start date. Supermicro engineers optimized the systems and software to showcase the impressive performance.
Supermicroは、空冷および液体冷却されたNVIDIA HGX B200 8-GPUシステムの両方のレコードMLPERF推論パフォーマンス(一部のベンチマーク)を公開する唯一のシステムベンダーです。空冷システムと液化システムは、MLCommonsベンチマーク開始日の前に運用可能でした。 Supermicroエンジニアは、印象的なパフォーマンスを紹介するためにシステムとソフトウェアを最適化しました。
Within the operating margin, the Supermicro air-cooled B200 system exhibited the same level of performance as the liquid-cooled B200 system. Supermicro has been delivering these systems to customers while we conducted the benchmarks.
動作マージン内で、スーパーミクロ空冷B200システムは、流動冷却B200システムと同じレベルのパフォーマンスを示しました。 Supermicroは、ベンチマークを実施している間、これらのシステムを顧客に提供してきました。
MLCommons emphasizes that all results be reproducible, that the products are available and that the results can be audited by other MLCommons members. Supermicro engineers optimized the systems and software, as allowed by the MLCommons rules.
MLCommonsは、すべての結果が再現可能であり、製品が利用可能であり、結果が他のMLCommonsメンバーが監査できることを強調しています。 Supermicroエンジニアは、MLCommonsルールで許可されているように、システムとソフトウェアを最適化しました。
The SYS-421GE-NBRT-LCC (8x NVIDIA B200-SXM-180GB) and SYS-A21GE-NBRT (8x NVIDIA B200-SXM-180GB) showed performance leadership running the Mixtral 8x7B Inference, Mixture of Experts benchmarks with 129,000 tokens/second. The Supermicro air-cooled and liquid-cooled NVIDIA B200 based system delivered over 1,000 tokens/second inference for the large Llama3.1-405b model, whereas the previous generations of GPU systems have much smaller results. For smaller inferencing tasks, using the LLAMA2-70b benchmark, a Supermicro system with the NVIDIA B200 SXM-180GB installed shows the highest performance from a Tier 1 system supplier.
SYS-421GE-NBRT-LCC(8X NVIDIA B200-SXM-180GB)およびSYS-A21GE-NBRT(8X NVIDIA B200-SXM-180GB)は、129,000トークン/セカンドとの専門家のベンチマークの混合物、ミックストラル8x7B推論、混合物を実行するパフォーマンスリーダーシップを示しました。 Supermicro Air-Cooled and Liquid-Cooled Nvidia B200ベースのシステムは、大規模なllama3.1-405bモデルに1,000トークン/2番目の推論を提供しましたが、GPUシステムの前世代ははるかに小さくなりました。より小さな推論タスクの場合、Llama2-70Bベンチマークを使用して、NVIDIA B200 SXM-180GBインストールされたスーパーミクロシステムは、Tier 1システムサプライヤーの最高のパフォーマンスを示しています。
Specifically:
具体的には:
* The SYS-421GE-NBRT-LCC (8x NVIDIA B200-SXM-180GB) liquid-cooled system achieved the highest performance for the Mixtral 8x7B, Mixture of Experts benchmark, delivering 129,000 tokens/s. It also achieved the highest performance for the Llama3.1-405b benchmark with 1,330 tokens/s.
* SYS-421GE-NBRT-LCC(8x NVIDIA B200-SXM-180GB)液化システムは、Mixtral 8x7Bの最高のパフォーマンスを達成しました。また、1,330トークン/sでllama3.1-405bベンチマークで最高のパフォーマンスを達成しました。
* The SYS-A21GE-NBRT (8x NVIDIA B200-SXM-180GB) air-cooled system achieved the highest performance for the Mixtral 8x7B, Mixture of Experts benchmark, delivering 129,000 tokens/s. It achieved the second-highest performance for the Llama3.1-405b benchmark with 1,009 tokens/s.
* SYS-A21GE-NBRT(8X NVIDIA B200-SXM-180GB)空冷システムは、MixTral 8x7B、専門家のベンチマークの混合物で最高のパフォーマンスを達成し、129,000トークン/sを提供しました。 1,009トークン/sでLlama3.1-405Bベンチマークで2番目に高いパフォーマンスを達成しました。
* The SYS-110R3-L (8x NVIDIA A200-SXM-80GB) system achieved the highest performance for the BERT Large benchmark.
* SYS-1010R3-L(8x NVIDIA A200-SXM-80GB)システムは、Bertの大規模ベンチマークで最高のパフォーマンスを達成しました。
* The SYS-110R3-L (8x NVIDIA A200-SXM-80GB) and SYS-A21GE-NBRT (8x NVIDIA B200-SXM-180GB) systems achieved the highest performance for the DeepLabV3 and REsNet-50 benchmarks.
* SYS-110R3-L(8x NVIDIA A200-SXM-80GB)およびSYS-A21GE-NBRT(8X NVIDIA B200-SXM-180GB)システムは、DeepLabv3およびResNet-50ベンチマークの最高のパフォーマンスを達成しました。
* The SYS-110R3-L (8x NVIDIA A200-SXM-80GB) system achieved the highest performance for the 3D object detection benchmark.
* SYS-110R3-L(8x NVIDIA A200-SXM-80GB)システムは、3Dオブジェクト検出ベンチマークで最高のパフォーマンスを達成しました。
Supermicro offers a comprehensive AI portfolio with over 100 GPU-optimized systems, both air-cooled and liquid-cooled options
Supermicroは、空冷オプションと液化オプションの両方で、100を超えるGPU最適化システムを備えた包括的なAIポートフォリオを提供しています
免責事項:info@kdj.com
提供される情報は取引に関するアドバイスではありません。 kdj.com は、この記事で提供される情報に基づいて行われた投資に対して一切の責任を負いません。暗号通貨は変動性が高いため、十分な調査を行った上で慎重に投資することを強くお勧めします。
このウェブサイトで使用されているコンテンツが著作権を侵害していると思われる場合は、直ちに当社 (info@kdj.com) までご連絡ください。速やかに削除させていただきます。