![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
暗号通貨のニュース記事
AMD Ryzen AI Max+ 395(コードネーム: "Strix Halo")は最も強力なX86 APUであり、大幅なパフォーマンスブーストを提供します
2025/03/19 13:12
AMD Ryzen AI Max+ 395(コードネーム: "Strix Halo")は、最も強力なX86 APUであり、競争を大幅にパフォーマンスブーストします。
The AMD Ryzen AI MAX+ 395 (codenamed "Strix Halo") is the most powerful x86 APU and delivers a significant performance boost over the competition. Powered by "Zen 5" CPU cores, 50+ peak AI TOPS XDNA 2 NPU and a truly massive integrated GPU driven by 40 AMD RDNA 3.5 CUs, the Ryzen AI MAX+ 395 is a transformative upgrade for the premium thin and light form factor. The Ryzen AI MAX+ 395 is available in options ranging from 32GB all the way up to 128GB of unified memory - out of which up to 96GB can be converted to VRAM through AMD Variable Graphics Memory.
AMD Ryzen Ai Max+ 395(コードネーム「Strix Halo」)は、最も強力なX86 APUであり、競争を大幅にパフォーマンスブーストします。 「ZEN 5」CPUコア、50+ピークAIがXDNA 2 NPUを上回る、40 AMD RDNA 3.5 CUSで駆動される真に大規模な統合GPUを搭載したRyzen AI MAX+ 395は、プレミアムシンフォーム係数の変換アップグレードです。 Ryzen AI Max+ 395は、32GBから128GBの統一メモリまでの範囲のオプションで利用できます。
The Ryzen AI Max+ 395 excels in consumer AI workloads like the llama.cpp-powered application: LM Studio. Shaping up to be the must-have app for client LLM workloads, LM Studio allows users to locally run the latest language model without any technical knowledge required. Deploying new AI text and vision models on Day 1 has never been simpler.
Ryzen AI Max+ 395は、llama.cpp搭載アプリケーション:LM Studioのような消費者AIワークロードに優れています。 LM Studioは、クライアントLLMワークロードの必須アプリになり、技術的な知識を必要とせずに最新の言語モデルをローカルに実行できます。 1日目に新しいAIテキストとビジョンモデルを展開することは、かつてないほど簡単になりました。
The "Strix Halo" platform extends AMD performance leadership in LM Studio with the new AMD Ryzen AI MAX+ series of processors.
「Strix Halo」プラットフォームは、新しいAMD Ryzen AI MAX+シリーズのプロセッサでLM StudioのAMDパフォーマンスリーダーシップを拡張します。
As a primer: the model size is dictated by the number of parameters and the precision used. Generally speaking, doubling the parameter count (on the same architecture) or doubling the precision will also double the size of the model. Most of our competitor's current-generation offerings in this space max out at 32GB on-package memory. This is enough shared graphics memory to run large language models (roughly) up to 16GB in size.
プライマーとして:モデルサイズは、パラメーターの数と使用される精度によって決定されます。一般的に、パラメーターカウントを2倍に(同じアーキテクチャで)または精度を2倍にすると、モデルのサイズも2倍になります。このスペースにある競合他社の現在の世代のほとんどは、32GBのパッケージメモリで最大になります。これは、サイズが最大16GBの大きな言語モデルを(ほぼ)実行するのに十分な共有グラフィックメモリです。
Benchmarking text and vision language models in LM Studio
LM Studioのベンチマークテキストおよびビジョン言語モデル
For this comparison, we will be using the ASUS ROG Flow Z13 with 64GB of unified memory. We will restrict the LLM size to models that fit inside 16GB to ensure that it runs on the competitor's 32GB laptop.
この比較のために、ASUS ROG Flow Z13を64GBの統一メモリで使用します。 LLMサイズを16GB内に収まるモデルに制限し、競合他社の32GBラップトップで実行されるようにします。
From the results, we can see that the ASUS ROG Flow Z13 - powered by the integrated Radeon 8060S and taking full advantage of the 256 GB/s bandwidth - effortlessly achieves up to 2.2x the performance of the Intel Arc 140V in token throughput.
結果から、Asus Rog Flow Z13は、統合されたRadeon 8060を搭載し、256 GB/sの帯域幅を最大限に活用していることが、トークンスループットのIntel Arc 140Vのパフォーマンスを簡単に達成しています。
The performance uplift is very consistent across different model types (whether you are running chain-of-thought DeepSeek R1 Distills or standard models like Microsoft Phi 4) and different parameter sizes.
パフォーマンスの隆起は、さまざまなモデルタイプで非常に一貫しています(チェーンオブ考えのDeepSeek R1蒸留またはMicrosoft Phi 4のような標準モデルを実行しているかどうか)および異なるパラメーターサイズ。
In time to first token benchmarks, the AMD Ryzen AI MAX+ 395 processor is up to 4x faster than the competitor in smaller models like Llama 3.2 3b Instruct.
最初のトークンベンチマークに間に合うように、AMD Ryzen AI Max+ 395プロセッサは、Llama 3.2 3b Instruceなどの小さなモデルで競合他社よりも最大4倍高速です。
Going up to 7 billion and 8 billion models like the DeepSeek R1 Distill Qwen 7b and DeepSeek R1 Distill Llama 8b, the Ryzen AI Max+ 395 is up to 9.1x faster. When looking at 14 billion parameter models (which is approaching the largest size that can comfortably fit on a standard 32GB laptop), the ASUS ROG Flow Z13 is up to 12.2x faster than the Intel Core Ultra 258V powered laptop - more than an order of magnitude faster than the competition!
Deepseek R1 Distill Qwen 7BやDeepseek R1 Distill Llama 8Bなど、最大70億および80億モデルを獲得すると、Ryzen AI Max+ 395は最大9.1倍高速です。 140億個のパラメーターモデル(標準の32GBラップトップに快適に適合できる最大サイズに近づいている)を見ると、ASUS Rog Flow Z13は、Intel Core Ultra 258V搭載ラップトップよりも最大12.2倍高速です - 競合他社よりも大きい順序が高くなります!
The larger the LLM, the faster AMD Ryzen AI Max+ 395 processor is in responding to the user query. So whether you are having a conversation with the model or giving it large summarization tasks involving thousands of tokens - the AMD machine will be much faster to respond. This advantage scales with the prompt length - so the heavier the task - the more pronounced the advantage will be.
LLMが大きいほど、AMD Ryzen AI Max+ 395プロセッサがより速くユーザークエリに応答します。したがって、モデルと会話をしている場合でも、数千のトークンを含む大規模な要約タスクを提供している場合でも、AMDマシンの応答がはるかに高速です。この利点は、プロンプトの長さで拡大する - したがって、タスクが重いほど、利点はより顕著になります。
Text-only LLMs are also slowly getting replaced with highly capable multi-modal models that have vision adapters and visual reasoning capabilities. The IBM Granite Vision is one example and the recently launched Google Gemma 3 family of models is another - with both providing highly capable vision capabilities to next generation AMD AI PCs. Both of these models run incredibly performantly on an AMD Ryzen AI MAX+ 395 processor.
また、テキストのみのLLMは、ビジョンアダプターと視覚的推論機能を備えた非常に有能なマルチモーダルモデルにゆっくりと置き換えられています。 IBM花崗岩のビジョンはその一例であり、最近発売されたGoogle Gemma 3ファミリーのモデルは別のものです。これらのモデルは両方とも、AMD Ryzen AI Max+ 395プロセッサで非常にパフォーマンスがあります。
An interesting point to note here: when running vision models, the time to first token metric also effectively becomes the time it takes for the model to analyze the image you give it.
ここで注意すべき興味深いポイント:Visionモデルを実行するとき、最初のトークンメトリックまでの時間は、モデルが提供する画像を分析するのにかかる時間にもなります。
The Ryzen AI Max+ 395 processor is up to 7x faster in IBM Granite Vision 3.2 3b, up to 4.6x faster in Google Gemma 3 4b and up to 6x faster in Google Gemma 3 12b. The ASUS ROG Flow Z13 came with a 64GB memory option so it can also effortlessly run the Google Gemma 3 27B Vision model - which is currently considered the current SOTA (state of
Ryzen AI Max+ 395プロセッサは、IBM Granite Vision 3.2 3Bで最大7倍高速で、Google Gemma 3 4Bで最大4.6倍高速で、Google Gemma 3 12bで最大6倍高速です。 Asus Rog Flow Z13には64GBメモリオプションが付属しているため、Google Gemma 3 27Bビジョンモデルを簡単に実行できます。
免責事項:info@kdj.com
提供される情報は取引に関するアドバイスではありません。 kdj.com は、この記事で提供される情報に基づいて行われた投資に対して一切の責任を負いません。暗号通貨は変動性が高いため、十分な調査を行った上で慎重に投資することを強くお勧めします。
このウェブサイトで使用されているコンテンツが著作権を侵害していると思われる場合は、直ちに当社 (info@kdj.com) までご連絡ください。速やかに削除させていただきます。
-
- クジラはDoge Dipを購入しています
- 2025-03-19 21:31:00
- オンチェーンデータは、価格のクラッシュの中でクジラがドゲコインを蓄積し続けていることを示しています。
-
-
-
-
-
-
-
-