![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
암호화폐 뉴스 기사
AMD Ryzen AI MAX+ 395 (코드 이름 : "Strix Halo")는 가장 강력한 X86 APU이며 중요한 성능 향상을 제공합니다.
2025/03/19 13:12
AMD Ryzen AI Max+ 395 (코드 이름 : "Strix Halo")는 가장 강력한 X86 APU이며 경쟁에서 상당한 성능 향상을 제공합니다.
The AMD Ryzen AI MAX+ 395 (codenamed "Strix Halo") is the most powerful x86 APU and delivers a significant performance boost over the competition. Powered by "Zen 5" CPU cores, 50+ peak AI TOPS XDNA 2 NPU and a truly massive integrated GPU driven by 40 AMD RDNA 3.5 CUs, the Ryzen AI MAX+ 395 is a transformative upgrade for the premium thin and light form factor. The Ryzen AI MAX+ 395 is available in options ranging from 32GB all the way up to 128GB of unified memory - out of which up to 96GB can be converted to VRAM through AMD Variable Graphics Memory.
AMD Ryzen AI Max+ 395 (코드 명 "Strix Halo")는 가장 강력한 X86 APU이며 경쟁에서 상당한 성능 향상을 제공합니다. "Zen 5"CPU 코어, 50+ 피크 AI 상단 XDNA 2 NPU 및 40 AMD RDNA 3.5 CUS로 구동되는 진정으로 대규모 통합 GPU로 구동되는 Ryzen AI Max+ 395는 프리미엄 얇은 얇고 가벼운 형태 계수에 대한 변환 업그레이드입니다. Ryzen AI Max+ 395는 32GB에서 최대 128GB의 통합 메모리까지 옵션으로 제공됩니다.
The Ryzen AI Max+ 395 excels in consumer AI workloads like the llama.cpp-powered application: LM Studio. Shaping up to be the must-have app for client LLM workloads, LM Studio allows users to locally run the latest language model without any technical knowledge required. Deploying new AI text and vision models on Day 1 has never been simpler.
Ryzen AI Max+ 395는 LLAMA.CPP 구동 응용 프로그램 : LM Studio와 같은 소비자 AI 워크로드에서 탁월합니다. LM Studio는 클라이언트 LLM 워크로드를위한 필수품 앱이되기 위해 기술 지식이 필요하지 않고 최신 언어 모델을 로컬로 운영 할 수 있습니다. 1 일째에 새로운 AI 텍스트 및 비전 모델을 배포하는 것은 결코 간단하지 않았습니다.
The "Strix Halo" platform extends AMD performance leadership in LM Studio with the new AMD Ryzen AI MAX+ series of processors.
"Strix Halo"플랫폼은 새로운 AMD Ryzen AI Max+ 시리즈 프로세서와 함께 LM Studio에서 AMD 성능 리더십을 확장합니다.
As a primer: the model size is dictated by the number of parameters and the precision used. Generally speaking, doubling the parameter count (on the same architecture) or doubling the precision will also double the size of the model. Most of our competitor's current-generation offerings in this space max out at 32GB on-package memory. This is enough shared graphics memory to run large language models (roughly) up to 16GB in size.
프라이머로서 : 모델 크기는 매개 변수 수와 사용 된 정밀도에 의해 결정됩니다. 일반적으로 매개 변수 수를 두 배로 늘리거나 정밀도를 두 배로 늘리면 모델 크기의 두 배가됩니다. 이 공간에있는 대부분의 경쟁 업체의 현재 세대 제품은 32GB 온 패킹 메모리로 최대입니다. 이것은 크기가 최대 16GB까지 대형 언어 모델을 실행하기에 충분한 공유 그래픽 메모리입니다.
Benchmarking text and vision language models in LM Studio
LM Studio의 텍스트 및 비전 언어 모델 벤치마킹
For this comparison, we will be using the ASUS ROG Flow Z13 with 64GB of unified memory. We will restrict the LLM size to models that fit inside 16GB to ensure that it runs on the competitor's 32GB laptop.
이 비교를 위해 64GB의 통합 메모리와 함께 ASUS ROG FLOW Z13을 사용할 것입니다. LLM 크기를 16GB 내부의 모델로 제한하여 경쟁 업체의 32GB 노트북에서 실행되도록합니다.
From the results, we can see that the ASUS ROG Flow Z13 - powered by the integrated Radeon 8060S and taking full advantage of the 256 GB/s bandwidth - effortlessly achieves up to 2.2x the performance of the Intel Arc 140V in token throughput.
결과에서 ASUS ROG FLOW Z13- 통합 Radeon 8060에 의해 구동되고 256GB/s 대역폭을 최대한 활용하여 토큰 처리량에서 인텔 아크 140V의 성능을 최대 2.2 배까지 달성합니다.
The performance uplift is very consistent across different model types (whether you are running chain-of-thought DeepSeek R1 Distills or standard models like Microsoft Phi 4) and different parameter sizes.
성능 향상은 다양한 모델 유형 (Microsoft Phi 4와 같은 DeepSeek R1 Distills 또는 표준 모델을 실행하든 다른 매개 변수 크기에 따라 매우 일관성이 있습니다.
In time to first token benchmarks, the AMD Ryzen AI MAX+ 395 processor is up to 4x faster than the competitor in smaller models like Llama 3.2 3b Instruct.
첫 토큰 벤치 마크까지 AMD Ryzen AI Max+ 395 프로세서는 LLAMA 3.2 3B와 같은 소규모 모델의 경쟁자보다 최대 4 배 빠릅니다.
Going up to 7 billion and 8 billion models like the DeepSeek R1 Distill Qwen 7b and DeepSeek R1 Distill Llama 8b, the Ryzen AI Max+ 395 is up to 9.1x faster. When looking at 14 billion parameter models (which is approaching the largest size that can comfortably fit on a standard 32GB laptop), the ASUS ROG Flow Z13 is up to 12.2x faster than the Intel Core Ultra 258V powered laptop - more than an order of magnitude faster than the competition!
DeepSeek R1 Distill Qwen 7B 및 DeepSeek R1 Distill Llama 8B와 같은 최대 70 억 및 80 억 모델의 모델은 Ryzen AI Max+ 395가 최대 9.1 배 더 빠릅니다. 140 억 개의 매개 변수 모델 (표준 32GB 노트북에 편안하게 맞을 수있는 가장 큰 크기에 접근)을 살펴보면 ASUS ROG Flow Z13은 인텔 코어 Ultra 258V 전원 랩톱보다 최대 12.2 배 더 빠릅니다.
The larger the LLM, the faster AMD Ryzen AI Max+ 395 processor is in responding to the user query. So whether you are having a conversation with the model or giving it large summarization tasks involving thousands of tokens - the AMD machine will be much faster to respond. This advantage scales with the prompt length - so the heavier the task - the more pronounced the advantage will be.
LLM이 클수록 AMD Ryzen AI Max+ 395 프로세서가 더 빠릅니다. 따라서 모델과 대화를 나누거나 수천 개의 토큰과 관련된 대규모 요약 작업을하든 AMD 머신은 훨씬 빠르게 응답 할 것입니다. 이 장점은 프롬프트 길이로 스케일링하므로 작업이 무거워지면 이점이 더욱 두드러집니다.
Text-only LLMs are also slowly getting replaced with highly capable multi-modal models that have vision adapters and visual reasoning capabilities. The IBM Granite Vision is one example and the recently launched Google Gemma 3 family of models is another - with both providing highly capable vision capabilities to next generation AMD AI PCs. Both of these models run incredibly performantly on an AMD Ryzen AI MAX+ 395 processor.
텍스트 전용 LLM은 시력 어댑터와 시각적 추론 기능이있는 유능한 다중 모달 모델로 천천히 대체되고 있습니다. IBM Granite Vision은 한 가지 예이며 최근에 시작된 Google Gemma 3 Models 제품군은 또 다른 예입니다. 둘 다 차세대 AMD AI PCS에 유능한 비전 기능을 제공합니다. 이 두 모델 모두 AMD Ryzen AI Max+ 395 프로세서에서 엄청나게 실행됩니다.
An interesting point to note here: when running vision models, the time to first token metric also effectively becomes the time it takes for the model to analyze the image you give it.
여기에 주목해야 할 흥미로운 점 : 비전 모델을 실행할 때 첫 토큰 메트릭까지의 시간은 모델이 제공하는 이미지를 분석하는 데 걸리는 시간이 효과적입니다.
The Ryzen AI Max+ 395 processor is up to 7x faster in IBM Granite Vision 3.2 3b, up to 4.6x faster in Google Gemma 3 4b and up to 6x faster in Google Gemma 3 12b. The ASUS ROG Flow Z13 came with a 64GB memory option so it can also effortlessly run the Google Gemma 3 27B Vision model - which is currently considered the current SOTA (state of
Ryzen AI Max+ 395 프로세서는 IBM Granite Vision 3.2 3B에서 최대 7 배 더 빠르며 Google Gemma 3 4B에서 최대 4.6 배, Google Gemma 3 12B에서 최대 6 배 더 빠릅니다. ASUS ROG FLOW Z13에는 64GB 메모리 옵션이 제공되어 현재 SOTA로 간주되는 Google Gemma 3 27B 비전 모델을 쉽게 실행할 수 있습니다 (
부인 성명:info@kdj.com
제공된 정보는 거래 조언이 아닙니다. kdj.com은 이 기사에 제공된 정보를 기반으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다. 암호화폐는 변동성이 매우 높으므로 철저한 조사 후 신중하게 투자하는 것이 좋습니다!
본 웹사이트에 사용된 내용이 귀하의 저작권을 침해한다고 판단되는 경우, 즉시 당사(info@kdj.com)로 연락주시면 즉시 삭제하도록 하겠습니다.
-
- 고래는 Doge Dip을 구매하고 있습니다
- 2025-03-19 21:31:00
- 온 체인 데이터에 따르면 고래는 가격 충돌 속에서 Dogecoin을 계속 축적 한 것으로 나타났습니다.
-
-
-
-
-
-
-
-