Capitalisation boursière: $2.7888T 4.320%
Volume(24h): $82.1423B 12.600%
  • Capitalisation boursière: $2.7888T 4.320%
  • Volume(24h): $82.1423B 12.600%
  • Indice de peur et de cupidité:
  • Capitalisation boursière: $2.7888T 4.320%
Cryptos
Les sujets
Cryptospedia
Nouvelles
CryptosTopics
Vidéos
Top News
Cryptos
Les sujets
Cryptospedia
Nouvelles
CryptosTopics
Vidéos
bitcoin
bitcoin

$83486.942804 USD

0.51%

ethereum
ethereum

$1942.951501 USD

1.96%

tether
tether

$1.000040 USD

-0.01%

xrp
xrp

$2.311790 USD

1.03%

bnb
bnb

$615.076581 USD

-3.89%

solana
solana

$126.406699 USD

0.83%

usd-coin
usd-coin

$1.000150 USD

0.03%

cardano
cardano

$0.715061 USD

0.83%

dogecoin
dogecoin

$0.167881 USD

-0.10%

tron
tron

$0.229729 USD

2.10%

chainlink
chainlink

$14.028689 USD

-1.06%

unus-sed-leo
unus-sed-leo

$9.781092 USD

-0.41%

toncoin
toncoin

$3.586497 USD

1.25%

stellar
stellar

$0.277540 USD

2.47%

hedera
hedera

$0.188848 USD

0.32%

Articles d’actualité sur les crypto-monnaies

L'AMD Ryzen Ai Max + 395 (nom de code: "Strix Halo") est le X86 APU le plus puissant et offre une augmentation significative des performances

Mar 19, 2025 at 01:12 pm

L'AMD Ryzen AI Max + 395 (nom de code: "Strix Halo") est l'APU x86 le plus puissant et offre une augmentation significative des performances par rapport à la concurrence.

L'AMD Ryzen Ai Max + 395 (nom de code: "Strix Halo") est le X86 APU le plus puissant et offre une augmentation significative des performances

The AMD Ryzen AI MAX+ 395 (codenamed "Strix Halo") is the most powerful x86 APU and delivers a significant performance boost over the competition. Powered by "Zen 5" CPU cores, 50+ peak AI TOPS XDNA 2 NPU and a truly massive integrated GPU driven by 40 AMD RDNA 3.5 CUs, the Ryzen AI MAX+ 395 is a transformative upgrade for the premium thin and light form factor. The Ryzen AI MAX+ 395 is available in options ranging from 32GB all the way up to 128GB of unified memory - out of which up to 96GB can be converted to VRAM through AMD Variable Graphics Memory.

L'AMD Ryzen AI Max + 395 (nommé "Strix Halo") est le X86 APU le plus puissant et offre une augmentation significative des performances par rapport à la concurrence. Propulsé par les noyaux de processeur "Zen 5", 50+ PEAK AI TOPS XDNA 2 NPU et un GPU intégré vraiment massif entraîné par 40 AMD ADNr 3,5 Cus, le Ryzen AI Max + 395 est une mise à niveau transformatrice pour le facteur de forme mince et léger premium. Le Ryzen AI Max + 395 est disponible dans des options allant de 32 Go jusqu'à 128 Go de mémoire unifiée - dont jusqu'à 96 Go peuvent être convertis en VRAM via la mémoire graphique variable AMD.

The Ryzen AI Max+ 395 excels in consumer AI workloads like the llama.cpp-powered application: LM Studio. Shaping up to be the must-have app for client LLM workloads, LM Studio allows users to locally run the latest language model without any technical knowledge required. Deploying new AI text and vision models on Day 1 has never been simpler.

Le Ryzen AI Max + 395 excelle dans les charges de travail AI Consumer comme la LLAMA.CPP-Powered Application: LM Studio. La mise en forme de l'application incontournable de la charge de travail Client LLM, LM Studio permet aux utilisateurs d'exécuter localement le dernier modèle de langue sans aucune connaissance technique requise. Le déploiement de nouveaux modèles de texte et de vision d'IA le jour 1 n'a jamais été plus simple.

The "Strix Halo" platform extends AMD performance leadership in LM Studio with the new AMD Ryzen AI MAX+ series of processors.

La plate-forme "Strix Halo" étend AMD Performance Leadership dans LM Studio avec la nouvelle série de processeurs AMD Ryzen AI Max +.

As a primer: the model size is dictated by the number of parameters and the precision used. Generally speaking, doubling the parameter count (on the same architecture) or doubling the precision will also double the size of the model. Most of our competitor's current-generation offerings in this space max out at 32GB on-package memory. This is enough shared graphics memory to run large language models (roughly) up to 16GB in size.

En tant qu'amorce: la taille du modèle est dictée par le nombre de paramètres et la précision utilisée. D'une manière générale, doubler le nombre de paramètres (sur la même architecture) ou doubler la précision doublera également la taille du modèle. La plupart des offres de génération actuelle de nos concurrents dans cet espace sont maximales à 32 Go de mémoire sur le package. Ceci est suffisamment de mémoire graphique partagée pour exécuter de grands modèles de langage (à peu près) jusqu'à 16 Go.

Benchmarking text and vision language models in LM Studio

Benchmarking Text and Vision Language Modèles dans LM Studio

For this comparison, we will be using the ASUS ROG Flow Z13 with 64GB of unified memory. We will restrict the LLM size to models that fit inside 16GB to ensure that it runs on the competitor's 32GB laptop.

Pour cette comparaison, nous utiliserons l'ASUS ROG Flow Z13 avec 64 Go de mémoire unifiée. Nous limiterons la taille LLM aux modèles qui s'adaptent à 16 Go pour s'assurer qu'il fonctionne sur l'ordinateur portable de 32 Go du concurrent.

From the results, we can see that the ASUS ROG Flow Z13 - powered by the integrated Radeon 8060S and taking full advantage of the 256 GB/s bandwidth - effortlessly achieves up to 2.2x the performance of the Intel Arc 140V in token throughput.

D'après les résultats, nous pouvons voir que l'ASUS ROG Flow Z13 - alimenté par les Radeon 8060 intégrés et profitant pleinement de la bande passante de 256 Go / s - atteint sans effort jusqu'à 2,2x les performances de la pointe Intel Arc 140V en débit de jeton.

The performance uplift is very consistent across different model types (whether you are running chain-of-thought DeepSeek R1 Distills or standard models like Microsoft Phi 4) and different parameter sizes.

Le soulèvement des performances est très cohérent sur différents types de modèles (que vous exécutiez des distils R1 profonds en chaîne de la chaîne ou des modèles standard comme Microsoft Phi 4) et différentes tailles de paramètres.

In time to first token benchmarks, the AMD Ryzen AI MAX+ 395 processor is up to 4x faster than the competitor in smaller models like Llama 3.2 3b Instruct.

À temps pour les références en jeton de premier, le processeur AMD Ryzen AI Max + 395 est jusqu'à 4x plus rapide que le concurrent dans des modèles plus petits comme Llama 3.2 3B Instruct.

Going up to 7 billion and 8 billion models like the DeepSeek R1 Distill Qwen 7b and DeepSeek R1 Distill Llama 8b, the Ryzen AI Max+ 395 is up to 9.1x faster. When looking at 14 billion parameter models (which is approaching the largest size that can comfortably fit on a standard 32GB laptop), the ASUS ROG Flow Z13 is up to 12.2x faster than the Intel Core Ultra 258V powered laptop - more than an order of magnitude faster than the competition!

En allant jusqu'à 7 milliards et 8 milliards de modèles comme le Deepseek R1 Distill Qwen 7b et Deepseek R1 Distill Llama 8b, le Ryzen Ai Max + 395 est jusqu'à 9,1x plus rapidement. Lorsque vous regardez 14 milliards de modèles de paramètres (qui approchent la plus grande taille qui peut s'adapter confortablement sur un ordinateur portable standard de 32 Go), le ASUS ROG Flow Z13 est jusqu'à 12,2x plus rapide que l'ordinateur portable alimenté par Intel Core Ultra 258V - plus d'un ordre d'ampleur plus rapidement que la concurrence!

The larger the LLM, the faster AMD Ryzen AI Max+ 395 processor is in responding to the user query. So whether you are having a conversation with the model or giving it large summarization tasks involving thousands of tokens - the AMD machine will be much faster to respond. This advantage scales with the prompt length - so the heavier the task - the more pronounced the advantage will be.

Plus le LLM est grand, plus le processeur AMD Ryzen AI Max + 395 est plus rapide pour répondre à la requête utilisateur. Donc, que vous ayez une conversation avec le modèle ou que vous lui donniez de grandes tâches de résumé impliquant des milliers de jetons - la machine AMD sera beaucoup plus rapide à répondre. Cet avantage évolue avec la longueur rapide - donc plus la tâche est lourde - plus l'avantage sera prononcé.

Text-only LLMs are also slowly getting replaced with highly capable multi-modal models that have vision adapters and visual reasoning capabilities. The IBM Granite Vision is one example and the recently launched Google Gemma 3 family of models is another - with both providing highly capable vision capabilities to next generation AMD AI PCs. Both of these models run incredibly performantly on an AMD Ryzen AI MAX+ 395 processor.

Les LLM uniquement en texte sont également lentement remplacées par des modèles multimodaux hautement capables qui ont des adaptateurs de vision et des capacités de raisonnement visuel. L'IBM Granite Vision en est un exemple et la famille de modèles Google Gemma 3 récemment lancée en est une autre - avec les deux offrant des capacités de vision très compétentes aux PC AMD de nouvelle génération. Ces deux modèles fonctionnent incroyablement sur un processeur AMD Ryzen AI Max + 395.

An interesting point to note here: when running vision models, the time to first token metric also effectively becomes the time it takes for the model to analyze the image you give it.

Un point intéressant à noter ici: lors de l'exécution de modèles de vision, le temps de la première métrique token devient également efficacement le temps nécessaire au modèle pour analyser l'image que vous lui donnez.

The Ryzen AI Max+ 395 processor is up to 7x faster in IBM Granite Vision 3.2 3b, up to 4.6x faster in Google Gemma 3 4b and up to 6x faster in Google Gemma 3 12b. The ASUS ROG Flow Z13 came with a 64GB memory option so it can also effortlessly run the Google Gemma 3 27B Vision model - which is currently considered the current SOTA (state of

Le processeur Ryzen AI Max + 395 est jusqu'à 7x plus rapide dans IBM Granite Vision 3.2 3B, jusqu'à 4,6x plus rapide dans Google Gemma 3 4B et jusqu'à 6x plus rapidement dans Google Gemma 3 12b. L'Asus Rog Flow Z13 est livré avec une option de mémoire de 64 Go afin qu'il puisse également exécuter sans effort le modèle Google Gemma 3 27B - qui est actuellement considéré comme la SOTA actuelle (état de

Clause de non-responsabilité:info@kdj.com

Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!

Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.

Autres articles publiés sur Mar 20, 2025