bitcoin
bitcoin

$94193.186020 USD

-1.51%

ethereum
ethereum

$3307.290778 USD

-0.81%

tether
tether

$0.998662 USD

-0.01%

xrp
xrp

$2.137622 USD

-1.20%

bnb
bnb

$688.408487 USD

-0.45%

solana
solana

$184.170636 USD

-2.72%

dogecoin
dogecoin

$0.310364 USD

-0.92%

usd-coin
usd-coin

$1.000091 USD

0.02%

cardano
cardano

$0.876327 USD

1.67%

tron
tron

$0.258820 USD

2.32%

avalanche
avalanche

$36.507133 USD

-2.54%

toncoin
toncoin

$5.703396 USD

-1.02%

chainlink
chainlink

$21.717690 USD

-4.39%

shiba-inu
shiba-inu

$0.000022 USD

0.21%

sui
sui

$4.088937 USD

-3.13%

Nachrichtenartikel zu Kryptowährungen

DeepSeek-V3: Ein 671B-Experten-Sprachmodell von DeepSeek-AI

Dec 27, 2024 at 12:32 pm

Der Bereich der Verarbeitung natürlicher Sprache (NLP) hat bei der Entwicklung groß angelegter Sprachmodelle (LLMs) erhebliche Fortschritte gemacht. Dieser Fortschritt bringt jedoch auch eigene Herausforderungen mit sich. Training und Inferenz erfordern erhebliche Rechenressourcen, die Verfügbarkeit verschiedener, qualitativ hochwertiger Datensätze ist entscheidend und die Erzielung einer ausgewogenen Nutzung in Mixture-of-Experts (MoE)-Architekturen bleibt komplex. Diese Faktoren tragen zu Ineffizienzen und erhöhten Kosten bei und stellen Hindernisse für die Skalierung von Open-Source-Modellen dar, um diese an proprietäre Modelle anzupassen. Darüber hinaus ist die Sicherstellung von Robustheit und Stabilität während des Trainings ein Dauerthema, da bereits geringfügige Instabilitäten die Leistung beeinträchtigen und kostspielige Eingriffe erforderlich machen können.

DeepSeek-V3: Ein 671B-Experten-Sprachmodell von DeepSeek-AI

DeepSeek-AI has announced the release of DeepSeek-V3, a 671B Mixture-of-Experts (MoE) language model with 37B parameters activated per token. This latest model builds upon DeepSeek-AI's previous work on Multi-Head Latent Attention (MLA) and DeepSeekMoE architectures, which were refined in DeepSeek-V2 and DeepSeek-V2.5. DeepSeek-V3 is trained on a massive dataset of 14.8 trillion high-quality tokens, ensuring a broad and diverse knowledge base. Notably, DeepSeek-V3 is fully open-source, with accessible models, papers, and training frameworks for the research community to explore.

DeepSeek-AI hat die Veröffentlichung von DeepSeek-V3 angekündigt, einem 671B Mixture-of-Experts (MoE)-Sprachmodell mit 37B aktivierten Parametern pro Token. Dieses neueste Modell baut auf den früheren Arbeiten von DeepSeek-AI zu Multi-Head Latent Attention (MLA) und DeepSeekMoE-Architekturen auf, die in DeepSeek-V2 und DeepSeek-V2.5 verfeinert wurden. DeepSeek-V3 basiert auf einem riesigen Datensatz von 14,8 Billionen hochwertigen Tokens und gewährleistet so eine breite und vielfältige Wissensbasis. Bemerkenswert ist, dass DeepSeek-V3 vollständig Open Source ist und der Forschungsgemeinschaft zugängliche Modelle, Dokumente und Schulungsrahmen bietet, die sie erkunden kann.

Technical Details and BenefitsSeveral innovations are incorporated into DeepSeek-V3 to address long-standing challenges in the field. An auxiliary-loss-free load balancing strategy efficiently distributes computational loads across experts while maintaining model performance. Moreover, a multi-token prediction training objective enhances data efficiency and enables faster inference through speculative decoding.

Technische Details und Vorteile: Mehrere Innovationen sind in DeepSeek-V3 integriert, um seit langem bestehende Herausforderungen in diesem Bereich zu bewältigen. Eine hilfsverlustfreie Lastausgleichsstrategie verteilt die Rechenlasten effizient auf Experten und behält gleichzeitig die Modellleistung bei. Darüber hinaus verbessert ein Multi-Token-Vorhersagetrainingsziel die Dateneffizienz und ermöglicht schnellere Schlussfolgerungen durch spekulative Dekodierung.

Additionally, FP8 mixed precision training improves computational efficiency by reducing GPU memory usage without sacrificing accuracy. The DualPipe algorithm further minimizes pipeline bubbles by overlapping computation and communication phases, reducing all-to-all communication overhead. These advancements allow DeepSeek-V3 to process 60 tokens per second during inference—a significant improvement over DeepSeek-V2.5.

Darüber hinaus verbessert das FP8-Training mit gemischter Präzision die Recheneffizienz, indem es die GPU-Speichernutzung reduziert, ohne die Genauigkeit zu beeinträchtigen. Der DualPipe-Algorithmus minimiert Pipeline-Blasen weiter, indem er Berechnungs- und Kommunikationsphasen überlappt, wodurch der Gesamtkommunikationsaufwand reduziert wird. Diese Fortschritte ermöglichen es DeepSeek-V3, 60 Token pro Sekunde während der Inferenz zu verarbeiten – eine deutliche Verbesserung gegenüber DeepSeek-V2.5.

Performance Insights and ResultsDeepSeek-V3 is evaluated across multiple benchmarks, showcasing strong performance. On educational datasets like MMLU and MMLU-Pro, DeepSeek-V3 achieves scores of 88.5 and 75.9, respectively, outperforming other open-source models. In mathematical reasoning tasks, DeepSeek-V3 sets new standards with a score of 90.2 on MATH-500. The model also performs exceptionally in coding benchmarks such as LiveCodeBench.

Leistungseinblicke und -ergebnisseDeepSeek-V3 wird in mehreren Benchmarks bewertet und zeigt eine starke Leistung. Bei Bildungsdatensätzen wie MMLU und MMLU-Pro erreicht DeepSeek-V3 Werte von 88,5 bzw. 75,9 und übertrifft damit andere Open-Source-Modelle. Bei mathematischen Denkaufgaben setzt DeepSeek-V3 mit einer Punktzahl von 90,2 bei MATH-500 neue Maßstäbe. Auch bei Codierungs-Benchmarks wie LiveCodeBench schneidet das Modell hervorragend ab.

Despite these achievements, the training cost is kept relatively low at $5.576 million, requiring only 2.788 million H800 GPU hours. These results highlight DeepSeek-V3’s efficiency and its potential to make high-performance LLMs more accessible.

Trotz dieser Erfolge bleiben die Schulungskosten mit 5,576 Millionen US-Dollar relativ niedrig und erfordern nur 2,788 Millionen H800-GPU-Stunden. Diese Ergebnisse unterstreichen die Effizienz von DeepSeek-V3 und sein Potenzial, Hochleistungs-LLMs zugänglicher zu machen.

ConclusionDeepSeek-V3 marks a significant advancement in open-source NLP research. By tackling the computational and architectural challenges associated with large-scale language models, DeepSeek-AI establishes a new benchmark for efficiency and performance. DeepSeek-V3 sets a new standard for open-source LLMs, achieving a balance of performance and efficiency that makes it a competitive alternative to proprietary models. DeepSeek-AI's commitment to open-source development ensures that the broader research community can benefit from its advancements.

Fazit: DeepSeek-V3 stellt einen bedeutenden Fortschritt in der Open-Source-NLP-Forschung dar. Durch die Bewältigung der rechnerischen und architektonischen Herausforderungen, die mit großen Sprachmodellen verbunden sind, setzt DeepSeek-AI einen neuen Maßstab für Effizienz und Leistung. DeepSeek-V3 setzt einen neuen Standard für Open-Source-LLMs und erreicht ein Gleichgewicht aus Leistung und Effizienz, das es zu einer wettbewerbsfähigen Alternative zu proprietären Modellen macht. Das Engagement von DeepSeek-AI für die Open-Source-Entwicklung stellt sicher, dass die breitere Forschungsgemeinschaft von seinen Fortschritten profitieren kann.

Check out the Paper, GitHub Page, and Model on Hugging Face. All credit for this research goes to the researchers of this project. Also, don’t forget to follow us on Twitter and join our Telegram Channel and LinkedIn Group. Don’t Forget to join our 60k+ ML SubReddit.

Schauen Sie sich den Artikel, die GitHub-Seite und das Modell zu Hugging Face an. Alle Anerkennung für diese Forschung gebührt den Forschern dieses Projekts. Vergessen Sie auch nicht, uns auf Twitter zu folgen und unserem Telegram-Kanal und unserer LinkedIn-Gruppe beizutreten. Vergessen Sie nicht, unserem über 60.000 ML großen SubReddit beizutreten.

Trending: LG AI Research Releases EXAONE 3.5: Three Open-Source Bilingual Frontier AI-level Models

Im Trend: LG AI Research veröffentlicht EXAONE 3.5: Drei Open-Source-Modelle auf KI-Ebene für zweisprachige Frontier

Nachrichtenquelle:www.marktechpost.com

Haftungsausschluss:info@kdj.com

The information provided is not trading advice. kdj.com does not assume any responsibility for any investments made based on the information provided in this article. Cryptocurrencies are highly volatile and it is highly recommended that you invest with caution after thorough research!

If you believe that the content used on this website infringes your copyright, please contact us immediately (info@kdj.com) and we will delete it promptly.

Weitere Artikel veröffentlicht am Dec 28, 2024