Marktkapitalisierung: $3.5205T 0.560%
Volumen (24h): $317.6469B -7.750%
  • Marktkapitalisierung: $3.5205T 0.560%
  • Volumen (24h): $317.6469B -7.750%
  • Angst- und Gier-Index:
  • Marktkapitalisierung: $3.5205T 0.560%
Cryptos
Themen
Cryptospedia
Nachricht
CryptosTopics
Videos
Top News
Cryptos
Themen
Cryptospedia
Nachricht
CryptosTopics
Videos
bitcoin
bitcoin

$108064.256573 USD

2.62%

ethereum
ethereum

$3416.451426 USD

4.04%

xrp
xrp

$3.182014 USD

-0.61%

tether
tether

$0.998286 USD

-0.06%

solana
solana

$258.371362 USD

-5.60%

bnb
bnb

$703.182066 USD

-0.59%

dogecoin
dogecoin

$0.378176 USD

-4.38%

usd-coin
usd-coin

$1.000010 USD

-0.01%

cardano
cardano

$1.062758 USD

-0.47%

tron
tron

$0.239600 USD

-1.00%

chainlink
chainlink

$25.901897 USD

10.66%

avalanche
avalanche

$38.079479 USD

-2.52%

sui
sui

$4.720134 USD

-3.00%

stellar
stellar

$0.462876 USD

-3.68%

hedera
hedera

$0.354732 USD

0.20%

Nachrichtenartikel zu Kryptowährungen

MiniMax stellt die MiniMax-01-Serie vor, eine neue Familie von Foundation-Modellen, die für den Umgang mit extrem langen Kontexten und die Verbesserung der KI-Agentenentwicklung entwickelt wurden

Jan 15, 2025 at 07:46 am

MiniMax ist hier in den USA heute vielleicht am bekanntesten als das singapurische Unternehmen hinter Hailuo, einem realistischen, hochauflösenden generativen KI-Videomodell, das mit Runway, Sora von OpenAI und Dream Machine von Luma AI konkurriert.

MiniMax stellt die MiniMax-01-Serie vor, eine neue Familie von Foundation-Modellen, die für den Umgang mit extrem langen Kontexten und die Verbesserung der KI-Agentenentwicklung entwickelt wurden

MiniMax, a Singaporean company, is perhaps best known in the U.S. for its realistic, high-resolution generative AI video model Hailuo, which competes with Runway, OpenAI’s Sora and Luma AI’s Dream Machine.

MiniMax, ein singapurisches Unternehmen, ist in den USA vielleicht am bekanntesten für sein realistisches, hochauflösendes generatives KI-Videomodell Hailuo, das mit Runway, Sora von OpenAI und Dream Machine von Luma AI konkurriert.

But MiniMax has far more tricks up its sleeve: Today, for instance, it announced the release and open-sourcing of the MiniMax-01 series, a new family of models built to handle ultra-long contexts and enhance AI agent development.

Aber MiniMax hat noch weitaus mehr Tricks im Ärmel: Heute wurde beispielsweise die Veröffentlichung und Open-Source-Veröffentlichung der MiniMax-01-Serie angekündigt, einer neuen Modellfamilie, die für den Umgang mit extrem langen Kontexten und die Verbesserung der KI-Agentenentwicklung entwickelt wurde.

The series includes MiniMax-Text-01, a foundation large language model (LLM), and MiniMax-VL-01, a visual multi-modal model.

Die Serie umfasst MiniMax-Text-01, ein grundlegendes großes Sprachmodell (LLM), und MiniMax-VL-01, ein visuelles multimodales Modell.

A massive context window

Ein riesiges Kontextfenster

MiniMax-Text-01, is of particular note for enabling up to 4 million tokens in its context window — the equivalent of a small library’s worth of books. The context window is how much information the LLM can handle in one input/output exchange, with words and concepts represented as numerical “tokens,” the LLM’s own internal mathematical abstraction of the data it was trained on.

Besonders hervorzuheben ist MiniMax-Text-01, da es in seinem Kontextfenster bis zu 4 Millionen Token ermöglicht – das Äquivalent der Büchermenge einer kleinen Bibliothek. Das Kontextfenster gibt an, wie viele Informationen das LLM in einem Eingabe-/Ausgabeaustausch verarbeiten kann, wobei Wörter und Konzepte als numerische „Tokens“ dargestellt werden, die interne mathematische Abstraktion des LLM der Daten, auf denen es trainiert wurde.

And, while Google previously led the pack with its Gemini 1.5 Pro model and 2 million token context window, MiniMax remarkably doubled that.

Und während Google zuvor mit seinem Gemini 1.5 Pro-Modell und einem 2-Millionen-Token-Kontextfenster die Nase vorn hatte, konnte MiniMax diesen Wert deutlich verdoppeln.

As MiniMax posted on its official X account today: “MiniMax-01 efficiently processes up to 4M tokens — 20 to 32 times the capacity of other leading models. We believe MiniMax-01 is poised to support the anticipated surge in agent-related applications in the coming year, as agents increasingly require extended context handling capabilities and sustained memory.”

Wie MiniMax heute auf seinem offiziellen X-Konto veröffentlichte: „MiniMax-01 verarbeitet effizient bis zu 4 Millionen Token – das 20- bis 32-fache der Kapazität anderer führender Modelle.“ Wir glauben, dass MiniMax-01 den erwarteten Anstieg agentenbezogener Anwendungen im kommenden Jahr unterstützen wird, da Agenten zunehmend erweiterte Fähigkeiten zur Kontextverarbeitung und einen dauerhaften Speicher benötigen.“

The models are available now for download on Hugging Face and Github under a custom MiniMax license, for users to try directly on Hailuo AI Chat (a ChatGPT/Gemini/Claude competitor), and through MiniMax’s application programming interface (API), where third-party developers can link their own unique apps to them.

Die Modelle stehen ab sofort auf Hugging Face und Github unter einer benutzerdefinierten MiniMax-Lizenz zum Download zur Verfügung, damit Benutzer sie direkt auf Hailuo AI Chat (einem ChatGPT/Gemini/Claude-Konkurrenten) und über die Anwendungsprogrammierschnittstelle (API) von MiniMax ausprobieren können, wo Drittanbieter Partyentwickler können ihre eigenen einzigartigen Apps damit verknüpfen.

MiniMax is offering APIs for text and multi-modal processing at competitive rates:

MiniMax bietet APIs für die Text- und multimodale Verarbeitung zu wettbewerbsfähigen Preisen:

For comparison, OpenAI’s GPT-40 costs $2.50 per 1 million input tokens through its API, a staggering 12.5X more expensive.

Zum Vergleich: GPT-40 von OpenAI kostet über seine API 2,50 US-Dollar pro 1 Million Eingabe-Tokens, was unglaubliche 12,5-mal teurer ist.

MiniMax has also integrated a mixture of experts (MoE) framework with 32 experts to optimize scalability. This design balances computational and memory efficiency while maintaining competitive performance on key benchmarks.

MiniMax hat außerdem ein Mix-of-Experts-Framework (MoE) mit 32 Experten integriert, um die Skalierbarkeit zu optimieren. Dieses Design sorgt für ein ausgewogenes Verhältnis zwischen Rechen- und Speichereffizienz und sorgt gleichzeitig für eine wettbewerbsfähige Leistung bei wichtigen Benchmarks.

Striking new ground with Lightning Attention Architecture

Mit Lightning Attention Architecture neue Wege beschreiten

At the heart of MiniMax-01 is a Lightning Attention mechanism, an innovative alternative to transformer architecture.

Das Herzstück von MiniMax-01 ist ein Lightning Attention-Mechanismus, eine innovative Alternative zur Transformatorarchitektur.

This design significantly reduces computational complexity. The models consist of 456 billion parameters, with 45.9 billion activated per inference.

Dieses Design reduziert die Rechenkomplexität erheblich. Die Modelle bestehen aus 456 Milliarden Parametern, von denen 45,9 Milliarden pro Inferenz aktiviert sind.

Unlike earlier architectures, Lightning Attention employs a mix of linear and traditional SoftMax layers, achieving near-linear complexity for long inputs. SoftMax, for those like myself who are new to the concept, are the transformation of input numerals into probabilities adding up to 1, so that the LLM can approximate which meaning of the input is likeliest.

Im Gegensatz zu früheren Architekturen verwendet Lightning Attention eine Mischung aus linearen und traditionellen SoftMax-Schichten und erreicht so eine nahezu lineare Komplexität für lange Eingaben. SoftMax bedeutet für diejenigen wie mich, die mit dem Konzept noch nicht vertraut sind, die Umwandlung von Eingabezahlen in Wahrscheinlichkeiten, die sich zu 1 summieren, damit das LLM annähernd die Bedeutung der Eingabe ermitteln kann, die am wahrscheinlichsten ist.

MiniMax has rebuilt its training and inference frameworks to support the Lightning Attention architecture. Key improvements include:

MiniMax hat seine Trainings- und Inferenz-Frameworks neu aufgebaut, um die Lightning Attention-Architektur zu unterstützen. Zu den wichtigsten Verbesserungen gehören:

These advancements make MiniMax-01 models accessible for real-world applications, while maintaining affordability.

Diese Fortschritte machen MiniMax-01-Modelle für reale Anwendungen zugänglich und bleiben gleichzeitig erschwinglich.

Performance and Benchmarks

Leistung und Benchmarks

On mainstream text and multi-modal benchmarks, MiniMax-01 rivals top-tier models like GPT-4 and Claude-3.5, with especially strong results on long-context evaluations. Notably, MiniMax-Text-01 achieved 100% accuracy on the Needle-In-A-Haystack task with a 4-million-token context.

Bei Mainstream-Text- und multimodalen Benchmarks konkurriert MiniMax-01 mit Spitzenmodellen wie GPT-4 und Claude-3.5 und erzielt besonders gute Ergebnisse bei Auswertungen mit langem Kontext. Bemerkenswert ist, dass MiniMax-Text-01 bei der Needle-In-A-Haystack-Aufgabe mit einem 4-Millionen-Token-Kontext eine Genauigkeit von 100 % erreichte.

The models also demonstrate minimal performance degradation as input length increases.

Die Modelle weisen außerdem einen minimalen Leistungsabfall auf, wenn die Eingabelänge zunimmt.

MiniMax plans regular updates to expand the models’ capabilities, including code and multi-modal enhancements.

MiniMax plant regelmäßige Updates, um die Fähigkeiten der Modelle zu erweitern, einschließlich Code- und multimodaler Verbesserungen.

The company views open-sourcing as a step toward building foundational AI capabilities for the evolving AI agent landscape.

Das Unternehmen betrachtet Open Sourcing als einen Schritt zum Aufbau grundlegender KI-Funktionen für die sich entwickelnde KI-Agentenlandschaft.

With 2025 predicted to be a transformative year for AI agents, the need for sustained memory and efficient inter-agent communication is increasing. MiniMax’s innovations are designed to meet these challenges.

Da 2025 voraussichtlich ein Jahr des Wandels für KI-Agenten sein wird, steigt der Bedarf an nachhaltigem Gedächtnis und effizienter Kommunikation zwischen Agenten. Die Innovationen von MiniMax sind darauf ausgelegt, diese Herausforderungen zu meistern.

Open to collaboration

Offen für Zusammenarbeit

MiniMax invites developers and researchers to explore the capabilities of MiniMax-01. Beyond open-sourcing, its team welcomes technical suggestions and collaboration inquiries at model@minimaxi.com.

MiniMax lädt Entwickler und Forscher ein, die Fähigkeiten von MiniMax-01 zu erkunden. Über Open-Sourcing hinaus freut sich das Team über technische Vorschläge und Anfragen zur Zusammenarbeit unter model@minimaxi.com.

With its commitment to cost-effective and scalable AI, MiniMax positions itself as a key player in shaping the AI agent era. The MiniMax-01 series offers an exciting opportunity for developers to push the boundaries of what long-context AI can achieve.

Mit seinem Engagement für kostengünstige und skalierbare KI positioniert sich MiniMax als wichtiger Akteur bei der Gestaltung der Ära der KI-Agenten. Die MiniMax-01-Serie bietet Entwicklern eine spannende Gelegenheit, die Grenzen dessen zu erweitern, was Langkontext-KI leisten kann.

Haftungsausschluss:info@kdj.com

The information provided is not trading advice. kdj.com does not assume any responsibility for any investments made based on the information provided in this article. Cryptocurrencies are highly volatile and it is highly recommended that you invest with caution after thorough research!

If you believe that the content used on this website infringes your copyright, please contact us immediately (info@kdj.com) and we will delete it promptly.

Weitere Artikel veröffentlicht am Jan 21, 2025