|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Nachrichtenartikel zu Kryptowährungen
MiniMax stellt die MiniMax-01-Serie vor, eine neue Familie von Foundation-Modellen, die für den Umgang mit extrem langen Kontexten und die Verbesserung der KI-Agentenentwicklung entwickelt wurden
Jan 15, 2025 at 07:46 am
MiniMax ist hier in den USA heute vielleicht am bekanntesten als das singapurische Unternehmen hinter Hailuo, einem realistischen, hochauflösenden generativen KI-Videomodell, das mit Runway, Sora von OpenAI und Dream Machine von Luma AI konkurriert.
MiniMax, a Singaporean company, is perhaps best known in the U.S. for its realistic, high-resolution generative AI video model Hailuo, which competes with Runway, OpenAI’s Sora and Luma AI’s Dream Machine.
MiniMax, ein singapurisches Unternehmen, ist in den USA vielleicht am bekanntesten für sein realistisches, hochauflösendes generatives KI-Videomodell Hailuo, das mit Runway, Sora von OpenAI und Dream Machine von Luma AI konkurriert.
But MiniMax has far more tricks up its sleeve: Today, for instance, it announced the release and open-sourcing of the MiniMax-01 series, a new family of models built to handle ultra-long contexts and enhance AI agent development.
Aber MiniMax hat noch weitaus mehr Tricks im Ärmel: Heute wurde beispielsweise die Veröffentlichung und Open-Source-Veröffentlichung der MiniMax-01-Serie angekündigt, einer neuen Modellfamilie, die für den Umgang mit extrem langen Kontexten und die Verbesserung der KI-Agentenentwicklung entwickelt wurde.
The series includes MiniMax-Text-01, a foundation large language model (LLM), and MiniMax-VL-01, a visual multi-modal model.
Die Serie umfasst MiniMax-Text-01, ein grundlegendes großes Sprachmodell (LLM), und MiniMax-VL-01, ein visuelles multimodales Modell.
A massive context window
Ein riesiges Kontextfenster
MiniMax-Text-01, is of particular note for enabling up to 4 million tokens in its context window — the equivalent of a small library’s worth of books. The context window is how much information the LLM can handle in one input/output exchange, with words and concepts represented as numerical “tokens,” the LLM’s own internal mathematical abstraction of the data it was trained on.
Besonders hervorzuheben ist MiniMax-Text-01, da es in seinem Kontextfenster bis zu 4 Millionen Token ermöglicht – das Äquivalent der Büchermenge einer kleinen Bibliothek. Das Kontextfenster gibt an, wie viele Informationen das LLM in einem Eingabe-/Ausgabeaustausch verarbeiten kann, wobei Wörter und Konzepte als numerische „Tokens“ dargestellt werden, die interne mathematische Abstraktion des LLM der Daten, auf denen es trainiert wurde.
And, while Google previously led the pack with its Gemini 1.5 Pro model and 2 million token context window, MiniMax remarkably doubled that.
Und während Google zuvor mit seinem Gemini 1.5 Pro-Modell und einem 2-Millionen-Token-Kontextfenster die Nase vorn hatte, konnte MiniMax diesen Wert deutlich verdoppeln.
As MiniMax posted on its official X account today: “MiniMax-01 efficiently processes up to 4M tokens — 20 to 32 times the capacity of other leading models. We believe MiniMax-01 is poised to support the anticipated surge in agent-related applications in the coming year, as agents increasingly require extended context handling capabilities and sustained memory.”
Wie MiniMax heute auf seinem offiziellen X-Konto veröffentlichte: „MiniMax-01 verarbeitet effizient bis zu 4 Millionen Token – das 20- bis 32-fache der Kapazität anderer führender Modelle.“ Wir glauben, dass MiniMax-01 den erwarteten Anstieg agentenbezogener Anwendungen im kommenden Jahr unterstützen wird, da Agenten zunehmend erweiterte Fähigkeiten zur Kontextverarbeitung und einen dauerhaften Speicher benötigen.“
The models are available now for download on Hugging Face and Github under a custom MiniMax license, for users to try directly on Hailuo AI Chat (a ChatGPT/Gemini/Claude competitor), and through MiniMax’s application programming interface (API), where third-party developers can link their own unique apps to them.
Die Modelle stehen ab sofort auf Hugging Face und Github unter einer benutzerdefinierten MiniMax-Lizenz zum Download zur Verfügung, damit Benutzer sie direkt auf Hailuo AI Chat (einem ChatGPT/Gemini/Claude-Konkurrenten) und über die Anwendungsprogrammierschnittstelle (API) von MiniMax ausprobieren können, wo Drittanbieter Partyentwickler können ihre eigenen einzigartigen Apps damit verknüpfen.
MiniMax is offering APIs for text and multi-modal processing at competitive rates:
MiniMax bietet APIs für die Text- und multimodale Verarbeitung zu wettbewerbsfähigen Preisen:
For comparison, OpenAI’s GPT-40 costs $2.50 per 1 million input tokens through its API, a staggering 12.5X more expensive.
Zum Vergleich: GPT-40 von OpenAI kostet über seine API 2,50 US-Dollar pro 1 Million Eingabe-Tokens, was unglaubliche 12,5-mal teurer ist.
MiniMax has also integrated a mixture of experts (MoE) framework with 32 experts to optimize scalability. This design balances computational and memory efficiency while maintaining competitive performance on key benchmarks.
MiniMax hat außerdem ein Mix-of-Experts-Framework (MoE) mit 32 Experten integriert, um die Skalierbarkeit zu optimieren. Dieses Design sorgt für ein ausgewogenes Verhältnis zwischen Rechen- und Speichereffizienz und sorgt gleichzeitig für eine wettbewerbsfähige Leistung bei wichtigen Benchmarks.
Striking new ground with Lightning Attention Architecture
Mit Lightning Attention Architecture neue Wege beschreiten
At the heart of MiniMax-01 is a Lightning Attention mechanism, an innovative alternative to transformer architecture.
Das Herzstück von MiniMax-01 ist ein Lightning Attention-Mechanismus, eine innovative Alternative zur Transformatorarchitektur.
This design significantly reduces computational complexity. The models consist of 456 billion parameters, with 45.9 billion activated per inference.
Dieses Design reduziert die Rechenkomplexität erheblich. Die Modelle bestehen aus 456 Milliarden Parametern, von denen 45,9 Milliarden pro Inferenz aktiviert sind.
Unlike earlier architectures, Lightning Attention employs a mix of linear and traditional SoftMax layers, achieving near-linear complexity for long inputs. SoftMax, for those like myself who are new to the concept, are the transformation of input numerals into probabilities adding up to 1, so that the LLM can approximate which meaning of the input is likeliest.
Im Gegensatz zu früheren Architekturen verwendet Lightning Attention eine Mischung aus linearen und traditionellen SoftMax-Schichten und erreicht so eine nahezu lineare Komplexität für lange Eingaben. SoftMax bedeutet für diejenigen wie mich, die mit dem Konzept noch nicht vertraut sind, die Umwandlung von Eingabezahlen in Wahrscheinlichkeiten, die sich zu 1 summieren, damit das LLM annähernd die Bedeutung der Eingabe ermitteln kann, die am wahrscheinlichsten ist.
MiniMax has rebuilt its training and inference frameworks to support the Lightning Attention architecture. Key improvements include:
MiniMax hat seine Trainings- und Inferenz-Frameworks neu aufgebaut, um die Lightning Attention-Architektur zu unterstützen. Zu den wichtigsten Verbesserungen gehören:
These advancements make MiniMax-01 models accessible for real-world applications, while maintaining affordability.
Diese Fortschritte machen MiniMax-01-Modelle für reale Anwendungen zugänglich und bleiben gleichzeitig erschwinglich.
Performance and Benchmarks
Leistung und Benchmarks
On mainstream text and multi-modal benchmarks, MiniMax-01 rivals top-tier models like GPT-4 and Claude-3.5, with especially strong results on long-context evaluations. Notably, MiniMax-Text-01 achieved 100% accuracy on the Needle-In-A-Haystack task with a 4-million-token context.
Bei Mainstream-Text- und multimodalen Benchmarks konkurriert MiniMax-01 mit Spitzenmodellen wie GPT-4 und Claude-3.5 und erzielt besonders gute Ergebnisse bei Auswertungen mit langem Kontext. Bemerkenswert ist, dass MiniMax-Text-01 bei der Needle-In-A-Haystack-Aufgabe mit einem 4-Millionen-Token-Kontext eine Genauigkeit von 100 % erreichte.
The models also demonstrate minimal performance degradation as input length increases.
Die Modelle weisen außerdem einen minimalen Leistungsabfall auf, wenn die Eingabelänge zunimmt.
MiniMax plans regular updates to expand the models’ capabilities, including code and multi-modal enhancements.
MiniMax plant regelmäßige Updates, um die Fähigkeiten der Modelle zu erweitern, einschließlich Code- und multimodaler Verbesserungen.
The company views open-sourcing as a step toward building foundational AI capabilities for the evolving AI agent landscape.
Das Unternehmen betrachtet Open Sourcing als einen Schritt zum Aufbau grundlegender KI-Funktionen für die sich entwickelnde KI-Agentenlandschaft.
With 2025 predicted to be a transformative year for AI agents, the need for sustained memory and efficient inter-agent communication is increasing. MiniMax’s innovations are designed to meet these challenges.
Da 2025 voraussichtlich ein Jahr des Wandels für KI-Agenten sein wird, steigt der Bedarf an nachhaltigem Gedächtnis und effizienter Kommunikation zwischen Agenten. Die Innovationen von MiniMax sind darauf ausgelegt, diese Herausforderungen zu meistern.
Open to collaboration
Offen für Zusammenarbeit
MiniMax invites developers and researchers to explore the capabilities of MiniMax-01. Beyond open-sourcing, its team welcomes technical suggestions and collaboration inquiries at model@minimaxi.com.
MiniMax lädt Entwickler und Forscher ein, die Fähigkeiten von MiniMax-01 zu erkunden. Über Open-Sourcing hinaus freut sich das Team über technische Vorschläge und Anfragen zur Zusammenarbeit unter model@minimaxi.com.
With its commitment to cost-effective and scalable AI, MiniMax positions itself as a key player in shaping the AI agent era. The MiniMax-01 series offers an exciting opportunity for developers to push the boundaries of what long-context AI can achieve.
Mit seinem Engagement für kostengünstige und skalierbare KI positioniert sich MiniMax als wichtiger Akteur bei der Gestaltung der Ära der KI-Agenten. Die MiniMax-01-Serie bietet Entwicklern eine spannende Gelegenheit, die Grenzen dessen zu erweitern, was Langkontext-KI leisten kann.
Haftungsausschluss:info@kdj.com
The information provided is not trading advice. kdj.com does not assume any responsibility for any investments made based on the information provided in this article. Cryptocurrencies are highly volatile and it is highly recommended that you invest with caution after thorough research!
If you believe that the content used on this website infringes your copyright, please contact us immediately (info@kdj.com) and we will delete it promptly.
-
- Shiba Inu (SHIB), Ripple (XRP) und WallitIQ (WLTQ): 3 Altcoins, die Sie diese Woche im Auge behalten sollten, wenn Sie aus 400 $ 600.000 $ machen möchten
- Jan 21, 2025 at 12:56 pm
- Trotz der aktuellen Stagnation auf dem breiteren Altcoin-Markt stehen drei Kryptowährungen diese Woche ganz oben auf der Expertenliste der besten Altcoins, in die man investieren kann.
-
- AI Altcoin WallitIQ (WLTQ) lockt Wale in seinem laufenden Vorverkauf an, da der XRP-Preis ein neues ATH anstrebt
- Jan 21, 2025 at 12:55 pm
- Während wir uns der dritten Januarwoche 2025 nähern, sind Top-Marktwerte wie Ripple (XRP) in eine Aufwärtsformation eingetreten, wobei der XRP-Preis die 3-Dollar-Marke überschreiten dürfte.
-
- Ethereum-Preis bleibt in einer Spanne, weitere Verluste drohen?
- Jan 21, 2025 at 12:55 pm
- Der Ethereum-Preis begann einen ordentlichen Aufwärtstrend über die 3.300-Dollar-Marke, aber das Aufwärtspotenzial war im Vergleich zu Bitcoin begrenzt. Die ETH schaffte es zum Abschluss nicht, an Fahrt zu gewinnen
-
- Bitcoin (BTC) bereitet sich auf eine Erholung vor, da es das Allzeithoch durchbricht und ein Ziel von 130.000 US-Dollar im Auge hat
- Jan 21, 2025 at 12:55 pm
- Bitcoin hat zum ersten Mal seit Dezember sein Allzeithoch (ATH) überschritten und die Begeisterung der Anleger nach wochenlanger Konsolidierung wieder entfacht.