![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
Nachrichtenartikel zu Kryptowährungen
MiniMax stellt die MiniMax-01-Serie vor, eine neue Familie von Foundation-Modellen, die für den Umgang mit extrem langen Kontexten und die Verbesserung der KI-Agentenentwicklung entwickelt wurden
Jan 15, 2025 at 07:46 am
MiniMax ist hier in den USA heute vielleicht am bekanntesten als das singapurische Unternehmen hinter Hailuo, einem realistischen, hochauflösenden generativen KI-Videomodell, das mit Runway, Sora von OpenAI und Dream Machine von Luma AI konkurriert.
MiniMax, a Singaporean company, is perhaps best known in the U.S. for its realistic, high-resolution generative AI video model Hailuo, which competes with Runway, OpenAI’s Sora and Luma AI’s Dream Machine.
MiniMax, ein singapurisches Unternehmen, ist in den USA vielleicht am bekanntesten für sein realistisches, hochauflösendes generatives KI-Videomodell Hailuo, das mit Runway, Sora von OpenAI und Dream Machine von Luma AI konkurriert.
But MiniMax has far more tricks up its sleeve: Today, for instance, it announced the release and open-sourcing of the MiniMax-01 series, a new family of models built to handle ultra-long contexts and enhance AI agent development.
Aber MiniMax hat noch weitaus mehr Tricks im Ärmel: Heute wurde beispielsweise die Veröffentlichung und Open-Source-Veröffentlichung der MiniMax-01-Serie angekündigt, einer neuen Modellfamilie, die für den Umgang mit extrem langen Kontexten und die Verbesserung der KI-Agentenentwicklung entwickelt wurde.
The series includes MiniMax-Text-01, a foundation large language model (LLM), and MiniMax-VL-01, a visual multi-modal model.
Die Serie umfasst MiniMax-Text-01, ein grundlegendes großes Sprachmodell (LLM), und MiniMax-VL-01, ein visuelles multimodales Modell.
A massive context window
Ein riesiges Kontextfenster
MiniMax-Text-01, is of particular note for enabling up to 4 million tokens in its context window — the equivalent of a small library’s worth of books. The context window is how much information the LLM can handle in one input/output exchange, with words and concepts represented as numerical “tokens,” the LLM’s own internal mathematical abstraction of the data it was trained on.
Besonders hervorzuheben ist MiniMax-Text-01, da es in seinem Kontextfenster bis zu 4 Millionen Token ermöglicht – das Äquivalent der Büchermenge einer kleinen Bibliothek. Das Kontextfenster gibt an, wie viele Informationen das LLM in einem Eingabe-/Ausgabeaustausch verarbeiten kann, wobei Wörter und Konzepte als numerische „Tokens“ dargestellt werden, die interne mathematische Abstraktion des LLM der Daten, auf denen es trainiert wurde.
And, while Google previously led the pack with its Gemini 1.5 Pro model and 2 million token context window, MiniMax remarkably doubled that.
Und während Google zuvor mit seinem Gemini 1.5 Pro-Modell und einem 2-Millionen-Token-Kontextfenster die Nase vorn hatte, konnte MiniMax diesen Wert deutlich verdoppeln.
As MiniMax posted on its official X account today: “MiniMax-01 efficiently processes up to 4M tokens — 20 to 32 times the capacity of other leading models. We believe MiniMax-01 is poised to support the anticipated surge in agent-related applications in the coming year, as agents increasingly require extended context handling capabilities and sustained memory.”
Wie MiniMax heute auf seinem offiziellen X-Konto veröffentlichte: „MiniMax-01 verarbeitet effizient bis zu 4 Millionen Token – das 20- bis 32-fache der Kapazität anderer führender Modelle.“ Wir glauben, dass MiniMax-01 den erwarteten Anstieg agentenbezogener Anwendungen im kommenden Jahr unterstützen wird, da Agenten zunehmend erweiterte Fähigkeiten zur Kontextverarbeitung und einen dauerhaften Speicher benötigen.“
The models are available now for download on Hugging Face and Github under a custom MiniMax license, for users to try directly on Hailuo AI Chat (a ChatGPT/Gemini/Claude competitor), and through MiniMax’s application programming interface (API), where third-party developers can link their own unique apps to them.
Die Modelle stehen ab sofort auf Hugging Face und Github unter einer benutzerdefinierten MiniMax-Lizenz zum Download zur Verfügung, damit Benutzer sie direkt auf Hailuo AI Chat (einem ChatGPT/Gemini/Claude-Konkurrenten) und über die Anwendungsprogrammierschnittstelle (API) von MiniMax ausprobieren können, wo Drittanbieter Partyentwickler können ihre eigenen einzigartigen Apps damit verknüpfen.
MiniMax is offering APIs for text and multi-modal processing at competitive rates:
MiniMax bietet APIs für die Text- und multimodale Verarbeitung zu wettbewerbsfähigen Preisen:
For comparison, OpenAI’s GPT-40 costs $2.50 per 1 million input tokens through its API, a staggering 12.5X more expensive.
Zum Vergleich: GPT-40 von OpenAI kostet über seine API 2,50 US-Dollar pro 1 Million Eingabe-Tokens, was unglaubliche 12,5-mal teurer ist.
MiniMax has also integrated a mixture of experts (MoE) framework with 32 experts to optimize scalability. This design balances computational and memory efficiency while maintaining competitive performance on key benchmarks.
MiniMax hat außerdem ein Mix-of-Experts-Framework (MoE) mit 32 Experten integriert, um die Skalierbarkeit zu optimieren. Dieses Design sorgt für ein ausgewogenes Verhältnis zwischen Rechen- und Speichereffizienz und sorgt gleichzeitig für eine wettbewerbsfähige Leistung bei wichtigen Benchmarks.
Striking new ground with Lightning Attention Architecture
Mit Lightning Attention Architecture neue Wege beschreiten
At the heart of MiniMax-01 is a Lightning Attention mechanism, an innovative alternative to transformer architecture.
Das Herzstück von MiniMax-01 ist ein Lightning Attention-Mechanismus, eine innovative Alternative zur Transformatorarchitektur.
This design significantly reduces computational complexity. The models consist of 456 billion parameters, with 45.9 billion activated per inference.
Dieses Design reduziert die Rechenkomplexität erheblich. Die Modelle bestehen aus 456 Milliarden Parametern, von denen 45,9 Milliarden pro Inferenz aktiviert sind.
Unlike earlier architectures, Lightning Attention employs a mix of linear and traditional SoftMax layers, achieving near-linear complexity for long inputs. SoftMax, for those like myself who are new to the concept, are the transformation of input numerals into probabilities adding up to 1, so that the LLM can approximate which meaning of the input is likeliest.
Im Gegensatz zu früheren Architekturen verwendet Lightning Attention eine Mischung aus linearen und traditionellen SoftMax-Schichten und erreicht so eine nahezu lineare Komplexität für lange Eingaben. SoftMax bedeutet für diejenigen wie mich, die mit dem Konzept noch nicht vertraut sind, die Umwandlung von Eingabezahlen in Wahrscheinlichkeiten, die sich zu 1 summieren, damit das LLM annähernd die Bedeutung der Eingabe ermitteln kann, die am wahrscheinlichsten ist.
MiniMax has rebuilt its training and inference frameworks to support the Lightning Attention architecture. Key improvements include:
MiniMax hat seine Trainings- und Inferenz-Frameworks neu aufgebaut, um die Lightning Attention-Architektur zu unterstützen. Zu den wichtigsten Verbesserungen gehören:
These advancements make MiniMax-01 models accessible for real-world applications, while maintaining affordability.
Diese Fortschritte machen MiniMax-01-Modelle für reale Anwendungen zugänglich und bleiben gleichzeitig erschwinglich.
Performance and Benchmarks
Leistung und Benchmarks
On mainstream text and multi-modal benchmarks, MiniMax-01 rivals top-tier models like GPT-4 and Claude-3.5, with especially strong results on long-context evaluations. Notably, MiniMax-Text-01 achieved 100% accuracy on the Needle-In-A-Haystack task with a 4-million-token context.
Bei Mainstream-Text- und multimodalen Benchmarks konkurriert MiniMax-01 mit Spitzenmodellen wie GPT-4 und Claude-3.5 und erzielt besonders gute Ergebnisse bei Auswertungen mit langem Kontext. Bemerkenswert ist, dass MiniMax-Text-01 bei der Needle-In-A-Haystack-Aufgabe mit einem 4-Millionen-Token-Kontext eine Genauigkeit von 100 % erreichte.
The models also demonstrate minimal performance degradation as input length increases.
Die Modelle weisen außerdem einen minimalen Leistungsabfall auf, wenn die Eingabelänge zunimmt.
MiniMax plans regular updates to expand the models’ capabilities, including code and multi-modal enhancements.
MiniMax plant regelmäßige Updates, um die Fähigkeiten der Modelle zu erweitern, einschließlich Code- und multimodaler Verbesserungen.
The company views open-sourcing as a step toward building foundational AI capabilities for the evolving AI agent landscape.
Das Unternehmen betrachtet Open Sourcing als einen Schritt zum Aufbau grundlegender KI-Funktionen für die sich entwickelnde KI-Agentenlandschaft.
With 2025 predicted to be a transformative year for AI agents, the need for sustained memory and efficient inter-agent communication is increasing. MiniMax’s innovations are designed to meet these challenges.
Da 2025 voraussichtlich ein Jahr des Wandels für KI-Agenten sein wird, steigt der Bedarf an nachhaltigem Gedächtnis und effizienter Kommunikation zwischen Agenten. Die Innovationen von MiniMax sind darauf ausgelegt, diese Herausforderungen zu meistern.
Open to collaboration
Offen für Zusammenarbeit
MiniMax invites developers and researchers to explore the capabilities of MiniMax-01. Beyond open-sourcing, its team welcomes technical suggestions and collaboration inquiries at model@minimaxi.com.
MiniMax lädt Entwickler und Forscher ein, die Fähigkeiten von MiniMax-01 zu erkunden. Über Open-Sourcing hinaus freut sich das Team über technische Vorschläge und Anfragen zur Zusammenarbeit unter model@minimaxi.com.
With its commitment to cost-effective and scalable AI, MiniMax positions itself as a key player in shaping the AI agent era. The MiniMax-01 series offers an exciting opportunity for developers to push the boundaries of what long-context AI can achieve.
Mit seinem Engagement für kostengünstige und skalierbare KI positioniert sich MiniMax als wichtiger Akteur bei der Gestaltung der Ära der KI-Agenten. Die MiniMax-01-Serie bietet Entwicklern eine spannende Gelegenheit, die Grenzen dessen zu erweitern, was Langkontext-KI leisten kann.
Haftungsausschluss:info@kdj.com
Die bereitgestellten Informationen stellen keine Handelsberatung dar. kdj.com übernimmt keine Verantwortung für Investitionen, die auf der Grundlage der in diesem Artikel bereitgestellten Informationen getätigt werden. Kryptowährungen sind sehr volatil und es wird dringend empfohlen, nach gründlicher Recherche mit Vorsicht zu investieren!
Wenn Sie glauben, dass der auf dieser Website verwendete Inhalt Ihr Urheberrecht verletzt, kontaktieren Sie uns bitte umgehend (info@kdj.com) und wir werden ihn umgehend löschen.
-
- Dogelon Mars wird in Hongkong als Teil des Web3festivals eine Veranstaltung abhalten
- Apr 02, 2025 at 10:50 am
- Dogelon Mars wird in Hongkong als Teil des Web3Festivals eine Veranstaltung abhalten. Die Veranstaltung ist für den 7. April von 10:00 bis 12:00 UTC geplant und ist Teil der Aktivitäten des Festivals.
-
-
- Bitcoin (BTC) -Märkte haben sich unter der Trump -Verwaltung nicht wie erwartet verhalten
- Apr 02, 2025 at 10:45 am
- Bisher haben sich Kryptomärkte unter der Trump -Verwaltung nicht wie erwartet verhalten. Die Anleger hofften, dass die Regulierungsreform und -politik wie eine strategische Bitcoin -Reserve die Preise verstärkt steigern würden.
-
-
- Seltene Goldmünzen, Stück von Joe DiMaggios Fledermaus-Teil von Illinois Schatzmeister Michael Frerichs I-Cash Auction
- Apr 02, 2025 at 10:40 am
- Eine goldene Münze von 1881 US $ 10, ein 18-Karat-Gelbgold-Ketten-Ketten-Verknüpfungsarmband und eine Baseballkarte mit einem Stück Joe DiMaggios Fledermaus gehören zu den nicht beanspruchten Immobilienartikeln, die vom 28. März bis zum 6. April online versteigert werden.
-
- Noviqtech (ASX: NVQ) hat die Mainnet-Tokenisierung einer Proof-of-Sustainability-Charge von Recyclingaminen abgeschlossen
- Apr 02, 2025 at 10:40 am
- Noviqtech (ASX: NVQ) hat die Mainnet-Tokenisierung einer Proof-of-Sustainability-Charge von recycelten Aminen im bahnbrechenden verteilten Ledger-Netza-Netza abgeschlossen
-
- MasterCard startet Multi-Token Network (MTN), um herkömmliche Finanz- und digitale Assets zu verbinden
- Apr 02, 2025 at 10:35 am
- MasterCard plant, ein Blockchain-basierter Multi-Token-Netzwerk (MTN) einzurichten, um Finanzinstitute und digitale Vermögenswerte über ein einzelnes Netzwerk zu verbinden.
-
-
- Der Marketingleiter von FIO Protocol, Marie Grig, wird an der Pariser Blockchain -Woche teilnehmen
- Apr 02, 2025 at 10:30 am
- FIO Protocol ist eine innovative Blockchain -Plattform, die den häufig komplexen und einschüchternden Prozess der Transaktion mit Kryptowährungen rationalisiert. Das Protokoll zielt darauf ab, gemeinsame Probleme im Zusammenhang mit Kryptowährungstransaktionen zu beseitigen, nämlich die Notwendigkeit, verwickelte Adressen zu verwenden, was zu kostspieligen Fehlern und fehlgeleiteten Fonds führen kann.