|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Articles d’actualité sur les crypto-monnaies
MiniMax dévoile la série MiniMax-01, une nouvelle famille de modèles de base conçus pour gérer des contextes ultra-longs et améliorer le développement d'agents IA
Jan 15, 2025 at 07:46 am
MiniMax est peut-être aujourd'hui mieux connue ici aux États-Unis en tant que société singapourienne derrière Hailuo, un modèle vidéo d'IA génératif réaliste et haute résolution qui rivalise avec Runway, Sora d'OpenAI et Dream Machine de Luma AI.
MiniMax, a Singaporean company, is perhaps best known in the U.S. for its realistic, high-resolution generative AI video model Hailuo, which competes with Runway, OpenAI’s Sora and Luma AI’s Dream Machine.
MiniMax, une société singapourienne, est peut-être mieux connue aux États-Unis pour son modèle vidéo d'IA génératif réaliste et haute résolution, Hailuo, qui concurrence Runway, Sora d'OpenAI et Dream Machine de Luma AI.
But MiniMax has far more tricks up its sleeve: Today, for instance, it announced the release and open-sourcing of the MiniMax-01 series, a new family of models built to handle ultra-long contexts and enhance AI agent development.
Mais MiniMax a bien plus d'atouts dans son sac : aujourd'hui, par exemple, il a annoncé la sortie et l'open source de la série MiniMax-01, une nouvelle famille de modèles conçus pour gérer des contextes ultra-longs et améliorer le développement d'agents d'IA.
The series includes MiniMax-Text-01, a foundation large language model (LLM), and MiniMax-VL-01, a visual multi-modal model.
La série comprend MiniMax-Text-01, un modèle de langage de base (LLM) et MiniMax-VL-01, un modèle visuel multimodal.
A massive context window
Une fenêtre contextuelle massive
MiniMax-Text-01, is of particular note for enabling up to 4 million tokens in its context window — the equivalent of a small library’s worth of books. The context window is how much information the LLM can handle in one input/output exchange, with words and concepts represented as numerical “tokens,” the LLM’s own internal mathematical abstraction of the data it was trained on.
MiniMax-Text-01 est particulièrement remarquable pour permettre jusqu'à 4 millions de jetons dans sa fenêtre contextuelle – l'équivalent de la valeur des livres d'une petite bibliothèque. La fenêtre contextuelle indique la quantité d'informations que le LLM peut gérer dans un échange entrée/sortie, avec des mots et des concepts représentés sous forme de « jetons » numériques, la propre abstraction mathématique interne du LLM des données sur lesquelles il a été formé.
And, while Google previously led the pack with its Gemini 1.5 Pro model and 2 million token context window, MiniMax remarkably doubled that.
Et, alors que Google était auparavant en tête du peloton avec son modèle Gemini 1.5 Pro et sa fenêtre contextuelle de 2 millions de jetons, MiniMax a remarquablement doublé ce chiffre.
As MiniMax posted on its official X account today: “MiniMax-01 efficiently processes up to 4M tokens — 20 to 32 times the capacity of other leading models. We believe MiniMax-01 is poised to support the anticipated surge in agent-related applications in the coming year, as agents increasingly require extended context handling capabilities and sustained memory.”
Comme MiniMax l'a publié aujourd'hui sur son compte officiel X : « MiniMax-01 traite efficacement jusqu'à 4 millions de jetons, soit 20 à 32 fois la capacité des autres modèles leaders. Nous pensons que MiniMax-01 est prêt à prendre en charge l'augmentation prévue des applications liées aux agents au cours de l'année à venir, car les agents nécessitent de plus en plus de capacités de gestion de contexte étendues et d'une mémoire soutenue.
The models are available now for download on Hugging Face and Github under a custom MiniMax license, for users to try directly on Hailuo AI Chat (a ChatGPT/Gemini/Claude competitor), and through MiniMax’s application programming interface (API), where third-party developers can link their own unique apps to them.
Les modèles sont disponibles dès maintenant en téléchargement sur Hugging Face et Github sous une licence MiniMax personnalisée, pour que les utilisateurs puissent les essayer directement sur Hailuo AI Chat (un concurrent ChatGPT/Gemini/Claude), et via l'interface de programmation d'application (API) de MiniMax, où des tiers- les développeurs du groupe peuvent y associer leurs propres applications uniques.
MiniMax is offering APIs for text and multi-modal processing at competitive rates:
MiniMax propose des API pour le traitement de texte et multimodal à des tarifs compétitifs :
For comparison, OpenAI’s GPT-40 costs $2.50 per 1 million input tokens through its API, a staggering 12.5X more expensive.
À titre de comparaison, le GPT-40 d'OpenAI coûte 2,50 $ pour 1 million de jetons d'entrée via son API, soit 12,5 fois plus cher.
MiniMax has also integrated a mixture of experts (MoE) framework with 32 experts to optimize scalability. This design balances computational and memory efficiency while maintaining competitive performance on key benchmarks.
MiniMax a également intégré un cadre mixte d'experts (MoE) avec 32 experts pour optimiser l'évolutivité. Cette conception équilibre l'efficacité du calcul et de la mémoire tout en maintenant des performances compétitives sur les tests clés.
Striking new ground with Lightning Attention Architecture
Innover avec l'architecture Lightning Attention
At the heart of MiniMax-01 is a Lightning Attention mechanism, an innovative alternative to transformer architecture.
Au cœur du MiniMax-01 se trouve un mécanisme Lightning Attention, une alternative innovante à l’architecture du transformateur.
This design significantly reduces computational complexity. The models consist of 456 billion parameters, with 45.9 billion activated per inference.
Cette conception réduit considérablement la complexité informatique. Les modèles comprennent 456 milliards de paramètres, dont 45,9 milliards sont activés par inférence.
Unlike earlier architectures, Lightning Attention employs a mix of linear and traditional SoftMax layers, achieving near-linear complexity for long inputs. SoftMax, for those like myself who are new to the concept, are the transformation of input numerals into probabilities adding up to 1, so that the LLM can approximate which meaning of the input is likeliest.
Contrairement aux architectures précédentes, Lightning Attention utilise un mélange de couches SoftMax linéaires et traditionnelles, atteignant une complexité quasi-linéaire pour les entrées longues. SoftMax, pour ceux comme moi qui sont nouveaux dans le concept, est la transformation des chiffres d'entrée en probabilités totalisant 1, afin que le LLM puisse se rapprocher de la signification de l'entrée la plus probable.
MiniMax has rebuilt its training and inference frameworks to support the Lightning Attention architecture. Key improvements include:
MiniMax a reconstruit ses cadres de formation et d'inférence pour prendre en charge l'architecture Lightning Attention. Les principales améliorations comprennent :
These advancements make MiniMax-01 models accessible for real-world applications, while maintaining affordability.
Ces avancées rendent les modèles MiniMax-01 accessibles aux applications du monde réel, tout en restant abordables.
Performance and Benchmarks
Performances et références
On mainstream text and multi-modal benchmarks, MiniMax-01 rivals top-tier models like GPT-4 and Claude-3.5, with especially strong results on long-context evaluations. Notably, MiniMax-Text-01 achieved 100% accuracy on the Needle-In-A-Haystack task with a 4-million-token context.
Sur les tests de texte grand public et multimodaux, MiniMax-01 rivalise avec les modèles de premier plan comme GPT-4 et Claude-3.5, avec des résultats particulièrement solides sur les évaluations à contexte long. Notamment, MiniMax-Text-01 a atteint une précision de 100 % sur la tâche Needle-In-A-Haystack avec un contexte de 4 millions de jetons.
The models also demonstrate minimal performance degradation as input length increases.
Les modèles démontrent également une dégradation minime des performances à mesure que la longueur d’entrée augmente.
MiniMax plans regular updates to expand the models’ capabilities, including code and multi-modal enhancements.
MiniMax prévoit des mises à jour régulières pour étendre les capacités des modèles, y compris des améliorations de code et multimodales.
The company views open-sourcing as a step toward building foundational AI capabilities for the evolving AI agent landscape.
La société considère l’open source comme une étape vers la création de capacités d’IA fondamentales pour le paysage évolutif des agents d’IA.
With 2025 predicted to be a transformative year for AI agents, the need for sustained memory and efficient inter-agent communication is increasing. MiniMax’s innovations are designed to meet these challenges.
Alors que 2025 s’annonce comme une année de transformation pour les agents d’IA, le besoin d’une mémoire durable et d’une communication inter-agents efficace augmente. Les innovations de MiniMax sont conçues pour relever ces défis.
Open to collaboration
Ouvert à la collaboration
MiniMax invites developers and researchers to explore the capabilities of MiniMax-01. Beyond open-sourcing, its team welcomes technical suggestions and collaboration inquiries at model@minimaxi.com.
MiniMax invite les développeurs et les chercheurs à explorer les capacités de MiniMax-01. Au-delà de l'open source, son équipe accueille les suggestions techniques et les demandes de collaboration à model@minimaxi.com.
With its commitment to cost-effective and scalable AI, MiniMax positions itself as a key player in shaping the AI agent era. The MiniMax-01 series offers an exciting opportunity for developers to push the boundaries of what long-context AI can achieve.
Avec son engagement en faveur d’une IA rentable et évolutive, MiniMax se positionne comme un acteur clé dans le façonnement de l’ère des agents IA. La série MiniMax-01 offre aux développeurs une opportunité passionnante de repousser les limites de ce que l'IA en contexte long peut réaliser.
Clause de non-responsabilité:info@kdj.com
The information provided is not trading advice. kdj.com does not assume any responsibility for any investments made based on the information provided in this article. Cryptocurrencies are highly volatile and it is highly recommended that you invest with caution after thorough research!
If you believe that the content used on this website infringes your copyright, please contact us immediately (info@kdj.com) and we will delete it promptly.
-
- L'avocat pro-XRP, John Deaton, défend les listes d'échange de pièces TRUMP et appelle à la transparence et à l'utilisation caritative des bénéfices.
- Jan 21, 2025 at 12:55 pm
- L'avocat pro-XRP, John Deaton, a décidé de répondre aux critiques visant les échanges concernant la cotation de la pièce meme TRUMP.
-
- AI Altcoin WallitIQ (WLTQ) attire les baleines dans sa prévente en cours alors que le prix XRP envisage un nouvel ATH
- Jan 21, 2025 at 12:55 pm
- À l’approche de la troisième semaine de janvier 2025, les principaux actifs du marché comme Ripple (XRP) sont entrés dans une formation haussière, le prix du XRP cherchant à franchir la barre des 3 $.