![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
Articles d’actualité sur les crypto-monnaies
MiniMax dévoile la série MiniMax-01, une nouvelle famille de modèles de base conçus pour gérer des contextes ultra-longs et améliorer le développement d'agents IA
Jan 15, 2025 at 07:46 am
MiniMax est peut-être aujourd'hui mieux connue ici aux États-Unis en tant que société singapourienne derrière Hailuo, un modèle vidéo d'IA génératif réaliste et haute résolution qui rivalise avec Runway, Sora d'OpenAI et Dream Machine de Luma AI.
MiniMax, a Singaporean company, is perhaps best known in the U.S. for its realistic, high-resolution generative AI video model Hailuo, which competes with Runway, OpenAI’s Sora and Luma AI’s Dream Machine.
MiniMax, une société singapourienne, est peut-être mieux connue aux États-Unis pour son modèle vidéo d'IA génératif réaliste et haute résolution, Hailuo, qui concurrence Runway, Sora d'OpenAI et Dream Machine de Luma AI.
But MiniMax has far more tricks up its sleeve: Today, for instance, it announced the release and open-sourcing of the MiniMax-01 series, a new family of models built to handle ultra-long contexts and enhance AI agent development.
Mais MiniMax a bien plus d'atouts dans son sac : aujourd'hui, par exemple, il a annoncé la sortie et l'open source de la série MiniMax-01, une nouvelle famille de modèles conçus pour gérer des contextes ultra-longs et améliorer le développement d'agents d'IA.
The series includes MiniMax-Text-01, a foundation large language model (LLM), and MiniMax-VL-01, a visual multi-modal model.
La série comprend MiniMax-Text-01, un modèle de langage de base (LLM) et MiniMax-VL-01, un modèle visuel multimodal.
A massive context window
Une fenêtre contextuelle massive
MiniMax-Text-01, is of particular note for enabling up to 4 million tokens in its context window — the equivalent of a small library’s worth of books. The context window is how much information the LLM can handle in one input/output exchange, with words and concepts represented as numerical “tokens,” the LLM’s own internal mathematical abstraction of the data it was trained on.
MiniMax-Text-01 est particulièrement remarquable pour permettre jusqu'à 4 millions de jetons dans sa fenêtre contextuelle – l'équivalent de la valeur des livres d'une petite bibliothèque. La fenêtre contextuelle indique la quantité d'informations que le LLM peut gérer dans un échange entrée/sortie, avec des mots et des concepts représentés sous forme de « jetons » numériques, la propre abstraction mathématique interne du LLM des données sur lesquelles il a été formé.
And, while Google previously led the pack with its Gemini 1.5 Pro model and 2 million token context window, MiniMax remarkably doubled that.
Et, alors que Google était auparavant en tête du peloton avec son modèle Gemini 1.5 Pro et sa fenêtre contextuelle de 2 millions de jetons, MiniMax a remarquablement doublé ce chiffre.
As MiniMax posted on its official X account today: “MiniMax-01 efficiently processes up to 4M tokens — 20 to 32 times the capacity of other leading models. We believe MiniMax-01 is poised to support the anticipated surge in agent-related applications in the coming year, as agents increasingly require extended context handling capabilities and sustained memory.”
Comme MiniMax l'a publié aujourd'hui sur son compte officiel X : « MiniMax-01 traite efficacement jusqu'à 4 millions de jetons, soit 20 à 32 fois la capacité des autres modèles leaders. Nous pensons que MiniMax-01 est prêt à prendre en charge l'augmentation prévue des applications liées aux agents au cours de l'année à venir, car les agents nécessitent de plus en plus de capacités de gestion de contexte étendues et d'une mémoire soutenue.
The models are available now for download on Hugging Face and Github under a custom MiniMax license, for users to try directly on Hailuo AI Chat (a ChatGPT/Gemini/Claude competitor), and through MiniMax’s application programming interface (API), where third-party developers can link their own unique apps to them.
Les modèles sont disponibles dès maintenant en téléchargement sur Hugging Face et Github sous une licence MiniMax personnalisée, pour que les utilisateurs puissent les essayer directement sur Hailuo AI Chat (un concurrent ChatGPT/Gemini/Claude), et via l'interface de programmation d'application (API) de MiniMax, où des tiers- les développeurs du groupe peuvent y associer leurs propres applications uniques.
MiniMax is offering APIs for text and multi-modal processing at competitive rates:
MiniMax propose des API pour le traitement de texte et multimodal à des tarifs compétitifs :
For comparison, OpenAI’s GPT-40 costs $2.50 per 1 million input tokens through its API, a staggering 12.5X more expensive.
À titre de comparaison, le GPT-40 d'OpenAI coûte 2,50 $ pour 1 million de jetons d'entrée via son API, soit 12,5 fois plus cher.
MiniMax has also integrated a mixture of experts (MoE) framework with 32 experts to optimize scalability. This design balances computational and memory efficiency while maintaining competitive performance on key benchmarks.
MiniMax a également intégré un cadre mixte d'experts (MoE) avec 32 experts pour optimiser l'évolutivité. Cette conception équilibre l'efficacité du calcul et de la mémoire tout en maintenant des performances compétitives sur les tests clés.
Striking new ground with Lightning Attention Architecture
Innover avec l'architecture Lightning Attention
At the heart of MiniMax-01 is a Lightning Attention mechanism, an innovative alternative to transformer architecture.
Au cœur du MiniMax-01 se trouve un mécanisme Lightning Attention, une alternative innovante à l’architecture du transformateur.
This design significantly reduces computational complexity. The models consist of 456 billion parameters, with 45.9 billion activated per inference.
Cette conception réduit considérablement la complexité informatique. Les modèles comprennent 456 milliards de paramètres, dont 45,9 milliards sont activés par inférence.
Unlike earlier architectures, Lightning Attention employs a mix of linear and traditional SoftMax layers, achieving near-linear complexity for long inputs. SoftMax, for those like myself who are new to the concept, are the transformation of input numerals into probabilities adding up to 1, so that the LLM can approximate which meaning of the input is likeliest.
Contrairement aux architectures précédentes, Lightning Attention utilise un mélange de couches SoftMax linéaires et traditionnelles, atteignant une complexité quasi-linéaire pour les entrées longues. SoftMax, pour ceux comme moi qui sont nouveaux dans le concept, est la transformation des chiffres d'entrée en probabilités totalisant 1, afin que le LLM puisse se rapprocher de la signification de l'entrée la plus probable.
MiniMax has rebuilt its training and inference frameworks to support the Lightning Attention architecture. Key improvements include:
MiniMax a reconstruit ses cadres de formation et d'inférence pour prendre en charge l'architecture Lightning Attention. Les principales améliorations comprennent :
These advancements make MiniMax-01 models accessible for real-world applications, while maintaining affordability.
Ces avancées rendent les modèles MiniMax-01 accessibles aux applications du monde réel, tout en restant abordables.
Performance and Benchmarks
Performances et références
On mainstream text and multi-modal benchmarks, MiniMax-01 rivals top-tier models like GPT-4 and Claude-3.5, with especially strong results on long-context evaluations. Notably, MiniMax-Text-01 achieved 100% accuracy on the Needle-In-A-Haystack task with a 4-million-token context.
Sur les tests de texte grand public et multimodaux, MiniMax-01 rivalise avec les modèles de premier plan comme GPT-4 et Claude-3.5, avec des résultats particulièrement solides sur les évaluations à contexte long. Notamment, MiniMax-Text-01 a atteint une précision de 100 % sur la tâche Needle-In-A-Haystack avec un contexte de 4 millions de jetons.
The models also demonstrate minimal performance degradation as input length increases.
Les modèles démontrent également une dégradation minime des performances à mesure que la longueur d’entrée augmente.
MiniMax plans regular updates to expand the models’ capabilities, including code and multi-modal enhancements.
MiniMax prévoit des mises à jour régulières pour étendre les capacités des modèles, y compris des améliorations de code et multimodales.
The company views open-sourcing as a step toward building foundational AI capabilities for the evolving AI agent landscape.
La société considère l’open source comme une étape vers la création de capacités d’IA fondamentales pour le paysage évolutif des agents d’IA.
With 2025 predicted to be a transformative year for AI agents, the need for sustained memory and efficient inter-agent communication is increasing. MiniMax’s innovations are designed to meet these challenges.
Alors que 2025 s’annonce comme une année de transformation pour les agents d’IA, le besoin d’une mémoire durable et d’une communication inter-agents efficace augmente. Les innovations de MiniMax sont conçues pour relever ces défis.
Open to collaboration
Ouvert à la collaboration
MiniMax invites developers and researchers to explore the capabilities of MiniMax-01. Beyond open-sourcing, its team welcomes technical suggestions and collaboration inquiries at model@minimaxi.com.
MiniMax invite les développeurs et les chercheurs à explorer les capacités de MiniMax-01. Au-delà de l'open source, son équipe accueille les suggestions techniques et les demandes de collaboration à model@minimaxi.com.
With its commitment to cost-effective and scalable AI, MiniMax positions itself as a key player in shaping the AI agent era. The MiniMax-01 series offers an exciting opportunity for developers to push the boundaries of what long-context AI can achieve.
Avec son engagement en faveur d’une IA rentable et évolutive, MiniMax se positionne comme un acteur clé dans le façonnement de l’ère des agents IA. La série MiniMax-01 offre aux développeurs une opportunité passionnante de repousser les limites de ce que l'IA en contexte long peut réaliser.
Clause de non-responsabilité:info@kdj.com
Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!
Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.
-
- Dogecoin est-il prêt à révolutionner le marché de la cryptographie? Une plongée profonde dans son potentiel futur
- Feb 24, 2025 at 03:30 am
- DoGECOIN, la crypto-monnaie de mèmes bien-aimée, danse sur le bord d'un nouvel horizon. Des troubles récents ont saisi le marché de la crypto, mais l'optimisme pour les restes de Dogecoin
-
- La meilleure crypto à acheter avant que la moitié de Bitcoin ne secoue les choses
- Feb 24, 2025 at 03:20 am
- Chaque cycle, de nouvelles opportunités apparaissent, et en ce moment, Dawgz Ai mène le pack. Contrairement à la plupart des pièces de monnaie, celle-ci fait quelque chose - elle gère des robots de trading à haute fréquence pour faire en sorte que Crypto Token Investing sans effort.
-
-
- Explosion de crypto-monnaie: quelle est la prochaine étape pour Bitcoin, Ethereum et Ripple?
- Feb 24, 2025 at 03:11 am
- Le paysage de la monnaie numérique est prêt pour les changements sismiques alors que le bitcoin danse entre les seuils potentiels, Ethereum niche sous un plafond pivot et les rallies d'ondulation avec une vitalité renouvelée.
-
-
- Solaxy, la première solution de Solana Layer 2, augmente 23 millions de dollars en prévente de ciblage de la blockchain et du trading algorithmique
- Feb 24, 2025 at 03:05 am
- Solaxy, la première solution de Solana Layer 2, gagne du terrain pour son objectif d'améliorer l'efficacité, l'évolutivité et la fiabilité de la blockchain.
-
- Correction du marché de la crypto: Bitcoin, Ethereum et les principaux altcoins sont confrontés à une baisse au milieu de la correction du marché, de l'incertitude réglementaire et des pressions macroéconomiques
- Feb 24, 2025 at 03:05 am
- Restez à jour sur les dernières tendances du marché des crypto-monnaies, car Bitcoin, Ethereum et les principaux altcoins sont confrontés à une large baisse au milieu de la correction du marché, de l'incertitude réglementaire et des pressions macroéconomiques. Explorez les mouvements clés des prix, le sentiment des investisseurs et les événements à venir façonnant le paysage cryptographique.
-
- XRP subit la baisse des prix tandis que le jeton DAO Curve (CRV) devient instable et 1Fuel (OFT) apparaît comme un perturbateur du marché
- Feb 24, 2025 at 03:05 am
- Le monde des crypto-monnaies continue d'observer le XRP à mesure que l'utilisation du réseau des donateurs augmente tandis que les possibilités des ETF s'intensifient. Il y a un investisseur répandu
-