|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
暗号通貨のニュース記事
MiniMax、超長いコンテキストを処理し AI エージェント開発を強化するために構築された新しいファウンデーション モデル ファミリである MiniMax-01 シリーズを発表
2025/01/15 07:46
MiniMax は、Runway、OpenAI の Sora、Luma AI の Dream Machine と競合する、リアルで高解像度の生成 AI ビデオ モデルである Hailuo を開発したシンガポールの会社として、おそらく今日ここ米国で最もよく知られています。
MiniMax, a Singaporean company, is perhaps best known in the U.S. for its realistic, high-resolution generative AI video model Hailuo, which competes with Runway, OpenAI’s Sora and Luma AI’s Dream Machine.
シンガポールの企業である MiniMax は、Runway、OpenAI の Sora、Luma AI の Dream Machine と競合する、リアルで高解像度の生成 AI ビデオ モデル Hailuo でおそらく米国で最もよく知られています。
But MiniMax has far more tricks up its sleeve: Today, for instance, it announced the release and open-sourcing of the MiniMax-01 series, a new family of models built to handle ultra-long contexts and enhance AI agent development.
しかし、MiniMax には、さらに多くのトリックが用意されています。たとえば、今日、MiniMax-01 シリーズのリリースとオープンソース化を発表しました。これは、超長いコンテキストを処理し、AI エージェント開発を強化するために構築された新しいモデル ファミリです。
The series includes MiniMax-Text-01, a foundation large language model (LLM), and MiniMax-VL-01, a visual multi-modal model.
このシリーズには、基礎大規模言語モデル (LLM) である MiniMax-Text-01 と、ビジュアル マルチモーダル モデルである MiniMax-VL-01 が含まれています。
A massive context window
巨大なコンテキストウィンドウ
MiniMax-Text-01, is of particular note for enabling up to 4 million tokens in its context window — the equivalent of a small library’s worth of books. The context window is how much information the LLM can handle in one input/output exchange, with words and concepts represented as numerical “tokens,” the LLM’s own internal mathematical abstraction of the data it was trained on.
MiniMax-Text-01 は、コンテキスト ウィンドウで最大 400 万のトークンを有効にする点で特に注目に値します。これは小規模な図書館に相当する書籍に相当します。コンテキスト ウィンドウは、LLM が 1 回の入出力交換でどれだけの情報を処理できるかであり、単語や概念は数値の「トークン」として表され、LLM がトレーニングされたデータを内部的に数学的に抽象化したものになります。
And, while Google previously led the pack with its Gemini 1.5 Pro model and 2 million token context window, MiniMax remarkably doubled that.
また、Google は以前、Gemini 1.5 Pro モデルと 200 万トークンのコンテキスト ウィンドウで業界をリードしていましたが、MiniMax はそれを見事に 2 倍にしました。
As MiniMax posted on its official X account today: “MiniMax-01 efficiently processes up to 4M tokens — 20 to 32 times the capacity of other leading models. We believe MiniMax-01 is poised to support the anticipated surge in agent-related applications in the coming year, as agents increasingly require extended context handling capabilities and sustained memory.”
MiniMax が本日公式 X アカウントに投稿したように、「MiniMax-01 は最大 400 万トークンを効率的に処理します。これは他の主要モデルの 20 ~ 32 倍の容量です。エージェントは拡張されたコンテキスト処理機能と持続的なメモリをますます必要とするため、MiniMax-01 は来年予想されるエージェント関連アプリケーションの急増をサポートする態勢が整っていると信じています。」
The models are available now for download on Hugging Face and Github under a custom MiniMax license, for users to try directly on Hailuo AI Chat (a ChatGPT/Gemini/Claude competitor), and through MiniMax’s application programming interface (API), where third-party developers can link their own unique apps to them.
モデルは現在、カスタム MiniMax ライセンスに基づいて Hugging Face と Github でダウンロードでき、ユーザーは Hailuo AI Chat (ChatGPT/Gemini/Claude の競合製品) で直接試すことができ、また MiniMax のアプリケーション プログラミング インターフェイス (API) を通じて試すことができます。パーティー開発者は、独自のアプリをパーティーにリンクできます。
MiniMax is offering APIs for text and multi-modal processing at competitive rates:
MiniMax は、テキストおよびマルチモーダル処理用の API を競争力のある料金で提供しています。
For comparison, OpenAI’s GPT-40 costs $2.50 per 1 million input tokens through its API, a staggering 12.5X more expensive.
比較のために、OpenAI の GPT-40 は、その API を介した 100 万入力トークンあたり 2.50 ドルの費用がかかり、これは 12.5 倍という驚異的な金額です。
MiniMax has also integrated a mixture of experts (MoE) framework with 32 experts to optimize scalability. This design balances computational and memory efficiency while maintaining competitive performance on key benchmarks.
MiniMax は、スケーラビリティを最適化するために、32 人の専門家による混合専門家 (MoE) フレームワークも統合しました。この設計は、主要なベンチマークで競争力のあるパフォーマンスを維持しながら、計算効率とメモリ効率のバランスをとります。
Striking new ground with Lightning Attention Architecture
ライトニング アテンション アーキテクチャで新境地を拓く
At the heart of MiniMax-01 is a Lightning Attention mechanism, an innovative alternative to transformer architecture.
MiniMax-01 の中心となるのは、トランス アーキテクチャに代わる革新的なライトニング アテンション メカニズムです。
This design significantly reduces computational complexity. The models consist of 456 billion parameters, with 45.9 billion activated per inference.
この設計により、計算の複雑さが大幅に軽減されます。モデルは 4,560 億のパラメーターで構成され、推論ごとに 459 億がアクティブになります。
Unlike earlier architectures, Lightning Attention employs a mix of linear and traditional SoftMax layers, achieving near-linear complexity for long inputs. SoftMax, for those like myself who are new to the concept, are the transformation of input numerals into probabilities adding up to 1, so that the LLM can approximate which meaning of the input is likeliest.
以前のアーキテクチャとは異なり、Lightning Attend は線形レイヤーと従来の SoftMax レイヤーを組み合わせて採用し、長い入力に対してほぼ線形の複雑さを実現します。私のようにこの概念に慣れていない人のために説明すると、SoftMax は入力数値を確率に変換し、合計が 1 になるため、LLM は入力のどの意味が最も可能性が高いかを近似できます。
MiniMax has rebuilt its training and inference frameworks to support the Lightning Attention architecture. Key improvements include:
MiniMax は、Lightning Attendant アーキテクチャをサポートするためにトレーニングと推論のフレームワークを再構築しました。主な改善点は次のとおりです。
These advancements make MiniMax-01 models accessible for real-world applications, while maintaining affordability.
これらの進歩により、MiniMax-01 モデルは手頃な価格を維持しながら、実際のアプリケーションに利用できるようになりました。
Performance and Benchmarks
パフォーマンスとベンチマーク
On mainstream text and multi-modal benchmarks, MiniMax-01 rivals top-tier models like GPT-4 and Claude-3.5, with especially strong results on long-context evaluations. Notably, MiniMax-Text-01 achieved 100% accuracy on the Needle-In-A-Haystack task with a 4-million-token context.
主流のテキストおよびマルチモーダルのベンチマークでは、MiniMax-01 は GPT-4 や Claude-3.5 などの最上位モデルに匹敵し、特にロングコンテキストの評価で優れた結果を示しています。特に、MiniMax-Text-01 は、400 万トークンのコンテキストを使用した Needle-In-A-Haystack タスクで 100% の精度を達成しました。
The models also demonstrate minimal performance degradation as input length increases.
このモデルは、入力長が増加してもパフォーマンスの低下が最小限に抑えられることも示しています。
MiniMax plans regular updates to expand the models’ capabilities, including code and multi-modal enhancements.
MiniMax は、コードやマルチモーダルの機能強化など、モデルの機能を拡張するための定期的な更新を計画しています。
The company views open-sourcing as a step toward building foundational AI capabilities for the evolving AI agent landscape.
同社は、オープンソースを、進化する AI エージェント環境に向けた基礎的な AI 機能の構築に向けたステップとして捉えています。
With 2025 predicted to be a transformative year for AI agents, the need for sustained memory and efficient inter-agent communication is increasing. MiniMax’s innovations are designed to meet these challenges.
2025 年は AI エージェントにとって変革の年になると予測されており、持続的な記憶力と効率的なエージェント間コミュニケーションの必要性が高まっています。 MiniMax のイノベーションは、これらの課題に対処するように設計されています。
Open to collaboration
コラボレーションにオープン
MiniMax invites developers and researchers to explore the capabilities of MiniMax-01. Beyond open-sourcing, its team welcomes technical suggestions and collaboration inquiries at model@minimaxi.com.
MiniMax は、開発者や研究者を招待して、MiniMax-01 の機能を探索してもらいます。オープンソース以外にも、そのチームは技術的な提案やコラボレーションに関する問い合わせを model@minimaxi.com で受け付けています。
With its commitment to cost-effective and scalable AI, MiniMax positions itself as a key player in shaping the AI agent era. The MiniMax-01 series offers an exciting opportunity for developers to push the boundaries of what long-context AI can achieve.
MiniMax は、コスト効率が高くスケーラブルな AI への取り組みにより、AI エージェント時代を形成する主要なプレーヤーとしての地位を確立しています。 MiniMax-01 シリーズは、ロングコンテキスト AI が達成できる限界を押し上げるエキサイティングな機会を開発者に提供します。
免責事項:info@kdj.com
The information provided is not trading advice. kdj.com does not assume any responsibility for any investments made based on the information provided in this article. Cryptocurrencies are highly volatile and it is highly recommended that you invest with caution after thorough research!
If you believe that the content used on this website infringes your copyright, please contact us immediately (info@kdj.com) and we will delete it promptly.
-
- ereum Foundation、DeFiプロトコルに参加するために50,000 ETHを移動
- 2025-01-21 09:40:40
-
- AI CEO サム・アルトマン、ファンからの自社の能力に関するネット上の乱暴な憶測を軽視
- 2025-01-21 09:30:40