|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
암호화폐 뉴스 기사
MiniMax, 초장기 컨텍스트를 처리하고 AI 에이전트 개발을 향상시키기 위해 제작된 새로운 기반 모델 제품군인 MiniMax-01 시리즈 공개
2025/01/15 07:46
MiniMax는 아마도 오늘날 미국에서 Runway, OpenAI의 Sora 및 Luma AI의 Dream Machine과 경쟁하는 사실적인 고해상도 생성 AI 비디오 모델인 Hailuo를 개발한 싱가포르 회사로 가장 잘 알려져 있을 것입니다.
MiniMax, a Singaporean company, is perhaps best known in the U.S. for its realistic, high-resolution generative AI video model Hailuo, which competes with Runway, OpenAI’s Sora and Luma AI’s Dream Machine.
싱가포르 회사인 MiniMax는 아마도 Runway, OpenAI의 Sora 및 Luma AI의 Dream Machine과 경쟁하는 사실적인 고해상도 생성 AI 비디오 모델 Hailuo로 미국에서 가장 잘 알려져 있을 것입니다.
But MiniMax has far more tricks up its sleeve: Today, for instance, it announced the release and open-sourcing of the MiniMax-01 series, a new family of models built to handle ultra-long contexts and enhance AI agent development.
그러나 MiniMax는 훨씬 더 많은 트릭을 가지고 있습니다. 예를 들어, 오늘 MiniMax는 매우 긴 컨텍스트를 처리하고 AI 에이전트 개발을 향상시키기 위해 구축된 새로운 모델 제품군인 MiniMax-01 시리즈의 출시 및 오픈 소스를 발표했습니다.
The series includes MiniMax-Text-01, a foundation large language model (LLM), and MiniMax-VL-01, a visual multi-modal model.
이 시리즈에는 기초 LLM(대형 언어 모델)인 MiniMax-Text-01과 시각적 다중 모드 모델인 MiniMax-VL-01이 포함됩니다.
A massive context window
대규모 컨텍스트 창
MiniMax-Text-01, is of particular note for enabling up to 4 million tokens in its context window — the equivalent of a small library’s worth of books. The context window is how much information the LLM can handle in one input/output exchange, with words and concepts represented as numerical “tokens,” the LLM’s own internal mathematical abstraction of the data it was trained on.
MiniMax-Text-01은 컨텍스트 창에서 최대 400만 개의 토큰을 활성화한다는 점에서 특히 주목할 만합니다. 이는 소규모 도서관의 책 가치에 해당합니다. 컨텍스트 창은 LLM이 하나의 입력/출력 교환에서 처리할 수 있는 정보의 양을 나타내며, 숫자 "토큰"으로 표현되는 단어와 개념, 즉 학습된 데이터에 대한 LLM의 내부 수학적 추상화입니다.
And, while Google previously led the pack with its Gemini 1.5 Pro model and 2 million token context window, MiniMax remarkably doubled that.
Google은 이전에 Gemini 1.5 Pro 모델과 200만 개의 토큰 컨텍스트 창으로 선두를 달리고 있었지만 MiniMax는 이를 두 배로 늘렸습니다.
As MiniMax posted on its official X account today: “MiniMax-01 efficiently processes up to 4M tokens — 20 to 32 times the capacity of other leading models. We believe MiniMax-01 is poised to support the anticipated surge in agent-related applications in the coming year, as agents increasingly require extended context handling capabilities and sustained memory.”
MiniMax는 오늘 공식 X 계정에 다음과 같이 게시했습니다. “MiniMax-01은 최대 400만 개의 토큰을 효율적으로 처리합니다. 이는 다른 주요 모델 용량의 20~32배입니다. 에이전트가 점점 더 확장된 컨텍스트 처리 기능과 지속적인 메모리를 요구함에 따라 MiniMax-01이 내년에 예상되는 에이전트 관련 애플리케이션의 급증을 지원할 준비가 되어 있다고 믿습니다.”
The models are available now for download on Hugging Face and Github under a custom MiniMax license, for users to try directly on Hailuo AI Chat (a ChatGPT/Gemini/Claude competitor), and through MiniMax’s application programming interface (API), where third-party developers can link their own unique apps to them.
이 모델은 이제 사용자 정의 MiniMax 라이센스에 따라 Hugging Face 및 Github에서 다운로드할 수 있으며, 사용자는 Hailuo AI Chat(ChatGPT/Gemini/Claude 경쟁사)에서 직접 사용해 볼 수 있으며 MiniMax의 API(응용 프로그래밍 인터페이스)를 통해 사용할 수 있습니다. 파티 개발자는 자신의 고유한 앱을 연결할 수 있습니다.
MiniMax is offering APIs for text and multi-modal processing at competitive rates:
MiniMax는 경쟁력 있는 가격으로 텍스트 및 다중 모드 처리를 위한 API를 제공합니다.
For comparison, OpenAI’s GPT-40 costs $2.50 per 1 million input tokens through its API, a staggering 12.5X more expensive.
비교를 위해 OpenAI의 GPT-40은 API를 통해 100만 개의 입력 토큰당 2.50달러의 비용이 들며 이는 무려 12.5배 더 비쌉니다.
MiniMax has also integrated a mixture of experts (MoE) framework with 32 experts to optimize scalability. This design balances computational and memory efficiency while maintaining competitive performance on key benchmarks.
MiniMax는 또한 확장성을 최적화하기 위해 전문가 혼합(MoE) 프레임워크를 32명의 전문가와 통합했습니다. 이 설계는 주요 벤치마크에서 경쟁력 있는 성능을 유지하면서 계산 및 메모리 효율성의 균형을 유지합니다.
Striking new ground with Lightning Attention Architecture
Lightning Attention 아키텍처로 새로운 지평을 열다
At the heart of MiniMax-01 is a Lightning Attention mechanism, an innovative alternative to transformer architecture.
MiniMax-01의 핵심은 트랜스포머 아키텍처에 대한 혁신적인 대안인 Lightning Attention 메커니즘입니다.
This design significantly reduces computational complexity. The models consist of 456 billion parameters, with 45.9 billion activated per inference.
이 디자인은 계산 복잡성을 크게 줄입니다. 모델은 4,560억 개의 매개변수로 구성되며 추론당 459억 개의 매개변수가 활성화됩니다.
Unlike earlier architectures, Lightning Attention employs a mix of linear and traditional SoftMax layers, achieving near-linear complexity for long inputs. SoftMax, for those like myself who are new to the concept, are the transformation of input numerals into probabilities adding up to 1, so that the LLM can approximate which meaning of the input is likeliest.
이전 아키텍처와 달리 Lightning Attention은 선형 및 기존 SoftMax 레이어를 혼합하여 사용하여 긴 입력에 대해 선형에 가까운 복잡성을 달성합니다. 저와 같은 개념을 처음 접하는 사람들을 위한 SoftMax는 입력 숫자를 최대 1이 되는 확률로 변환하여 LLM이 입력의 어떤 의미가 가장 가능성이 높은지 대략적으로 파악할 수 있도록 합니다.
MiniMax has rebuilt its training and inference frameworks to support the Lightning Attention architecture. Key improvements include:
MiniMax는 Lightning Attention 아키텍처를 지원하기 위해 교육 및 추론 프레임워크를 다시 구축했습니다. 주요 개선 사항은 다음과 같습니다.
These advancements make MiniMax-01 models accessible for real-world applications, while maintaining affordability.
이러한 발전 덕분에 MiniMax-01 모델은 합리적인 가격을 유지하면서 실제 응용 분야에 접근할 수 있게 되었습니다.
Performance and Benchmarks
성능 및 벤치마크
On mainstream text and multi-modal benchmarks, MiniMax-01 rivals top-tier models like GPT-4 and Claude-3.5, with especially strong results on long-context evaluations. Notably, MiniMax-Text-01 achieved 100% accuracy on the Needle-In-A-Haystack task with a 4-million-token context.
주류 텍스트 및 다중 모드 벤치마크에서 MiniMax-01은 GPT-4 및 Claude-3.5와 같은 최상위 모델과 경쟁하며 특히 장기 컨텍스트 평가에서 강력한 결과를 얻었습니다. 특히 MiniMax-Text-01은 400만 개의 토큰 컨텍스트를 사용하여 Needle-In-A-Haystack 작업에서 100% 정확도를 달성했습니다.
The models also demonstrate minimal performance degradation as input length increases.
또한 모델은 입력 길이가 증가함에 따라 성능 저하가 최소화되는 것으로 나타났습니다.
MiniMax plans regular updates to expand the models’ capabilities, including code and multi-modal enhancements.
MiniMax는 코드 및 다중 모드 개선을 포함하여 모델 기능을 확장하기 위해 정기적인 업데이트를 계획하고 있습니다.
The company views open-sourcing as a step toward building foundational AI capabilities for the evolving AI agent landscape.
회사는 오픈 소스를 진화하는 AI 에이전트 환경을 위한 기본 AI 기능을 구축하기 위한 단계로 보고 있습니다.
With 2025 predicted to be a transformative year for AI agents, the need for sustained memory and efficient inter-agent communication is increasing. MiniMax’s innovations are designed to meet these challenges.
2025년은 AI 에이전트에게 획기적인 해가 될 것으로 예상되면서 지속적인 메모리와 효율적인 에이전트 간 통신에 대한 필요성이 높아지고 있습니다. MiniMax의 혁신은 이러한 과제를 해결하도록 설계되었습니다.
Open to collaboration
협업 가능
MiniMax invites developers and researchers to explore the capabilities of MiniMax-01. Beyond open-sourcing, its team welcomes technical suggestions and collaboration inquiries at model@minimaxi.com.
MiniMax는 개발자와 연구원을 초대하여 MiniMax-01의 기능을 살펴봅니다. 오픈 소스 외에도 해당 팀은 model@minimaxi.com을 통해 기술 제안 및 협업 문의를 환영합니다.
With its commitment to cost-effective and scalable AI, MiniMax positions itself as a key player in shaping the AI agent era. The MiniMax-01 series offers an exciting opportunity for developers to push the boundaries of what long-context AI can achieve.
비용 효율적이고 확장 가능한 AI에 대한 노력을 통해 MiniMax는 AI 에이전트 시대를 형성하는 핵심 플레이어로 자리매김하고 있습니다. MiniMax-01 시리즈는 개발자가 장기 상황 AI가 달성할 수 있는 한계를 뛰어넘을 수 있는 흥미로운 기회를 제공합니다.
부인 성명:info@kdj.com
The information provided is not trading advice. kdj.com does not assume any responsibility for any investments made based on the information provided in this article. Cryptocurrencies are highly volatile and it is highly recommended that you invest with caution after thorough research!
If you believe that the content used on this website infringes your copyright, please contact us immediately (info@kdj.com) and we will delete it promptly.