![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
인공 지능 (AI)의 환경은 새로운 참가자 일뿐 만 아니라 잠재적 인 게임 체인저 인 모델 인 Deepseek R1의 도입으로 큰 격변을 겪었습니다.
Artificial Intelligence (AI) has taken a new turn with the introduction of DeepSeek R1, a model that is not just a new entrant but a potential game-changer in the AI industry. In a recent development that has sent shockwaves through the tech world, DeepSeek R1 has managed to match the performance of AI giants like OpenAI’s o1 at a mere 3-5% of the cost. This efficiency is not just a market disruptor but a technical marvel that challenges the very foundations of how AI models have been developed and deployed.
인공 지능 (AI)은 새로운 참가자 일뿐 만 아니라 AI 업계에서 잠재적 인 게임 체인저 인 DeepSeek R1의 도입으로 새로운 변화를 가져 왔습니다. 기술 세계를 통해 충격파를 보낸 최근 개발에서 DeepSeek R1은 OpenAi의 O1과 같은 AI 자이언트의 성능과 3-5%에 불과했습니다. 이러한 효율성은 시장 혼란이 아니라 AI 모델이 개발되고 배치 된 방식의 기초에 도전하는 기술적 경이입니다.
DeepSeek R1’s benchmark performances are nothing short of impressive. “On the AIME mathematics test, it scored 79.8% compared to OpenAI’s 79.2%,” Siegler highlighted, underscoring its capability. The model also achieved a 97.3% accuracy on the MATH-500 benchmark, surpassing OpenAI’s 96.4%. These achievements come with a dramatic reduction in operational costs, with DeepSeek R1 running at “55 cents per million token inputs and $219 per million token outputs,” in stark contrast to OpenAI’s higher rates. This cost-performance ratio is a wake-up call for the industry, suggesting a shift towards more economically viable AI solutions.
DeepSeek R1의 벤치 마크 공연은 인상적이지 않습니다. Siegler는“AIME 수학 테스트에서 OpenAI의 79.2%에 비해 79.8%를 기록했습니다. 이 모델은 또한 Math-500 벤치 마크에서 97.3% 정확도를 달성하여 OpenAI의 96.4%를 능가했습니다. 이러한 성과는 OpenAI의 높은 요금과는 대조적으로 DeepSeek R1이“백만 마리의 토큰 투입량과 백만 마리의 토큰 출력 당 219 달러”로 실행되면서 운영 비용이 급격히 감소합니다. 이 비용 성능 비율은 업계의 모닝콜이며,보다 경제적으로 실행 가능한 AI 솔루션으로의 전환을 시사합니다.
The market has responded with what can only be described as shock. Siegler pointed out, “In pre-market trading, Nvidia was down 10 to 11%,” with other tech behemoths like Microsoft and Google also witnessing significant drops. This market reaction signals a potential reevaluation of investment in AI infrastructure, particularly in hardware like Nvidia’s GPUs, which have been at the heart of AI’s scaling narrative.
시장은 충격으로 만 묘사 될 수있는 것에 대응했습니다. Siegler는 Microsoft 및 Google과 같은 다른 기술 거대 인들도 상당한 하락을 목격하면서“사전 마켓 거래에서 Nvidia는 10 ~ 11%감소했습니다.”라고 지적했습니다. 이 시장 반응은 AI 인프라, 특히 AI의 스케일링 이야기의 핵심 인 Nvidia의 GPU와 같은 하드웨어에 대한 AI 인프라에 대한 투자의 잠재적 재평가를 나타냅니다.
From a technical standpoint, DeepSeek R1’s architecture is a testament to innovation under constraint. “It’s based on a mixture-of-experts architecture,” Siegler explained, allowing the model to activate only necessary parameters for each query, thus optimizing for both speed and efficiency. This approach contrasts with the monolithic models that activate all parameters regardless of the task at hand, leading to higher computational and energy costs.
기술적 인 관점에서 볼 때 DeepSeek R1의 아키텍처는 제약 하의 혁신에 대한 증거입니다. Siegler는“이는 믹스의 혼합 아키텍처를 기반으로합니다. 이 접근법은 당면한 작업에 관계없이 모든 매개 변수를 활성화하는 모 놀리 식 모델과 대조하여 계산 및 에너지 비용이 높아집니다.
The model’s development involved a process of distillation from larger models to create compact yet potent versions. “They took, for example, a Llama model with 70 billion parameters and distilled it down,” said Siegler, outlining how DeepSeek managed to maintain high performance with fewer resources.
이 모델의 개발에는 더 큰 모델에서 증류 프로세스가 포함되어있어 작고 강력한 버전을 만들었습니다. Siegler는“예를 들어 70 억 개의 매개 변수를 가진 라마 모델을 가져 와서 증류했습니다.
DeepSeek R1 diverges from the prevalent self-supervised learning methods by employing pure reinforcement learning (RL). “The models tend to figure out what’s the right answer on their own,” noted Siegler, indicating that this self-guided learning approach not only reduces the need for vast labeled datasets but also fosters unique reasoning capabilities within the model. This RL focus has allowed DeepSeek to fine-tune models through trial and error, improving their reasoning without the need for extensive human annotation, which is both cost and time-intensive.
Deepseek R1은 순수한 강화 학습 (RL)을 사용하여 널리 퍼져있는 자체 감독 학습 방법에서 분기됩니다. Siegler는“모델은 그 자체로 정답이 무엇인지 알아내는 경향이있다. 이 RL 초점은 시행 착오를 통해 모델을 미세 조정하여 광범위한 인간 주석이 필요하지 않고 추론을 개선 할 수있게 해주었습니다. 이는 비용과 시간 집약적입니다.
The scaling hypothesis, which posits that performance increases with more compute, data, and time, is now under scrutiny. “DeepSeek has shown you can actually do all this without that,” Siegler remarked, suggesting that the era of simply scaling up might be nearing an end. This could potentially reduce the dependency on massive hardware investments, redirecting focus towards smarter, more efficient AI development strategies.
더 많은 컴퓨팅, 데이터 및 시간으로 성능이 증가한다는 스케일링 가설은 이제 조사 중입니다. Siegler는“DeepSeek은 실제로이 모든 것을 할 수 있다는 것을 보여주었습니다. 이를 통해 대규모 하드웨어 투자에 대한 의존성을 줄일 수 있으며, 더 똑똑하고 효율적인 AI 개발 전략에 대한 초점을 리디렉션 할 수 있습니다.
The immediate market fallout has been significant, with Nvidia’s stock plummeting. “It’s going to be pretty hard for this day at least,” Siegler observed, reflecting on the market’s knee-jerk reaction. However, some see this as a long-term opportunity for companies like Nvidia, where increased efficiency might spur demand for more specialized, less resource-heavy AI hardware.
Nvidia의 주식이 급락하면서 즉각적인 시장 낙진은 중요했습니다. Siegler는 시장의 무릎을 꿇는 반응을 반영하면서“적어도이 날에는 꽤 어려울 것입니다. 그러나 일부는 NVIDIA와 같은 회사의 장기적인 기회라고 생각합니다. 효율성 증가는보다 전문적이고 자원이없는 AI 하드웨어에 대한 수요가 발생할 수 있습니다.
The business implications are profound. Companies like Microsoft and Google, which have been integrating AI into their ecosystems, now face a dilemma. “If the underlying economics just totally changed overnight, what does that do to their models?” Siegler questioned. This might push these companies towards reimagining their AI offerings, possibly leading to price adjustments or new service models to align with the new cost structures.
비즈니스 의미는 심오합니다. AI를 생태계에 통합 한 Microsoft 및 Google과 같은 회사는 이제 딜레마에 직면 해 있습니다. "근본적인 경제학이 밤새 완전히 바뀌면 모델에 어떤 영향을 미칩니 까?" Siegler가 질문했다. 이로 인해 이러한 회사는 AI 서비스를 재구성하여 가격 조정 또는 새로운 서비스 모델이 새로운 비용 구조와 일치하도록 이끌어 낼 수 있습니다.
There’s a dichotomy in how this development is perceived. On one hand, there’s optimism that efficiency will lead to broader adoption and innovation. On the other, there’s caution about the implications for companies that have invested heavily in scaling. “Do we continue to spend billions for marginal gains, or do we leverage this efficiency to push towards practical AI applications?” Siegler pondered.
이 발달이 어떻게 인식되는지에 이분법이 있습니다. 한편으로, 효율성이 더 넓은 채택과 혁신으로 이어질 것이라는 낙관론이 있습니다. 다른 한편으로, 스케일링에 많은 투자를 한 회사의 영향에 대해서는주의를 기울입니다. "우리는 한계 이익에 수십억 달러를 지출합니까, 아니면이 효율성을 활용하여 실제 AI 응용 프로그램을 향해 추진합니까?" Siegler는 숙고했다.
In response, tech leaders are attempting to calm the markets with narratives around increased efficiency leading to higher usage, with Nadella citing Jevons Paradox. “It feels like there’s a group text going on,” Siegler said, hinting at a coordinated message to reassure investors.
이에 따라 기술 리더들은 효율성 증가에 대한 이야기로 시장을 진정 시키려고 노력하고 있으며, Nadella는 Jevons 역설을 인용하면서 사용량이 높아졌습니다. Siegler는“그룹 텍스트가 진행되고있는 것 같다”고 말했다.
The ultimate test for DeepSeek R1 and similar models will be their application in real-world scenarios. “We need to see AI applications like we need to see an economy that takes use of
DeepSeek R1 및 유사한 모델에 대한 궁극적 인 테스트는 실제 시나리오에서의 응용 프로그램입니다. “우리는 사용하는 경제를 볼 필요가있는 AI 응용 프로그램을 볼 필요가 있습니다.
부인 성명:info@kdj.com
제공된 정보는 거래 조언이 아닙니다. kdj.com은 이 기사에 제공된 정보를 기반으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다. 암호화폐는 변동성이 매우 높으므로 철저한 조사 후 신중하게 투자하는 것이 좋습니다!
본 웹사이트에 사용된 내용이 귀하의 저작권을 침해한다고 판단되는 경우, 즉시 당사(info@kdj.com)로 연락주시면 즉시 삭제하도록 하겠습니다.
-
-
-
- 트럼프 가족은 헛 8과 힘을 합쳐서 암호 채굴을 지배한다고합니다.
- 2025-04-05 18:25:12
- 비트 코인 광업 거대 오두막 8
-
-
-
-
-
-