시가총액: $2.6864T 2.140%
거래량(24시간): $106.2918B -15.750%
  • 시가총액: $2.6864T 2.140%
  • 거래량(24시간): $106.2918B -15.750%
  • 공포와 탐욕 지수:
  • 시가총액: $2.6864T 2.140%
암호화
주제
암호화
소식
cryptostopics
비디오
최고의 뉴스
암호화
주제
암호화
소식
cryptostopics
비디오
bitcoin
bitcoin

$82951.790245 USD

-0.70%

ethereum
ethereum

$1791.465527 USD

-1.83%

tether
tether

$0.999717 USD

-0.01%

xrp
xrp

$2.055970 USD

0.14%

bnb
bnb

$593.238692 USD

-1.32%

usd-coin
usd-coin

$1.000032 USD

0.02%

solana
solana

$115.381354 USD

-4.13%

dogecoin
dogecoin

$0.161732 USD

-2.67%

cardano
cardano

$0.649656 USD

-0.44%

tron
tron

$0.239261 USD

1.04%

unus-sed-leo
unus-sed-leo

$9.561241 USD

1.74%

toncoin
toncoin

$3.530703 USD

-6.73%

chainlink
chainlink

$12.739766 USD

-3.87%

stellar
stellar

$0.259841 USD

-2.48%

avalanche
avalanche

$18.093210 USD

-3.52%

암호화폐 뉴스 기사

Meta AI 최고 Yann Lecun은 차세대 아키텍처를 찾고 LLM에 대한 관심을 잃었습니다.

2025/03/20 00:06

Meta AI의 Yann Lecun은 더 이상 LLM에 관심이 없으며 실제 세계를 더 잘 모델링 할 수있는 차세대 AI 아키텍처를 찾고 있다고 말했습니다.

Meta AI 최고 Yann Lecun은 차세대 아키텍처를 찾고 LLM에 대한 관심을 잃었습니다.

Meta AI Chief Yann LeCun has said that he’s no longer interested in Large Language Models or LLMs, and is looking to next-generation AI architectures that’ll be able to better model the real world.

Meta AI의 Yann Lecun은 더 이상 대형 언어 모델이나 LLM에 관심이 없으며 실제 세계를 더 잘 모델링 할 수있는 차세대 AI 아키텍처를 찾고 있다고 말했습니다.

Speaking at the NVIDIA GTC 2025 event, LeCun said that these new AI architectures should enable AI to think more like humans, with persistent memory and the ability to think through complex problems.

Lecun은 Nvidia GTC 2025 이벤트에서 연설하면서 이러한 새로운 AI 아키텍처는 AI가 지속적인 기억과 복잡한 문제를 통해 생각할 수있는 능력을 가진 인간처럼 생각할 수 있어야한다고 말했다.

“I am not interested anymore in LLMs,” LeCun said. “They are just token generators and those are limited because tokens are in discrete space. I am more interested in next-gen model architectures, that should be able to do 4 things: understand physical world, have persistent memory and ultimately be more capable to plan and reason.”

Lecun은“LLM에 더 이상 관심이 없습니다. "그들은 단지 토큰 생성기이며 토큰이 불연속 공간에 있기 때문에 제한되어 있습니다. 저는 차세대 모델 아키텍처에 더 관심이 있고, 4 가지를 수행 할 수 있어야합니다. 물리적 세계를 이해하고, 지속적인 메모리를 가지고 있으며 궁극적으로 계획과 이유가 더 가능합니다."

This isn’t the first time that LeCun has spoken about the limitations of LLMs. The models largely learn through text data, and he’s previously said that this is insufficient for achieving human-level AI.

Lecun이 LLM의 한계에 대해 이야기 한 것은 이번이 처음이 아닙니다. 이 모델은 크게 텍스트 데이터를 통해 학습했으며, 이전에는 이것이 인적 수준의 AI를 달성하기에 충분하지 않다고 말했습니다.

“A typical large language model is trained with something on the order of 20 trillion tokens or words,” LeCun had said. “That’s about 10 to the power 14 bytes; one with 14 zeros behind it. It’s an enormous amount of information.”

Lecun은“전형적인 대형 언어 모델은 20 조의 토큰 또는 단어의 순서로 무언가로 훈련되었습니다. "그것은 14 바이트에 대한 전력에 약 10입니다. 하나는 14 개의 0이 뒤에 있습니다. 그것은 엄청난 양의 정보입니다."

“But then you compare this with the amount of information that gets to our brains through the visual system in the first four years of life, and it’s about the same amount. In four years, a young child has been awake a total of about 16,000 hours. The amount of information getting to the brain through the optic nerve is about 2 megabytes per second. Do the calculation and that’s about 10 to the power 14 bytes. It’s about the same. In four years a young child has seen as much information or data as the biggest LLMs.”

“그러나 당신은 이것을 처음 4 년 동안 시각적 시스템을 통해 우리의 두뇌에 도달하는 정보의 양과 비교하고, 그것은 거의 같은 양입니다. 4 년 동안 어린 아이는 총 약 16,000 시간을 깨우고 있습니다. 시신경을 통해 뇌에 대한 정보의 양은 초당 약 2 메가 바이트입니다. 계산은 약 14 세의 어린이에 대해 약 14 세가되었습니다. 가장 큰 LLM으로.”

This, he adds, means that we’re never going to get to human-level AI by just training on text. We’re going to have to get systems to understand the real world.

그는 텍스트에 대한 훈련만으로도 인적 수준의 AI에 도달하지 않을 것이라고 덧붙였다. 우리는 현실 세계를 이해하기 위해 시스템을 얻어야 할 것입니다.

LeCun has now said that he’s not interested in LLMs any more. Indeed, Meta itself hasn’t released a new version of Llama in a while, and DeepSeek and other companies have taken over the mantle of releasing the top open-source models.

Lecun은 이제 더 이상 LLM에 관심이 없다고 말했습니다. 실제로, 메타 자체는 한동안 새로운 버전의 LLAMA를 출시하지 않았으며, DeepSeek와 다른 회사는 최고의 오픈 소스 모델을 출시하는 맨틀을 인수했습니다.

LeCun’s approach seems to be in contrast to OpenAI’s, which has consistently maintained there’s no wall in scaling LLM capabilities, and has instead been coming up with add-ons to LLM training, like test-time compute, to increase their capabilities. It remains to be seen which approach works out, but it appears that Meta is bearish on LLMs, and seems to believe that it’ll take a new technological breakthrough to dramatically improve the performance of current AI systems.

Lecun의 접근 방식은 LLM 기능을 스케일링하는 데 지속적으로 벽이 없으며 대신 테스트 시간 컴퓨팅과 같은 ADD-ONS TO LLM TRANIOH를 제시하여 기능을 높이기 위해 OpenAI와 대조적으로 보입니다. 어떤 접근 방식이 작동하는지는 여전히 남아 있지만 메타는 LLM에 약세를 보이며 현재 AI 시스템의 성능을 크게 향상시키기 위해 새로운 기술 혁신이 필요하다고 생각하는 것 같습니다.

부인 성명:info@kdj.com

제공된 정보는 거래 조언이 아닙니다. kdj.com은 이 기사에 제공된 정보를 기반으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다. 암호화폐는 변동성이 매우 높으므로 철저한 조사 후 신중하게 투자하는 것이 좋습니다!

본 웹사이트에 사용된 내용이 귀하의 저작권을 침해한다고 판단되는 경우, 즉시 당사(info@kdj.com)로 연락주시면 즉시 삭제하도록 하겠습니다.

2025年04月05日 에 게재된 다른 기사