時価総額: $2.6844T 0.700%
ボリューム(24時間): $104.1076B 9.910%
  • 時価総額: $2.6844T 0.700%
  • ボリューム(24時間): $104.1076B 9.910%
  • 恐怖と貪欲の指数:
  • 時価総額: $2.6844T 0.700%
暗号
トピック
暗号化
ニュース
暗号造園
動画
トップニュース
暗号
トピック
暗号化
ニュース
暗号造園
動画
bitcoin
bitcoin

$82951.790245 USD

-0.70%

ethereum
ethereum

$1791.465527 USD

-1.83%

tether
tether

$0.999717 USD

-0.01%

xrp
xrp

$2.055970 USD

0.14%

bnb
bnb

$593.238692 USD

-1.32%

usd-coin
usd-coin

$1.000032 USD

0.02%

solana
solana

$115.381354 USD

-4.13%

dogecoin
dogecoin

$0.161732 USD

-2.67%

cardano
cardano

$0.649656 USD

-0.44%

tron
tron

$0.239261 USD

1.04%

unus-sed-leo
unus-sed-leo

$9.561241 USD

1.74%

toncoin
toncoin

$3.530703 USD

-6.73%

chainlink
chainlink

$12.739766 USD

-3.87%

stellar
stellar

$0.259841 USD

-2.48%

avalanche
avalanche

$18.093210 USD

-3.52%

暗号通貨のニュース記事

メタAIチーフヤンレクンはLLMSへの関心を失い、次世代アーキテクチャを探しています

2025/03/20 00:06

メタAIのチーフYann Lecunは、LLMSにもはや興味がなく、現実の世界をより良くモデル化できる次世代AIアーキテクチャを探していると述べています。

メタAIチーフヤンレクンはLLMSへの関心を失い、次世代アーキテクチャを探しています

Meta AI Chief Yann LeCun has said that he’s no longer interested in Large Language Models or LLMs, and is looking to next-generation AI architectures that’ll be able to better model the real world.

メタAIのチーフYann Lecunは、大規模な言語モデルやLLMにもはや興味がなく、現実の世界をより良くモデル化できる次世代AIアーキテクチャを探していると述べています。

Speaking at the NVIDIA GTC 2025 event, LeCun said that these new AI architectures should enable AI to think more like humans, with persistent memory and the ability to think through complex problems.

NVIDIA GTC 2025イベントで話すと、Lecunは、これらの新しいAIアーキテクチャは、AIが人間のように考えられるようにすることで、持続的な記憶と複雑な問題を介して考える能力があると述べました。

“I am not interested anymore in LLMs,” LeCun said. “They are just token generators and those are limited because tokens are in discrete space. I am more interested in next-gen model architectures, that should be able to do 4 things: understand physical world, have persistent memory and ultimately be more capable to plan and reason.”

「私はもうLLMSに興味がありません」とLecunは言いました。 「それらは単なるトークンジェネレーターであり、それらは個別のモデルアーキテクチャにもっと興味があるため、それらは限られています。それは4つのことをすることができるはずです。

This isn’t the first time that LeCun has spoken about the limitations of LLMs. The models largely learn through text data, and he’s previously said that this is insufficient for achieving human-level AI.

LecunがLLMSの限界について話したのはこれが初めてではありません。モデルは主にテキストデータを通じて学習しており、彼は以前、これは人間レベルのAIを達成するには不十分であると述べています。

“A typical large language model is trained with something on the order of 20 trillion tokens or words,” LeCun had said. “That’s about 10 to the power 14 bytes; one with 14 zeros behind it. It’s an enormous amount of information.”

「典型的な大規模な言語モデルは、20兆のトークンや言葉の注文で何かで訓練されています」とLecunは言いました。 「それは14バイトのパワー14バイトです。1つは14ゼロの後ろにあります。それは膨大な量の情報です。」

“But then you compare this with the amount of information that gets to our brains through the visual system in the first four years of life, and it’s about the same amount. In four years, a young child has been awake a total of about 16,000 hours. The amount of information getting to the brain through the optic nerve is about 2 megabytes per second. Do the calculation and that’s about 10 to the power 14 bytes. It’s about the same. In four years a young child has seen as much information or data as the biggest LLMs.”

「それからあなたはこれを最初の4年間で視覚システムを通して脳に到達します。最大のLLMSとして。」

This, he adds, means that we’re never going to get to human-level AI by just training on text. We’re going to have to get systems to understand the real world.

これは、テキストでトレーニングするだけで、人間レベルのAIに到達することは決してないことを意味します。現実の世界を理解するためにシステムを取得する必要があります。

LeCun has now said that he’s not interested in LLMs any more. Indeed, Meta itself hasn’t released a new version of Llama in a while, and DeepSeek and other companies have taken over the mantle of releasing the top open-source models.

Lecunは今、彼がLLMSにもう興味がないと言っています。実際、Meta自体はしばらくの間Llamaの新しいバージョンをリリースしておらず、Deepseekや他の企業は、トップオープンソースモデルをリリースするマントルを引き継ぎました。

LeCun’s approach seems to be in contrast to OpenAI’s, which has consistently maintained there’s no wall in scaling LLM capabilities, and has instead been coming up with add-ons to LLM training, like test-time compute, to increase their capabilities. It remains to be seen which approach works out, but it appears that Meta is bearish on LLMs, and seems to believe that it’ll take a new technological breakthrough to dramatically improve the performance of current AI systems.

Lecunのアプローチは、LLM機能のスケーリングに壁がないことを常に維持しているOpenaiのアプローチとは対照的であり、代わりにテスト時間コンピューティートなどのLLMトレーニングを追加して、機能を向上させています。どのアプローチがうまくいくかはまだ不明ですが、メタはLLMSに弱まっているようであり、現在のAIシステムのパフォーマンスを劇的に改善するために新しい技術的ブレークスルーが必要だと信じているようです。

免責事項:info@kdj.com

提供される情報は取引に関するアドバイスではありません。 kdj.com は、この記事で提供される情報に基づいて行われた投資に対して一切の責任を負いません。暗号通貨は変動性が高いため、十分な調査を行った上で慎重に投資することを強くお勧めします。

このウェブサイトで使用されているコンテンツが著作権を侵害していると思われる場合は、直ちに当社 (info@kdj.com) までご連絡ください。速やかに削除させていただきます。

2025年04月05日 に掲載されたその他の記事