Marktkapitalisierung: $2.6535T -1.090%
Volumen (24h): $90.1625B -30.580%
  • Marktkapitalisierung: $2.6535T -1.090%
  • Volumen (24h): $90.1625B -30.580%
  • Angst- und Gier-Index:
  • Marktkapitalisierung: $2.6535T -1.090%
Kryptos
Themen
Cryptospedia
Nachricht
Cryptostopics
Videos
Top -Nachrichten
Kryptos
Themen
Cryptospedia
Nachricht
Cryptostopics
Videos
bitcoin
bitcoin

$82951.790245 USD

-0.70%

ethereum
ethereum

$1791.465527 USD

-1.83%

tether
tether

$0.999717 USD

-0.01%

xrp
xrp

$2.055970 USD

0.14%

bnb
bnb

$593.238692 USD

-1.32%

usd-coin
usd-coin

$1.000032 USD

0.02%

solana
solana

$115.381354 USD

-4.13%

dogecoin
dogecoin

$0.161732 USD

-2.67%

cardano
cardano

$0.649656 USD

-0.44%

tron
tron

$0.239261 USD

1.04%

unus-sed-leo
unus-sed-leo

$9.561241 USD

1.74%

toncoin
toncoin

$3.530703 USD

-6.73%

chainlink
chainlink

$12.739766 USD

-3.87%

stellar
stellar

$0.259841 USD

-2.48%

avalanche
avalanche

$18.093210 USD

-3.52%

Nachrichtenartikel zu Kryptowährungen

Yann Lecun, Chef von Meta AI

Mar 20, 2025 at 12:06 am

Yann Lecun, Chef von Meta AI, hat gesagt, dass er sich nicht mehr für LLMs interessiert und nach AI-Architekturen der nächsten Generation sucht, die die reale Welt besser modellieren können.

Yann Lecun, Chef von Meta AI

Meta AI Chief Yann LeCun has said that he’s no longer interested in Large Language Models or LLMs, and is looking to next-generation AI architectures that’ll be able to better model the real world.

Yann Lecun, Chef von Meta AI, hat gesagt, dass er sich nicht mehr für große Sprachmodelle oder LLMs interessiert und nach AI-Architekturen der nächsten Generation sucht, die die reale Welt besser modellieren können.

Speaking at the NVIDIA GTC 2025 event, LeCun said that these new AI architectures should enable AI to think more like humans, with persistent memory and the ability to think through complex problems.

Lecun sprach bei der Nvidia GTC 2025 -Veranstaltung, dass diese neuen AI -Architekturen KI ermöglichen sollten, eher wie Menschen zu denken, mit anhaltendem Gedächtnis und der Fähigkeit, komplexe Probleme zu durchdenken.

“I am not interested anymore in LLMs,” LeCun said. “They are just token generators and those are limited because tokens are in discrete space. I am more interested in next-gen model architectures, that should be able to do 4 things: understand physical world, have persistent memory and ultimately be more capable to plan and reason.”

"Ich interessiere mich nicht mehr für LLMs", sagte Lecun. "Sie sind nur Token-Generatoren und diese sind begrenzt, weil sich Token im diskreten Raum befinden. Ich interessiere mich mehr für Modellarchitekturen der nächsten Generation, das sollte in der Lage sein, 4 Dinge zu tun: die physische Welt verstehen, anhaltendes Gedächtnis haben und letztendlich besser zu planen und zu vermitteln."

This isn’t the first time that LeCun has spoken about the limitations of LLMs. The models largely learn through text data, and he’s previously said that this is insufficient for achieving human-level AI.

Dies ist nicht das erste Mal, dass Lecun über die Grenzen von LLMs gesprochen hat. Die Modelle lernen weitgehend durch Textdaten und er hat zuvor gesagt, dass dies nicht ausreicht, um KI auf menschlicher Ebene zu erreichen.

“A typical large language model is trained with something on the order of 20 trillion tokens or words,” LeCun had said. “That’s about 10 to the power 14 bytes; one with 14 zeros behind it. It’s an enormous amount of information.”

"Ein typisches großes Sprachmodell wird mit etwas in der Größenordnung von 20 Billionen Token oder Worten trainiert", sagte Lecun. "Das ist ungefähr 10 Bytes mit 14 Bytes;

“But then you compare this with the amount of information that gets to our brains through the visual system in the first four years of life, and it’s about the same amount. In four years, a young child has been awake a total of about 16,000 hours. The amount of information getting to the brain through the optic nerve is about 2 megabytes per second. Do the calculation and that’s about 10 to the power 14 bytes. It’s about the same. In four years a young child has seen as much information or data as the biggest LLMs.”

„Dann vergleichen Sie dies mit der Menge an Informationen, die in den ersten vier Lebensjahren durch das visuelle System in unser Gehirn gelangen. In vier Jahren war ein kleines Kind insgesamt etwa 16.000 Stunden aufgewacht. Die Menge an Informationen, die Informationen zum Gehirn durch die Hirn -Nervus durch die Optsoptikusnerung erhalten, beträgt 2 Megabyte. Daten als größte LLM. “

This, he adds, means that we’re never going to get to human-level AI by just training on text. We’re going to have to get systems to understand the real world.

Er fügt hinzu, dass dies bedeutet, dass wir niemals zur KI auf menschlicher Ebene kommen, indem wir nur auf Text trainieren. Wir müssen Systeme bekommen, um die reale Welt zu verstehen.

LeCun has now said that he’s not interested in LLMs any more. Indeed, Meta itself hasn’t released a new version of Llama in a while, and DeepSeek and other companies have taken over the mantle of releasing the top open-source models.

Lecun hat jetzt gesagt, dass er nicht mehr an LLMs interessiert ist. In der Tat hat Meta selbst seit einiger Zeit keine neue Version von Lama mehr veröffentlicht, und Deepseek und andere Unternehmen haben den Mantel übernommen, die Top-Open-Source-Modelle freizugeben.

LeCun’s approach seems to be in contrast to OpenAI’s, which has consistently maintained there’s no wall in scaling LLM capabilities, and has instead been coming up with add-ons to LLM training, like test-time compute, to increase their capabilities. It remains to be seen which approach works out, but it appears that Meta is bearish on LLMs, and seems to believe that it’ll take a new technological breakthrough to dramatically improve the performance of current AI systems.

Lecuns Ansatz scheint im Gegensatz zu OpenAIs von OpenAI zu stehen, was durchweg behauptet hat, dass es keine Wand in der Skalierung von LLM-Funktionen gibt und stattdessen Add-Ons zu LLM-Training wie Testzeit-Rechenin entwickelt hat, um ihre Fähigkeiten zu erhöhen. Es bleibt abzuwarten, welcher Ansatz funktioniert, aber es scheint, dass Meta auf LLMs bärisch ist und zu glauben scheint, dass es einen neuen technologischen Durchbruch erfordern wird, um die Leistung aktueller KI -Systeme drastisch zu verbessern.

Haftungsausschluss:info@kdj.com

Die bereitgestellten Informationen stellen keine Handelsberatung dar. kdj.com übernimmt keine Verantwortung für Investitionen, die auf der Grundlage der in diesem Artikel bereitgestellten Informationen getätigt werden. Kryptowährungen sind sehr volatil und es wird dringend empfohlen, nach gründlicher Recherche mit Vorsicht zu investieren!

Wenn Sie glauben, dass der auf dieser Website verwendete Inhalt Ihr Urheberrecht verletzt, kontaktieren Sie uns bitte umgehend (info@kdj.com) und wir werden ihn umgehend löschen.

Weitere Artikel veröffentlicht am Apr 04, 2025