![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
Yann Lecun, Chef von Meta AI, hat gesagt, dass er sich nicht mehr für LLMs interessiert und nach AI-Architekturen der nächsten Generation sucht, die die reale Welt besser modellieren können.
Meta AI Chief Yann LeCun has said that he’s no longer interested in Large Language Models or LLMs, and is looking to next-generation AI architectures that’ll be able to better model the real world.
Yann Lecun, Chef von Meta AI, hat gesagt, dass er sich nicht mehr für große Sprachmodelle oder LLMs interessiert und nach AI-Architekturen der nächsten Generation sucht, die die reale Welt besser modellieren können.
Speaking at the NVIDIA GTC 2025 event, LeCun said that these new AI architectures should enable AI to think more like humans, with persistent memory and the ability to think through complex problems.
Lecun sprach bei der Nvidia GTC 2025 -Veranstaltung, dass diese neuen AI -Architekturen KI ermöglichen sollten, eher wie Menschen zu denken, mit anhaltendem Gedächtnis und der Fähigkeit, komplexe Probleme zu durchdenken.
“I am not interested anymore in LLMs,” LeCun said. “They are just token generators and those are limited because tokens are in discrete space. I am more interested in next-gen model architectures, that should be able to do 4 things: understand physical world, have persistent memory and ultimately be more capable to plan and reason.”
"Ich interessiere mich nicht mehr für LLMs", sagte Lecun. "Sie sind nur Token-Generatoren und diese sind begrenzt, weil sich Token im diskreten Raum befinden. Ich interessiere mich mehr für Modellarchitekturen der nächsten Generation, das sollte in der Lage sein, 4 Dinge zu tun: die physische Welt verstehen, anhaltendes Gedächtnis haben und letztendlich besser zu planen und zu vermitteln."
This isn’t the first time that LeCun has spoken about the limitations of LLMs. The models largely learn through text data, and he’s previously said that this is insufficient for achieving human-level AI.
Dies ist nicht das erste Mal, dass Lecun über die Grenzen von LLMs gesprochen hat. Die Modelle lernen weitgehend durch Textdaten und er hat zuvor gesagt, dass dies nicht ausreicht, um KI auf menschlicher Ebene zu erreichen.
“A typical large language model is trained with something on the order of 20 trillion tokens or words,” LeCun had said. “That’s about 10 to the power 14 bytes; one with 14 zeros behind it. It’s an enormous amount of information.”
"Ein typisches großes Sprachmodell wird mit etwas in der Größenordnung von 20 Billionen Token oder Worten trainiert", sagte Lecun. "Das ist ungefähr 10 Bytes mit 14 Bytes;
“But then you compare this with the amount of information that gets to our brains through the visual system in the first four years of life, and it’s about the same amount. In four years, a young child has been awake a total of about 16,000 hours. The amount of information getting to the brain through the optic nerve is about 2 megabytes per second. Do the calculation and that’s about 10 to the power 14 bytes. It’s about the same. In four years a young child has seen as much information or data as the biggest LLMs.”
„Dann vergleichen Sie dies mit der Menge an Informationen, die in den ersten vier Lebensjahren durch das visuelle System in unser Gehirn gelangen. In vier Jahren war ein kleines Kind insgesamt etwa 16.000 Stunden aufgewacht. Die Menge an Informationen, die Informationen zum Gehirn durch die Hirn -Nervus durch die Optsoptikusnerung erhalten, beträgt 2 Megabyte. Daten als größte LLM. “
This, he adds, means that we’re never going to get to human-level AI by just training on text. We’re going to have to get systems to understand the real world.
Er fügt hinzu, dass dies bedeutet, dass wir niemals zur KI auf menschlicher Ebene kommen, indem wir nur auf Text trainieren. Wir müssen Systeme bekommen, um die reale Welt zu verstehen.
LeCun has now said that he’s not interested in LLMs any more. Indeed, Meta itself hasn’t released a new version of Llama in a while, and DeepSeek and other companies have taken over the mantle of releasing the top open-source models.
Lecun hat jetzt gesagt, dass er nicht mehr an LLMs interessiert ist. In der Tat hat Meta selbst seit einiger Zeit keine neue Version von Lama mehr veröffentlicht, und Deepseek und andere Unternehmen haben den Mantel übernommen, die Top-Open-Source-Modelle freizugeben.
LeCun’s approach seems to be in contrast to OpenAI’s, which has consistently maintained there’s no wall in scaling LLM capabilities, and has instead been coming up with add-ons to LLM training, like test-time compute, to increase their capabilities. It remains to be seen which approach works out, but it appears that Meta is bearish on LLMs, and seems to believe that it’ll take a new technological breakthrough to dramatically improve the performance of current AI systems.
Lecuns Ansatz scheint im Gegensatz zu OpenAIs von OpenAI zu stehen, was durchweg behauptet hat, dass es keine Wand in der Skalierung von LLM-Funktionen gibt und stattdessen Add-Ons zu LLM-Training wie Testzeit-Rechenin entwickelt hat, um ihre Fähigkeiten zu erhöhen. Es bleibt abzuwarten, welcher Ansatz funktioniert, aber es scheint, dass Meta auf LLMs bärisch ist und zu glauben scheint, dass es einen neuen technologischen Durchbruch erfordern wird, um die Leistung aktueller KI -Systeme drastisch zu verbessern.
Haftungsausschluss:info@kdj.com
Die bereitgestellten Informationen stellen keine Handelsberatung dar. kdj.com übernimmt keine Verantwortung für Investitionen, die auf der Grundlage der in diesem Artikel bereitgestellten Informationen getätigt werden. Kryptowährungen sind sehr volatil und es wird dringend empfohlen, nach gründlicher Recherche mit Vorsicht zu investieren!
Wenn Sie glauben, dass der auf dieser Website verwendete Inhalt Ihr Urheberrecht verletzt, kontaktieren Sie uns bitte umgehend (info@kdj.com) und wir werden ihn umgehend löschen.
-
- Blockdag sammelt 5 Millionen US-Dollar in 48 Stunden nach der Keynote 3! Bittensor verzeichnet 4x -Gewinne, während BNB leichten Anstieg verzeichnet
- Apr 04, 2025 at 01:05 pm
- Entdecken Sie, wie Blockdags Post-Keynote 3-Dynamik, Live-Beta-Testnetz und 2.380% ROI Vorverkauf über BNBs Dienstprogrammmodell und Bittensors Frühstadium-Hype von BNB übertreffen.
-
-
-
-
-
-
- Coinbase Institutional hat offiziell bei der US Commodity Futures Trading Commission (CFTC) eingereicht, um Futures-Verträge für XRP zu zertieren
- Apr 04, 2025 at 12:50 pm
- Diese Anmeldung zielt darauf ab, die XRP -Futures am 21. April 2025 auf den Markt zu bringen und sowohl institutionelle als auch Einzelhandelsinvestoren eine regulierte Möglichkeit zu bieten, um XRP zu erlangen
-
-