|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Nachrichtenartikel zu Kryptowährungen
Der Umkehrfluch von LLMs: Wenn fortgeschrittene Argumentationsmodelle in Beziehungen das Ziel verfehlen
Nov 16, 2024 at 12:48 pm
Trotz ihrer fortgeschrittenen Denkfähigkeiten verfehlen die neuesten LLMs bei der Entschlüsselung von Zusammenhängen oft ihr Ziel. In diesem Artikel untersuchen wir den Umkehrfluch, eine Falle, die sich auf LLMs bei Aufgaben wie Verstehen und Generieren auswirkt.
Large Language Models (LLMs) are renowned for their advanced reasoning capabilities, enabling them to perform a wide range of tasks, from natural language processing to code generation. However, despite their strengths, LLMs often exhibit a weakness in deciphering relationships, particularly when dealing with inverses. This phenomenon, termed the “reversal curse,” affects LLMs across various tasks, including comprehension and generation.
Large Language Models (LLMs) sind bekannt für ihre fortschrittlichen Argumentationsfähigkeiten, die es ihnen ermöglichen, ein breites Spektrum an Aufgaben auszuführen, von der Verarbeitung natürlicher Sprache bis zur Codegenerierung. Trotz ihrer Stärken weisen LLMs jedoch häufig eine Schwäche bei der Entschlüsselung von Beziehungen auf, insbesondere beim Umgang mit Inversen. Dieses als „Umkehrfluch“ bezeichnete Phänomen betrifft LLMs bei verschiedenen Aufgaben, einschließlich Verständnis und Generierung.
To understand the underlying issue, let’s consider a scenario with two entities, denoted as a and b, connected by their relation R and its inverse. LLMs excel at handling sequences such as “aRb,” where a is related to b by relation R. For instance, an LLM can quickly answer the question, “Who is the mother of Tom Cruise?” when asked. However, LLMs struggle with the inverse relation, denoted as R inverse. In our example, if we ask an LLM, “Who is Mary Lee Pfeiffer’s son?” it is more likely to hallucinate and falter, despite already knowing the relationship between Tom Cruise and Mary Lee Pfeiffer.
Um das zugrunde liegende Problem zu verstehen, betrachten wir ein Szenario mit zwei Entitäten, die als a und b bezeichnet werden und durch ihre Beziehung R und deren Umkehrung verbunden sind. LLMs zeichnen sich durch den Umgang mit Sequenzen wie „aRb“ aus, bei denen a über die Beziehung R mit b in Beziehung steht. Beispielsweise kann ein LLM schnell die Frage beantworten: „Wer ist die Mutter von Tom Cruise?“ wenn man gefragt wird. Allerdings haben LLMs mit der inversen Beziehung zu kämpfen, die als R-invers bezeichnet wird. Wenn wir in unserem Beispiel einen LLM fragen: „Wer ist Mary Lee Pfeiffers Sohn?“ Es ist wahrscheinlicher, dass es halluziniert und ins Stocken gerät, obwohl es die Beziehung zwischen Tom Cruise und Mary Lee Pfeiffer bereits kennt.
This reversal curse is a pitfall that affects LLMs in a variety of tasks. In a recent study, researchers from the Renmin University of China brought this phenomenon to the attention of the research community, shedding light on its probable causes and suggesting potential mitigation strategies. They identify the Training Objective Function as one of the key factors influencing the extent of the reversal curse.
Dieser Umkehrfluch ist eine Falle, die LLMs bei einer Vielzahl von Aufgaben betrifft. In einer aktuellen Studie machten Forscher der Renmin-Universität China die Forschungsgemeinschaft auf dieses Phänomen aufmerksam, beleuchteten seine wahrscheinlichen Ursachen und schlugen mögliche Strategien zur Eindämmung vor. Sie identifizieren die Trainingszielfunktion als einen der Schlüsselfaktoren, der das Ausmaß des Umkehrfluchs beeinflusst.
To fully grasp the reversal curse, we must first understand the training process of LLMs. Next-token prediction (NTP) is the dominant pre-training objective for current large language models, such as GPT and Llama. In models like GPT and Llama, the attention masks during training depend on the preceding tokens, meaning each token focuses solely on its prior context. This makes it impossible to account for subsequent tokens. As a result, if a occurs before b in the training corpus, the model maximizes the probability of b given a over the likelihood of a given b. Therefore, there is no guarantee that LLMs can provide a high probability for a when presented with b. In contrast, GLM models are pre-trained with autoregressive blank in-filling objectives, where the masked token controls both preceding and succeeding tokens, making them more robust to the reversal curse.
Um den Umkehrfluch vollständig zu verstehen, müssen wir zunächst den Trainingsprozess von LLMs verstehen. Die Next-Token-Vorhersage (NTP) ist das vorherrschende Ziel vor dem Training für aktuelle große Sprachmodelle wie GPT und Llama. In Modellen wie GPT und Llama hängen die Aufmerksamkeitsmasken während des Trainings von den vorhergehenden Token ab, was bedeutet, dass sich jeder Token ausschließlich auf seinen vorherigen Kontext konzentriert. Dies macht es unmöglich, nachfolgende Token zu berücksichtigen. Wenn also a vor b im Trainingskorpus auftritt, maximiert das Modell die Wahrscheinlichkeit von b bei gegebenem a gegenüber der Wahrscheinlichkeit bei gegebenem b. Daher gibt es keine Garantie dafür, dass LLMs eine hohe Wahrscheinlichkeit für a bieten können, wenn sie mit b präsentiert werden. Im Gegensatz dazu werden GLM-Modelle mit autoregressiven Lückenfüllzielen vorab trainiert, wobei der maskierte Token sowohl vorhergehende als auch nachfolgende Token kontrolliert und sie so robuster gegenüber dem Umkehrfluch macht.
The authors put this hypothesis to the test by fine-tuning GLMs on “Name to Description” data, using fictitious names and feeding descriptions to retrieve information about the entities. The GLMs achieved approximately 80% accuracy on this task, while Llama’s accuracy was 0%.
Die Autoren stellten diese Hypothese auf die Probe, indem sie GLMs auf „Name to Description“-Daten verfeinerten, indem sie fiktive Namen und Feed-Beschreibungen verwendeten, um Informationen über die Entitäten abzurufen. Die GLMs erreichten bei dieser Aufgabe eine Genauigkeit von etwa 80 %, während die Genauigkeit von Llama 0 % betrug.
To address this issue, the authors propose a method that adapts the training objective of LLMs to something similar to ABI. They fine-tuned models using Bidirectional Causal Language Model Optimization (BICO) to reverse-engineer mathematical tasks and translation problems. BICO adopts an autoregressive blank infilling objective, similar to GLM, but with tailored modifications designed explicitly for causal language models. The authors introduced rotary (relative) position embeddings and modified the attention function to make it bidirectional. This fine-tuning method improved the model’s accuracy in reverse translation and mathematical problem-solving tasks.
Um dieses Problem anzugehen, schlagen die Autoren eine Methode vor, die das Trainingsziel von LLMs an etwas anpasst, das dem von ABI ähnelt. Mithilfe der Bidirektionalen Kausalen Sprachmodelloptimierung (BICO) optimierten sie Modelle, um mathematische Aufgaben und Übersetzungsprobleme zurückzuentwickeln. BICO verwendet ein autoregressives Blank-Filling-Ziel, ähnlich wie GLM, jedoch mit maßgeschneiderten Modifikationen, die explizit für kausale Sprachmodelle entwickelt wurden. Die Autoren führten rotierende (relative) Positionseinbettungen ein und modifizierten die Aufmerksamkeitsfunktion, um sie bidirektional zu machen. Diese Feinabstimmungsmethode verbesserte die Genauigkeit des Modells bei Rückübersetzungen und mathematischen Problemlösungsaufgaben.
In conclusion, the authors analyze the reversal curse and propose a fine-tuning strategy to mitigate this pitfall. By adopting a causal language model with an ABI-like objective, this study sheds light on the reversal underperformance of LLMs. This work could be further expanded to examine the impact of advanced techniques, such as RLHF, on the reversal curse.
Abschließend analysieren die Autoren den Umkehrfluch und schlagen eine Feinabstimmungsstrategie vor, um diese Falle zu entschärfen. Durch die Verwendung eines kausalen Sprachmodells mit einem ABI-ähnlichen Ziel wirft diese Studie Licht auf die Umkehrleistung von LLMs. Diese Arbeit könnte weiter ausgeweitet werden, um die Auswirkungen fortgeschrittener Techniken wie RLHF auf den Umkehrfluch zu untersuchen.
Don’t forget to follow us on Twitter and join our Telegram Channel and LinkedIn Group. If you like our work, you will love our newsletter. Don’t Forget to join our 55k+ ML SubReddit.
Vergessen Sie nicht, uns auf Twitter zu folgen und unserem Telegram-Kanal und unserer LinkedIn-Gruppe beizutreten. Wenn Ihnen unsere Arbeit gefällt, werden Sie unseren Newsletter lieben. Vergessen Sie nicht, unserem 55k+ ML SubReddit beizutreten.
Haftungsausschluss:info@kdj.com
The information provided is not trading advice. kdj.com does not assume any responsibility for any investments made based on the information provided in this article. Cryptocurrencies are highly volatile and it is highly recommended that you invest with caution after thorough research!
If you believe that the content used on this website infringes your copyright, please contact us immediately (info@kdj.com) and we will delete it promptly.
-
- Die verborgenen Schätze der Blockchain: Lernen Sie Qubetics, Avalanche, Stellar und Near Protocol kennen
- Jan 22, 2025 at 05:15 pm
- Der Kryptomarkt schläft nie und bringt ständig innovative Projekte hervor, die die Grenzen dessen, was Blockchain leisten kann, verschieben. Während Mainstream-Münzen wie Bitcoin und Ethereum die Schlagzeilen dominieren, sind es oft die weniger bekannten Juwelen, die das Potenzial für explosives Wachstum bergen. Diese versteckten Gewinner treiben die nächste Entwicklung der Blockchain mit einzigartigen Lösungen in den Bereichen Skalierbarkeit, Datenschutz und Dezentralisierung voran.
-
- Solana Meme Coin MYRO ist auf einen 300 %-Ausbruch vorbereitet
- Jan 22, 2025 at 05:15 pm
- Der Krypto-Analyst CobraVanguard hat einen optimistischen Ausblick für den Solana-Meme-Coin MYRO abgegeben. Der Analyst erklärte, dass die Meme-Münze auf einen explosiven Preisausbruch von 300 % vorbereitet sei, und verriet, wie dies passieren könnte.
-
- Fear & Greed Index steigt auf 66, Warnungen vor wachsender „Gier“ bei Anlegern und Händlern
- Jan 22, 2025 at 05:15 pm
- Bitcoin-ETFs verzeichneten am 21. Januar Zuflüsse im Wert von 140,64 Millionen US-Dollar. Solana übertrifft die Bluechip-Altcoins mit einem Anstieg von 8,46 % und wird bei 256,31 $ gehandelt.
-
- Die institutionelle Einführung verändert die Kryptowährungsbranche, da traditionelle Finanzkonzerne ihre Positionen einnehmen
- Jan 22, 2025 at 05:15 pm
- Eine Welle institutioneller Akzeptanz könnte die Kryptowährungsbranche umgestalten, wobei traditionelle Finanzmächte bedeutende Positionen einnehmen.
-
- Der Vorverkauf von Rollblock (RBLK) wird von SUI und Solana als die derzeit beste Kryptowährung zum Kauf hervorgehoben
- Jan 22, 2025 at 05:15 pm
- Sui und Solana haben es schon seit langem auf die Liste der Top-Kryptowährungen geschafft, in die man investieren kann. Doch vor Kurzem ist Rollblock eine neue Kryptomünze
-
- Der Vorverkauf von Solaxy ($SOLX)-Token steigt auf über 12,8 Millionen US-Dollar, da Meme-Coins das Solana (SOL)-Netzwerk an seine Grenzen bringen
- Jan 22, 2025 at 05:15 pm
- Solaxy ($SOLX) erobert die Kryptowelt im Sturm und hat im Vorverkauf bisher beeindruckende 12,8 Millionen US-Dollar eingesammelt. Dieser Anstieg der gesammelten Mittel ist auf die Einführung von Donald Trumps ganz eigenem Meme-Coin, Official Trump ($TRUMP), zurückzuführen, der am 18. Januar auf den Markt kam und Schockwellen auf dem Markt auslöste.
-
- Suchen Sie sich einen Platz, schnallen Sie sich an und halten Sie sich fest, denn die Preise für Cardano und XRP werden die Anleger bald auf eine Achterbahnfahrt mitnehmen
- Jan 22, 2025 at 05:15 pm
- Da überall gemischte Signale aufblitzen, ist die Vielfalt der Preisprognosen schwindelerregend. Anleger müssen nur eine Frage beantworten: Bleiben Sie dran
-
- MTT Sports verleiht den 16. Bitcoin (BTC)-Preis, der taiwanesische Spieler „Yuri🐶“ holt sich die Meisterschaft
- Jan 22, 2025 at 05:15 pm
- Am 21. Januar schloss MTT Sports sein 16. wöchentliches Turnier ab und verlieh den 16. Bitcoin (BTC)-Preis. Diese Woche gewann der taiwanesische Spieler „Yuri🐶“ die Meisterschaft
-
- Bewertung der Risiken von XRP
- Jan 22, 2025 at 05:15 pm
- XRP, die mit Ripple Labs verbundene Kryptowährung, hat aufgrund ihrer schnellen Transaktionsgeschwindigkeit, niedrigen Gebühren und ihres Potenzials zur Erleichterung globaler grenzüberschreitender Zahlungen große Aufmerksamkeit erregt. Allerdings birgt XRP, wie alle Investitionen, seine eigenen Risiken.