![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
Nachrichtenartikel zu Kryptowährungen
PatchScopes: Operation über die Neuronen von großer Sprachmodellen (LLMs)
Feb 23, 2025 at 01:00 am
Große Sprachmodelle (LLMs) haben das Gebiet der künstlichen Intelligenz revolutioniert und bemerkenswerte Fähigkeiten zum Verständnis und der Generation natürlicher Sprache gezeigt. Diese Modelle, die aus Schichten miteinander verbundener künstlicher Neuronen bestehen, kommunizieren durch Vektoren von Zahlen, die als verborgene Darstellungen bekannt sind. Die Entschlüsselung der in diesen verborgenen Darstellungen codierten Bedeutung war jedoch eine bedeutende Herausforderung. Das Gebiet der maschinellen Lerneninterpretierbarkeit versucht, diese Lücke zu schließen, und "PatchScopes", die Google -Forscher auf eine Methode entwickelt haben, um zu verstehen, was LLM „denkt“.
Large Language Models (LLMs) have revolutionized the field of artificial intelligence, demonstrating remarkable capabilities in natural language understanding and generation. These models, comprised of layers of interconnected artificial neurons, communicate through vectors of numbers known as hidden representations. However, deciphering the meaning encoded within these hidden representations has been a significant challenge. The field of machine learning interpretability seeks to bridge this gap, and "Patchscopes" that Google researchers came up with a method to understand what LLM “thinks”.
Große Sprachmodelle (LLMs) haben das Gebiet der künstlichen Intelligenz revolutioniert und bemerkenswerte Fähigkeiten zum Verständnis und der Generation natürlicher Sprache gezeigt. Diese Modelle, die aus Schichten miteinander verbundener künstlicher Neuronen bestehen, kommunizieren durch Vektoren von Zahlen, die als verborgene Darstellungen bekannt sind. Die Entschlüsselung der in diesen verborgenen Darstellungen codierten Bedeutung war jedoch eine bedeutende Herausforderung. Das Gebiet der maschinellen Lerneninterpretierbarkeit versucht, diese Lücke zu schließen, und "PatchScopes", die Google -Forscher auf eine Methode entwickelt haben, um zu verstehen, was LLM „denkt“.
Patchscopes is a novel interpretability method that enables researchers to perform "surgery" on the neurons of an LLM. This involves cutting out and replacing hidden representations between different prompts and layers, allowing for a detailed inspection of the information contained within. The core concept is the "inspection prompt," which acts as a lens into the LLM's mind, facilitating the extraction of human-interpretable meaning. The framework leverages the inherent ability of LLMs to translate their own hidden representations into understandable text.
PatchScopes ist eine neuartige Interpretierbarkeitsmethode, mit der Forscher "Chirurgie" an den Neuronen eines LLM durchführen können. Dies beinhaltet das Ausschneiden und Austausch versteckter Darstellungen zwischen verschiedenen Eingabeaufforderungen und Schichten, wodurch eine detaillierte Untersuchung der darin enthaltenen Informationen ermöglicht wird. Das Kernkonzept ist die "Inspektionsaufforderung", die als Linse in den Geist des LLM fungiert und die Extraktion von menschlichen interpretierbaren Bedeutung erleichtert. Der Framework nutzt die inhärente Fähigkeit von LLMs, ihre eigenen verborgenen Darstellungen in verständlichen Text zu übersetzen.
Understanding the Transformer Architecture: A Foundation for Patchscopes
Verständnis der Transformatorarchitektur: Eine Grundlage für Patchscopes
Patchscopes builds upon a deep understanding of LLMs and the transformer architecture, which forms the backbone of many modern language models. Transformer models process text by first tokenizing the input, breaking it down into smaller units (words or sub-words). Each token is then embedded into a high-dimensional vector space, creating an initial hidden representation.
Patchscopes baut auf einem tiefen Verständnis von LLMs und der Transformer -Architektur auf, die das Rückgrat vieler moderner Sprachmodelle bildet. Transformatormodelle verarbeiten Text, indem er die Eingabe zuerst ansteuert und ihn in kleinere Einheiten (Wörter oder Unterwürde) zerlegt. Jedes Token wird dann in einen hochdimensionalen Vektorraum eingebettet, wodurch eine anfängliche verborgene Darstellung erzeugt wird.
The transformer architecture consists of multiple layers of transformer blocks. Each layer refines the hidden representation based on the output of the preceding layer and the relationships between tokens in the input sequence. This process continues through the final layer, where the hidden representation is used to generate the output text. Decoder-only models, which are the focus of Patchscopes, only consider preceding tokens when generating the next token, making them particularly well-suited for language generation tasks.
Die Transformatorarchitektur besteht aus mehreren Schichten von Transformatorblöcken. Jede Schicht verfeinert die verborgene Darstellung basierend auf der Ausgabe der vorhergehenden Schicht und den Beziehungen zwischen Token in der Eingabesequenz. Dieser Vorgang wird über die endgültige Ebene fortgesetzt, wobei die verborgene Darstellung zum Erzeugen des Ausgabentextes verwendet wird. Decodierer-Modelle, die im Fokus von PatchScopes im Mittelpunkt stehen, sollten nur bei der Erzeugung des nächsten Tokens vor den Token in Betracht ziehen, was sie besonders gut für Aufgaben der Sprachgenerierung geeignet ist.
The Patchscopes framework operates on a simple yet powerful premise: LLMs possess the inherent ability to translate their own hidden representations into human-understandable text. By patching hidden representations between different locations during inference, researchers can inspect the information within a hidden representation, understand LLM behavior, and even augment the model's performance.
Das PatchScopes-Framework arbeitet mit einer einfachen, aber leistungsstarken Prämisse: LLMs besitzen die inhärente Fähigkeit, ihre eigenen verborgenen Darstellungen in menschlich verständliche Text zu übersetzen. Indem Forscher versteckte Darstellungen zwischen verschiedenen Standorten während der Inferenz gepatscht werden, können Forscher die Informationen innerhalb einer versteckten Darstellung untersuchen, das LLM -Verhalten verstehen und sogar die Leistung des Modells erweitern.
The process involves several key steps:
Der Prozess umfasst mehrere wichtige Schritte:
Source Prompt: A source prompt is fed into the LLM, generating hidden representations at each layer. This prompt serves as the context from which information will be extracted.
Quelle Eingabeaufforderung: Eine Eingabeaufforderung zur Quelle wird in die LLM eingespeist und erzeugt versteckte Darstellungen in jeder Schicht. Diese Eingabeaufforderung dient als Kontext, aus dem Informationen extrahiert werden.
Inspection Prompt: An inspection prompt is designed to elicit a specific type of information from the LLM. This prompt typically includes a placeholder token where the hidden representation from the source prompt will be inserted.
Inspektionsaufforderung: Eine Inspektionsaufforderung wurde entwickelt, um eine bestimmte Art von Informationen aus dem LLM zu ermitteln. Diese Eingabeaufforderung enthält in der Regel ein Platzhalter -Token, bei dem die versteckte Darstellung aus der Quellaufforderung eingefügt wird.
Patching: The hidden representation from a specific layer and token position in the source prompt is "patched" into the placeholder token in the inspection prompt. This effectively replaces the LLM's internal representation with the extracted information.
Patching: Die versteckte Darstellung aus einer bestimmten Ebene und Token -Position in der Quellaufforderung wird in der Inspektionsaufforderung in das Platzhalter -Token "gepatcht". Dies ersetzt effektiv die interne Darstellung des LLM durch die extrahierten Informationen.
Generation: The LLM continues decoding from the patched inspection prompt, generating text based on the combined information from the source and inspection prompts.
Generierung: Das LLM dekodiert fort, aus der Patched Inspection -Eingabeaufforderung zu entschlüsseln und Text basierend auf den kombinierten Informationen aus der Quell- und Inspektionsaufforderung zu generieren.
Analysis: The generated text is analyzed to understand the information encoded in the hidden representation. This can involve evaluating the accuracy of factual information, identifying the concepts captured by the representation, or assessing the model's reasoning process.
Analyse: Der generierte Text wird analysiert, um die in der versteckten Darstellung codierten Informationen zu verstehen. Dies kann die Bewertung der Genauigkeit von sachlichen Informationen, der Ermittlung der Konzepte beinhalten, die durch die Darstellung erfasst wurden, oder die Bewertung des Argumentationsprozesses des Modells.
Case Study 1: Entity Resolution
Fallstudie 1: Entitätslösung
The first case study explores how LLMs resolve entities (people, places, movies, etc.) across different layers of the model. The goal is to understand at what point the model associates a token with its correct meaning. For example, how does the model determine that "Diana" refers to "Princess Diana" rather than the generic name?
In der ersten Fallstudie wird untersucht, wie LLMs Entitäten (Menschen, Orte, Filme usw.) über verschiedene Ebenen des Modells hinweg auflösen. Das Ziel ist es zu verstehen, an welchem Punkt das Modell ein Token mit seiner korrekten Bedeutung verbindet. Wie bestimmt das Modell beispielsweise, dass sich "Diana" eher auf "Prinzessin Diana" als auf den generischen Namen bezieht?
To investigate this, a source prompt containing the entity name is fed into the LLM. The hidden representation of the entity token is extracted at each layer and patched into an inspection prompt designed to elicit a description of the entity. By analyzing the generated descriptions, researchers can determine when the model has successfully resolved the entity.
Um dies zu untersuchen, wird eine Quellenaufforderung, die den Entitätsnamen enthält, in die LLM eingespeist. Die verborgene Darstellung des Entitätstokens wird in jeder Schicht extrahiert und in eine Inspektionsaufforderung gepatcht, die eine Beschreibung der Entität hervorruft. Durch die Analyse der generierten Beschreibungen können die Forscher feststellen, wann das Modell die Entität erfolgreich gelöst hat.
The results of this case study suggest that entity resolution typically occurs in the early layers of the model (before layer 20). This aligns with theories about layer function, which posit that early layers are responsible for establishing context from the prompt. The study also reveals that tokenization (how the input text is broken down into tokens) has a significant impact on how the model navigates its embedding space.
Die Ergebnisse dieser Fallstudie legen nahe, dass die Entitätsauflösung typischerweise in den frühen Schichten des Modells (vor Schicht 20) auftritt. Dies entspricht den Theorien über die Schichtfunktion, die feststellen, dass frühe Schichten dafür verantwortlich sind, einen Kontext aus der Eingabeaufforderung zu schaffen. Die Studie zeigt auch, dass Tokenisierung (wie der Eingabtext in Token unterteilt ist) einen erheblichen Einfluss darauf hat, wie das Modell seinen Einbettungsraum navigiert.
Case Study 2: Attribute Extraction
Fallstudie 2: Attributextraktion
The second case study focuses on evaluating how accurately the model's hidden representation captures well-known concepts and their attributes. For example, can the model identify that the largest city in Spain is Madrid?
Die zweite Fallstudie konzentriert sich darauf, zu bewerten, wie genau die versteckte Darstellung des Modells bekannte Konzepte und Attribute erfasst. Kann das Modell beispielsweise feststellen, dass die größte Stadt in Spanien Madrid ist?
To extract an attribute, a source prompt containing the subject (e.g., "Spain") is fed into the LLM. The hidden representation of the subject token is extracted and patched into an inspection prompt designed to elicit the specific attribute (e.g., "The largest city is x"). By analyzing the generated text, researchers can determine whether the model correctly identifies the attribute.
Um ein Attribut zu extrahieren, wird eine Quellenaufforderung, die das Subjekt (z. B. "Spanien") enthält, in die LLM eingespeist. Die verborgene Darstellung des Subjekts -Tokens wird extrahiert und in eine Inspektionsaufforderung gepatcht, die das spezifische Attribut hervorrufen soll (z. B. "die größte Stadt ist X"). Durch die Analyse des generierten Textes können Forscher bestimmen, ob das Modell das Attribut korrekt identifiziert.
This case study compares Patchscopes to a technique called "probing," which involves training a classifier to predict an attribute from a hidden representation. Unlike probing, Patchscopes does not
Diese Fallstudie vergleicht PatchScopes mit einer Technik namens "Probierung", bei der ein Klassifikator geschult wird, um ein Attribut aus einer verborgenen Darstellung vorherzusagen. Im Gegensatz zu Prüfung tut Patchscopes nicht
Haftungsausschluss:info@kdj.com
Die bereitgestellten Informationen stellen keine Handelsberatung dar. kdj.com übernimmt keine Verantwortung für Investitionen, die auf der Grundlage der in diesem Artikel bereitgestellten Informationen getätigt werden. Kryptowährungen sind sehr volatil und es wird dringend empfohlen, nach gründlicher Recherche mit Vorsicht zu investieren!
Wenn Sie glauben, dass der auf dieser Website verwendete Inhalt Ihr Urheberrecht verletzt, kontaktieren Sie uns bitte umgehend (info@kdj.com) und wir werden ihn umgehend löschen.
-
- Die Ethereum -Community lehnt die Idee ab, das Netzwerk zurückzugewinnen, um 1,4 Mrd. Bybit -Hack zu negieren
- Feb 23, 2025 at 12:40 pm
- Am Freitag wurde die Kryptowährung Bybit angeblich von der nordkoreanischen Lazarus -Gruppe gehackt, die Äther in Höhe von fast 1,4 Milliarden US -Dollar (ETH) vom Austausch entließ.
-
-
- Die offiziellen Magazoin -Preisvorhersagen 2025: Wird Maga den nächsten Bullenlauf dominieren?
- Feb 23, 2025 at 12:40 pm
- Der Kryptowährungsmarkt heizt sich im Jahr 2025 auf, wobei etablierte Riesen wie Ethereum (ETH) und Binance Coin (BNB) mit heftigen Konkurrenz von Breakout -Token wie dem offiziellen Magain konfrontiert sind. Während ETH und BNB voraussichtlich ein stetiges Wachstum erzielen wird, summten Analysten über Magacoins Potenzial, selbst die bullischsten Vorhersagen zu übertreffen. Lassen Sie uns die Prognosen aufschlüsseln und untersuchen, warum dieses politisch von Bewegung unterstützte Token den Bullenlauf 2025 dominieren könnte.
-
-
-
- Markterfahrungen von Cardano (ADA) bemerkenswerte Schwankungen in Bezug
- Feb 23, 2025 at 12:30 pm
- Der Kryptowährungsmarkt erfasst bemerkenswerte Schwankungen, insbesondere mit der Aufmerksamkeit, die sich auf Cardano (ADA) konzentriert, da die potenzielle Genehmigung für den ersten Börsenfonds (ETF) Anlegerinteresse erfasst.
-
-
- Solana (SOL) greift mit Preisabfall, fallender Netzwerkaktivität und bevorstehenden Token -Entsperren
- Feb 23, 2025 at 12:30 pm
- Solana (SOL) hat sich in den letzten Wochen mit erheblichen Herausforderungen auseinandergesetzt, von einem starken Rückgang seines Tokenpreises bis hin zu sinkenden Netzwerkaktivitäten. Während das Ökosystem für die bevorstehenden Token klammert, fragen sich viele, ob weitere Rückgänge für eine der am meisten gesprochenen Kryptowährungen am Horizont stehen.
-
- Die arktische Pablo -Münze leuchtet zu den besten neuen Meme -Münzen, die sich dieser Woche anschließen können
- Feb 23, 2025 at 12:30 pm
- Meme-Münzen haben die Krypto-Welt im Sturm erobert und sich von Internet-Witzen zu leistungsfähigen digitalen Vermögenswerten entwickelt. Investoren, die diese schrulligen Token einst übersehen haben, sehen nun ihren meteorischen Anstieg mit einigen Münzen, die erstaunliche Renditen erzielen. Wenn sich die Meme -Münzverschiebung intensiviert, erregen drei herausragende Leistungen erhebliche Aufmerksamkeit - arktische Pablo -Münze, Mogmünze und Neiro -Münze. Jedes bringt etwas Einzigartiges auf den Tisch, aber die arktische Pablo -Münze ist eine außergewöhnliche Chance mit seinen lukrativen Vorverkaufs- und innovativen Merkmalen.