|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Nachrichtenartikel zu Kryptowährungen
G2PT: Graphgenerativer vorab trainierter Transformator
Jan 06, 2025 at 04:21 am
Forscher der Tufts University, der Northeastern University und der Cornell University haben den Graph Generative Pre-trained Transformer (G2PT) entwickelt, ein autoregressives Modell zum Erlernen von Graphstrukturen durch die Vorhersage des nächsten Tokens.
Graph generation is a critical task in diverse fields like molecular design and social network analysis, owing to its capacity to model intricate relationships and structured data. Despite recent advances, many graph generative models heavily rely on adjacency matrix representations. While effective, these methods can be computationally demanding and often lack flexibility, making it challenging to efficiently capture the complex dependencies between nodes and edges, especially for large and sparse graphs. Current approaches, including diffusion-based and auto-regressive models, encounter difficulties in terms of scalability and accuracy, highlighting the need for more refined solutions.
Die Erstellung von Diagrammen ist aufgrund ihrer Fähigkeit, komplexe Beziehungen und strukturierte Daten zu modellieren, eine wichtige Aufgabe in verschiedenen Bereichen wie dem molekularen Design und der Analyse sozialer Netzwerke. Trotz der jüngsten Fortschritte stützen sich viele graphgenerative Modelle stark auf Adjazenzmatrixdarstellungen. Obwohl diese Methoden effektiv sind, können sie rechenintensiv sein und oft an Flexibilität mangeln, was es schwierig macht, die komplexen Abhängigkeiten zwischen Knoten und Kanten effizient zu erfassen, insbesondere bei großen und dünn besetzten Diagrammen. Aktuelle Ansätze, einschließlich diffusionsbasierter und autoregressiver Modelle, stoßen hinsichtlich Skalierbarkeit und Genauigkeit auf Schwierigkeiten, was den Bedarf an verfeinerten Lösungen unterstreicht.
In a recent study, a team of researchers from Tufts University, Northeastern University, and Cornell University introduces the Graph Generative Pre-trained Transformer (G2PT), an auto-regressive model designed to learn graph structures through next-token prediction. Unlike traditional methods, G2PT employs a sequence-based representation of graphs, encoding nodes and edges as sequences of tokens. This approach streamlines the modeling process, making it more efficient and scalable. By leveraging a transformer decoder for token prediction, G2PT generates graphs that maintain structural integrity and flexibility. Moreover, G2PT can be readily adapted to downstream tasks, such as goal-oriented graph generation and graph property prediction, serving as a versatile tool for various applications.
In einer aktuellen Studie stellt ein Forscherteam der Tufts University, der Northeastern University und der Cornell University den Graph Generative Pre-trained Transformer (G2PT) vor, ein autoregressives Modell, das zum Erlernen von Graphstrukturen durch die Vorhersage des nächsten Tokens entwickelt wurde. Im Gegensatz zu herkömmlichen Methoden verwendet G2PT eine sequenzbasierte Darstellung von Graphen und kodiert Knoten und Kanten als Sequenzen von Token. Dieser Ansatz rationalisiert den Modellierungsprozess und macht ihn effizienter und skalierbarer. Durch die Nutzung eines Transformator-Decoders für die Token-Vorhersage generiert G2PT Diagramme, die strukturelle Integrität und Flexibilität bewahren. Darüber hinaus kann G2PT problemlos an nachgelagerte Aufgaben wie die zielorientierte Graphgenerierung und die Vorhersage von Grapheigenschaften angepasst werden und dient als vielseitiges Werkzeug für verschiedene Anwendungen.
Technical Insights and Benefits
Technische Einblicke und Vorteile
G2PT introduces a novel sequence-based representation that decomposes graphs into node and edge definitions. Node definitions specify indices and types, whereas edge definitions outline connections and labels. This approach fundamentally differs from adjacency matrix representations, which focus on all possible edges, by considering only the existing edges, thereby reducing sparsity and computational complexity. The transformer decoder effectively models these sequences through next-token prediction, offering several advantages:
G2PT führt eine neuartige sequenzbasierte Darstellung ein, die Graphen in Knoten- und Kantendefinitionen zerlegt. Knotendefinitionen geben Indizes und Typen an, während Kantendefinitionen Verbindungen und Beschriftungen beschreiben. Dieser Ansatz unterscheidet sich grundlegend von Adjazenzmatrixdarstellungen, die sich auf alle möglichen Kanten konzentrieren, indem nur die vorhandenen Kanten berücksichtigt werden, wodurch die Sparsität und die Rechenkomplexität reduziert werden. Der Transformer-Decoder modelliert diese Sequenzen effektiv durch die Vorhersage des nächsten Tokens und bietet mehrere Vorteile:
The researchers also explored fine-tuning methods for tasks like goal-oriented generation and graph property prediction, broadening the model’s applicability.
Die Forscher untersuchten auch die Feinabstimmung von Methoden für Aufgaben wie die zielorientierte Generierung und die Vorhersage von Grapheigenschaften und erweiterten so die Anwendbarkeit des Modells.
Experimental Results and Insights
Experimentelle Ergebnisse und Erkenntnisse
G2PT has been evaluated on various datasets and tasks, demonstrating strong performance. In general graph generation, it matched or exceeded the state-of-the-art performance across seven datasets. In molecular graph generation, G2PT achieved high validity and uniqueness scores, reflecting its ability to accurately capture structural details. For instance, on the MOSES dataset, G2PTbase attained a validity score of 96.4% and a uniqueness score of 100%.
G2PT wurde anhand verschiedener Datensätze und Aufgaben evaluiert und zeigte eine starke Leistung. Bei der allgemeinen Diagrammerstellung erreichte oder übertraf die Leistung in sieben Datensätzen die Leistung auf dem neuesten Stand der Technik. Bei der Generierung molekularer Graphen erzielte G2PT hohe Validitäts- und Eindeutigkeitswerte, was seine Fähigkeit widerspiegelt, Strukturdetails genau zu erfassen. Beispielsweise erreichte G2PTbase im MOSES-Datensatz einen Validitätswert von 96,4 % und einen Eindeutigkeitswert von 100 %.
In a goal-oriented generation, G2PT aligned generated graphs with desired properties using fine-tuning techniques like rejection sampling and reinforcement learning. These methods enabled the model to adapt its outputs effectively. Similarly, in predictive tasks, G2PT’s embeddings delivered competitive results across molecular property benchmarks, reinforcing its suitability for both generative and predictive tasks.
In einer zielorientierten Generierung richtete G2PT die generierten Diagramme mithilfe von Feinabstimmungstechniken wie Ablehnungsstichproben und Verstärkungslernen an den gewünschten Eigenschaften aus. Diese Methoden ermöglichten es dem Modell, seine Ergebnisse effektiv anzupassen. In ähnlicher Weise lieferten die Einbettungen von G2PT bei Vorhersageaufgaben wettbewerbsfähige Ergebnisse bei den Benchmarks für molekulare Eigenschaften und untermauerten damit seine Eignung sowohl für generative als auch für Vorhersageaufgaben.
Conclusion
Abschluss
The Graph Generative Pre-trained Transformer (G2PT) represents a thoughtful step forward in graph generation. By employing a sequence-based representation and transformer-based modeling, G2PT addresses many limitations of traditional approaches. Its combination of efficiency, scalability, and adaptability makes it a valuable resource for researchers and practitioners. While G2PT shows sensitivity to graph orderings, further exploration of universal and expressive edge-ordering mechanisms could enhance its robustness. G2PT exemplifies how innovative representations and modeling approaches can advance the field of graph generation.
Der Graph Generative Pre-trained Transformer (G2PT) stellt einen durchdachten Fortschritt in der Graphgenerierung dar. Durch den Einsatz einer sequenzbasierten Darstellung und transformatorbasierten Modellierung beseitigt G2PT viele Einschränkungen traditioneller Ansätze. Seine Kombination aus Effizienz, Skalierbarkeit und Anpassungsfähigkeit macht es zu einer wertvollen Ressource für Forscher und Praktiker. Während G2PT eine Empfindlichkeit gegenüber Graphordnungen zeigt, könnte eine weitere Erforschung universeller und ausdrucksstarker Kantenordnungsmechanismen seine Robustheit verbessern. G2PT veranschaulicht, wie innovative Darstellungen und Modellierungsansätze das Gebiet der Graphgenerierung voranbringen können.
Check out the Paper. All credit for this research goes to the researchers of this project. Also, don’t forget to follow us on Twitter and join our Telegram Channel and LinkedIn Group. Don’t Forget to join our 60k+ ML SubReddit.
Schauen Sie sich das Papier an. Alle Anerkennung für diese Forschung gebührt den Forschern dieses Projekts. Vergessen Sie auch nicht, uns auf Twitter zu folgen und unserem Telegram-Kanal und unserer LinkedIn-Gruppe beizutreten. Vergessen Sie nicht, unserem über 60.000 ML großen SubReddit beizutreten.
🚨 FREE UPCOMING AI WEBINAR (JAN 15, 2025): Boost LLM Accuracy with Synthetic Data and Evaluation Intelligence–Join this webinar to gain actionable insights into boosting LLM model performance and accuracy while safeguarding data privacy.
🚨 KOSTENLOSES KOMMENDES KI-WEBINAR (15. JANUAR 2025): Steigern Sie die LLM-Genauigkeit mit synthetischen Daten und Auswertungsinformationen – Nehmen Sie an diesem Webinar teil, um umsetzbare Erkenntnisse zur Steigerung der Leistung und Genauigkeit von LLM-Modellen bei gleichzeitiger Wahrung des Datenschutzes zu gewinnen.
Haftungsausschluss:info@kdj.com
The information provided is not trading advice. kdj.com does not assume any responsibility for any investments made based on the information provided in this article. Cryptocurrencies are highly volatile and it is highly recommended that you invest with caution after thorough research!
If you believe that the content used on this website infringes your copyright, please contact us immediately (info@kdj.com) and we will delete it promptly.
-
- Der Bitcoin (BTC)-Markt nähert sich dem Höhepunkt seines Zyklus und tritt in die spätere Phase des Bullenzyklus ein: CryptoQuant-Analyst
- Jan 07, 2025 at 08:25 pm
- Der von Bitcoin angeführte Kryptowährungsmarkt folgte oft einem Muster abwechselnder Wachstums- und Rückgangszyklen, was die Stimmung der Anleger und die Fundamentaldaten des Marktes widerspiegelte.
-
- IntelMarkets (INTL) bereitet sich darauf vor, im Jahr 2025 den Krypto-Bereich zu dominieren
- Jan 07, 2025 at 08:25 pm
- Die KI-Plattform sorgt dank ihrer einzigartigen Funktionen und des riesigen Vorverkaufs für Aufsehen. Während INTL weiterhin exponentiell wächst, stoßen Sui Blockchain und Ripple (XRP) bei diesem Bullenlauf auf Hindernisse. Aus diesem Grund stürzt sich eine große Mehrheit der SUI- und Ripple (XRP)-Händler auf den neuen Altcoin – INTL!
-
- Die Herstellung der türkischen Ein-Lira-Münze kostet jetzt mehr, als sie wert ist
- Jan 07, 2025 at 08:25 pm
- Die Kosten für die Herstellung einer Ein-Lira-Münze belaufen sich nach Angaben eines Oppositionsabgeordneten auf 3,16 türkische Lira (TRY) (0,09 US-Dollar). Die Produktionskosten für die Münzen im Wert von 50 Kurus (der türkische „Cent“, der Kurus wird als „Kurush“ ausgesprochen) und 25 Kurus lagen nun bei 2,63 TRY bzw. 1,86 TRY, sagte Deniz Demir (@demirdenizchp). ein Abgeordneter der Republikanischen Volkspartei (CHP).
-
- 5 amerikanische Münzen, deren Wert im Jahr 2025 erheblich steigen könnte
- Jan 07, 2025 at 08:25 pm
- Können Sie sich vorstellen, dass eine einfache, in einer Schublade vergessene Münze Ihr Leben verändern könnte? Wir behalten Dinge oft, ohne ihnen irgendeine Bedeutung beizumessen, aber die Welt des Sammelns ist voller erstaunlicher Geschichten von Menschen, die in ihren Taschen echte Schätze entdeckt haben. In diesem Artikel erzählen wir Ihnen von fünf amerikanischen Münzen, deren Wert im Jahr 2025 deutlich steigen könnte. Wer weiß, vielleicht besitzen Sie eine davon, ohne es zu wissen!!
-
- Der Vorverkauf von Lightchain AI (LCAI) sorgt mit seiner bahnbrechenden AI-Blockchain-Integration und seinem enormen Wachstumspotenzial für Aufsehen
- Jan 07, 2025 at 07:15 pm
- Während LCAI die Aufmerksamkeit auf sich zieht, sind Anleger gespannt, ob BNB und SOL ihre Dynamik beibehalten und möglicherweise neue Allzeithochs erreichen können.
-
- Der Abschwung des chinesischen Yuan weitet sich aus und nähert sich dem 4-Jahres-Tief, während der Bitcoin (BTC)-Bullenmarkt lockt
- Jan 07, 2025 at 07:15 pm
- Das neue Jahr hat den chinesischen Vermögenswerten keine Erleichterung gebracht, die in einem Zusammenbruch weiter sinken, der den anhaltenden Bullenmarkt bei Bitcoin (BTC) weiter anheizen könnte.
-
- Pi Coin: Ein detaillierter Blick auf die Stanford-Kryptowährung, die trotz ihrer verzögerten Markteinführung 50 Millionen Miner gewonnen hat
- Jan 07, 2025 at 07:15 pm
- Der Pi-Coin, der vor über fünf Jahren eingeführt wurde, sorgt trotz seiner verzögerten Markteinführung weiterhin für Diskussionen in der Krypto-Community.