|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Articles d’actualité sur les crypto-monnaies
G2PT : transformateur pré-entraîné générateur de graphiques
Jan 06, 2025 at 04:21 am
Des chercheurs de l'Université Tufts, de l'Université Northeastern et de l'Université Cornell ont développé le Graph Generative Pre-trained Transformer (G2PT), un modèle auto-régressif conçu pour apprendre les structures graphiques grâce à la prédiction du jeton suivant.
Graph generation is a critical task in diverse fields like molecular design and social network analysis, owing to its capacity to model intricate relationships and structured data. Despite recent advances, many graph generative models heavily rely on adjacency matrix representations. While effective, these methods can be computationally demanding and often lack flexibility, making it challenging to efficiently capture the complex dependencies between nodes and edges, especially for large and sparse graphs. Current approaches, including diffusion-based and auto-regressive models, encounter difficulties in terms of scalability and accuracy, highlighting the need for more refined solutions.
La génération de graphiques est une tâche essentielle dans divers domaines tels que la conception moléculaire et l'analyse des réseaux sociaux, en raison de sa capacité à modéliser des relations complexes et des données structurées. Malgré les progrès récents, de nombreux modèles génératifs de graphes s'appuient fortement sur des représentations matricielles de contiguïté. Bien qu'efficaces, ces méthodes peuvent être exigeantes en termes de calcul et manquent souvent de flexibilité, ce qui rend difficile la capture efficace des dépendances complexes entre les nœuds et les arêtes, en particulier pour les graphes volumineux et clairsemés. Les approches actuelles, notamment les modèles basés sur la diffusion et auto-régressifs, rencontrent des difficultés en termes d'évolutivité et de précision, soulignant la nécessité de solutions plus raffinées.
In a recent study, a team of researchers from Tufts University, Northeastern University, and Cornell University introduces the Graph Generative Pre-trained Transformer (G2PT), an auto-regressive model designed to learn graph structures through next-token prediction. Unlike traditional methods, G2PT employs a sequence-based representation of graphs, encoding nodes and edges as sequences of tokens. This approach streamlines the modeling process, making it more efficient and scalable. By leveraging a transformer decoder for token prediction, G2PT generates graphs that maintain structural integrity and flexibility. Moreover, G2PT can be readily adapted to downstream tasks, such as goal-oriented graph generation and graph property prediction, serving as a versatile tool for various applications.
Dans une étude récente, une équipe de chercheurs de l'Université Tufts, de l'Université Northeastern et de l'Université Cornell présente le Graph Generative Pre-trained Transformer (G2PT), un modèle auto-régressif conçu pour apprendre les structures graphiques grâce à la prédiction du jeton suivant. Contrairement aux méthodes traditionnelles, G2PT utilise une représentation basée sur des séquences de graphiques, de nœuds de codage et de bords sous forme de séquences de jetons. Cette approche rationalise le processus de modélisation, le rendant plus efficace et évolutif. En exploitant un décodeur de transformateur pour la prédiction de jetons, G2PT génère des graphiques qui maintiennent l'intégrité structurelle et la flexibilité. De plus, G2PT peut être facilement adapté aux tâches en aval, telles que la génération de graphiques orientés vers des objectifs et la prédiction des propriétés des graphiques, servant ainsi d'outil polyvalent pour diverses applications.
Technical Insights and Benefits
Informations techniques et avantages
G2PT introduces a novel sequence-based representation that decomposes graphs into node and edge definitions. Node definitions specify indices and types, whereas edge definitions outline connections and labels. This approach fundamentally differs from adjacency matrix representations, which focus on all possible edges, by considering only the existing edges, thereby reducing sparsity and computational complexity. The transformer decoder effectively models these sequences through next-token prediction, offering several advantages:
G2PT introduit une nouvelle représentation basée sur des séquences qui décompose les graphiques en définitions de nœuds et d'arêtes. Les définitions de nœuds spécifient les indices et les types, tandis que les définitions de bords décrivent les connexions et les étiquettes. Cette approche diffère fondamentalement des représentations matricielles de contiguïté, qui se concentrent sur toutes les arêtes possibles, en considérant uniquement les arêtes existantes, réduisant ainsi la parcimonie et la complexité informatique. Le décodeur de transformateur modélise efficacement ces séquences grâce à la prédiction du prochain jeton, offrant plusieurs avantages :
The researchers also explored fine-tuning methods for tasks like goal-oriented generation and graph property prediction, broadening the model’s applicability.
Les chercheurs ont également exploré des méthodes de réglage fin pour des tâches telles que la génération orientée vers des objectifs et la prédiction des propriétés des graphiques, élargissant ainsi l'applicabilité du modèle.
Experimental Results and Insights
Résultats expérimentaux et perspectives
G2PT has been evaluated on various datasets and tasks, demonstrating strong performance. In general graph generation, it matched or exceeded the state-of-the-art performance across seven datasets. In molecular graph generation, G2PT achieved high validity and uniqueness scores, reflecting its ability to accurately capture structural details. For instance, on the MOSES dataset, G2PTbase attained a validity score of 96.4% and a uniqueness score of 100%.
G2PT a été évalué sur divers ensembles de données et tâches, démontrant de solides performances. Dans la génération générale de graphiques, il a égalé ou dépassé les performances de pointe sur sept ensembles de données. Dans la génération de graphiques moléculaires, G2PT a obtenu des scores élevés de validité et d’unicité, reflétant sa capacité à capturer avec précision les détails structurels. Par exemple, sur l'ensemble de données MOSES, G2PTbase a atteint un score de validité de 96,4 % et un score d'unicité de 100 %.
In a goal-oriented generation, G2PT aligned generated graphs with desired properties using fine-tuning techniques like rejection sampling and reinforcement learning. These methods enabled the model to adapt its outputs effectively. Similarly, in predictive tasks, G2PT’s embeddings delivered competitive results across molecular property benchmarks, reinforcing its suitability for both generative and predictive tasks.
Dans une génération axée sur les objectifs, G2PT a aligné les graphiques générés avec les propriétés souhaitées à l'aide de techniques de réglage fin telles que l'échantillonnage par rejet et l'apprentissage par renforcement. Ces méthodes ont permis au modèle d'adapter efficacement ses résultats. De même, dans les tâches prédictives, les intégrations de G2PT ont fourni des résultats compétitifs dans tous les tests de propriétés moléculaires, renforçant ainsi son adéquation aux tâches génératives et prédictives.
Conclusion
The Graph Generative Pre-trained Transformer (G2PT) represents a thoughtful step forward in graph generation. By employing a sequence-based representation and transformer-based modeling, G2PT addresses many limitations of traditional approaches. Its combination of efficiency, scalability, and adaptability makes it a valuable resource for researchers and practitioners. While G2PT shows sensitivity to graph orderings, further exploration of universal and expressive edge-ordering mechanisms could enhance its robustness. G2PT exemplifies how innovative representations and modeling approaches can advance the field of graph generation.
Le transformateur pré-entraîné génératif de graphiques (G2PT) représente une avancée réfléchie dans la génération de graphiques. En employant une représentation basée sur des séquences et une modélisation basée sur des transformateurs, G2PT répond à de nombreuses limites des approches traditionnelles. Sa combinaison d’efficacité, d’évolutivité et d’adaptabilité en fait une ressource précieuse pour les chercheurs et les praticiens. Bien que G2PT montre une sensibilité aux ordres de graphes, une exploration plus approfondie des mécanismes d’ordre de bords universels et expressifs pourrait améliorer sa robustesse. G2PT illustre comment des représentations et des approches de modélisation innovantes peuvent faire progresser le domaine de la génération de graphiques.
Check out the Paper. All credit for this research goes to the researchers of this project. Also, don’t forget to follow us on Twitter and join our Telegram Channel and LinkedIn Group. Don’t Forget to join our 60k+ ML SubReddit.
Consultez le papier. Tout le mérite de cette recherche revient aux chercheurs de ce projet. N'oubliez pas non plus de nous suivre sur Twitter et de rejoindre notre chaîne Telegram et notre groupe LinkedIn. N'oubliez pas de rejoindre notre SubReddit de plus de 60 000 ML.
🚨 FREE UPCOMING AI WEBINAR (JAN 15, 2025): Boost LLM Accuracy with Synthetic Data and Evaluation Intelligence–Join this webinar to gain actionable insights into boosting LLM model performance and accuracy while safeguarding data privacy.
🚨 WEBINAIRE GRATUIT À VENIR SUR L'IA (15 JANVIER 2025) : Améliorez la précision du LLM grâce aux données synthétiques et à l'intelligence d'évaluation – Rejoignez ce webinaire pour obtenir des informations exploitables sur l'amélioration des performances et de la précision des modèles LLM tout en protégeant la confidentialité des données.
Clause de non-responsabilité:info@kdj.com
The information provided is not trading advice. kdj.com does not assume any responsibility for any investments made based on the information provided in this article. Cryptocurrencies are highly volatile and it is highly recommended that you invest with caution after thorough research!
If you believe that the content used on this website infringes your copyright, please contact us immediately (info@kdj.com) and we will delete it promptly.
-
- Arthur Hayes prédit que le pic du marché du Bitcoin (BTC) se produira en mars 2025, une correction pourrait suivre
- Jan 07, 2025 at 08:35 pm
- Le co-fondateur de BitMEX, Arthur Hayes, prédit que Bitcoin et le reste du marché de la cryptographie atteindront son apogée en mars de cette année avant de subir une forte correction.
-
- Un expert en crypto prédit la « plus grande saison alternative de l'histoire » et révèle les meilleurs choix d'altcoins à faible capitalisation pour des rendements massifs : GOAT, ZEREBRO et plus
- Jan 07, 2025 at 08:35 pm
- L'expert en crypto @DeFiTracer a prédit ce qui pourrait être l'altseason la plus historique à ce jour.
-
- Reprise du Bitcoin Rally : dépasse les 100 000 $
- Jan 07, 2025 at 08:35 pm
- La performance du BTC en 2024 a connu une décélération fin décembre alors que les investisseurs cherchaient à sécuriser leurs gains. Néanmoins, l’enthousiasme pour un gouvernement pro-crypto sous Trump a ravivé l’intérêt, propulsant Bitcoin à un sommet record de 108 000 $.
-
- AI16Z (AI16Z) fait face à une résistance et pourrait connaître une baisse de 25 % alors que la récente vente de baleines ajoute à la peur du retrait
- Jan 07, 2025 at 08:35 pm
- La récente trajectoire des prix de l’Ai16z (AI16Z) n’a été rien de moins qu’une montagne russe. Après une hausse impressionnante depuis novembre, culminant avec un sommet historique de 2,47 $ le 2 janvier 2025, le jeton est désormais confronté à un défi de taille car il rencontre une résistance à cette valeur maximale.