bitcoin
bitcoin

$100832.865992 USD

1.35%

ethereum
ethereum

$3633.154409 USD

-0.60%

xrp
xrp

$2.418255 USD

1.08%

tether
tether

$0.999807 USD

0.01%

bnb
bnb

$724.684349 USD

0.89%

solana
solana

$213.147286 USD

-1.79%

dogecoin
dogecoin

$0.385151 USD

-0.47%

usd-coin
usd-coin

$0.999933 USD

-0.01%

cardano
cardano

$1.132399 USD

4.92%

tron
tron

$0.268608 USD

1.68%

avalanche
avalanche

$42.988134 USD

-3.00%

sui
sui

$5.092128 USD

-1.81%

chainlink
chainlink

$23.102118 USD

-2.74%

toncoin
toncoin

$5.675478 USD

-0.53%

shiba-inu
shiba-inu

$0.000024 USD

-2.19%

암호화폐 뉴스 기사

G2PT: 그래프 생성 사전 훈련된 변환기

2025/01/06 04:21

Tufts University, Northeastern University 및 Cornell University의 연구원들은 다음 토큰 예측을 통해 그래프 구조를 학습하도록 설계된 자동 회귀 모델인 G2PT(Graph Generative Pre-trained Transformer)를 개발했습니다.

G2PT: 그래프 생성 사전 훈련된 변환기

Graph generation is a critical task in diverse fields like molecular design and social network analysis, owing to its capacity to model intricate relationships and structured data. Despite recent advances, many graph generative models heavily rely on adjacency matrix representations. While effective, these methods can be computationally demanding and often lack flexibility, making it challenging to efficiently capture the complex dependencies between nodes and edges, especially for large and sparse graphs. Current approaches, including diffusion-based and auto-regressive models, encounter difficulties in terms of scalability and accuracy, highlighting the need for more refined solutions.

그래프 생성은 복잡한 관계와 구조화된 데이터를 모델링할 수 있는 기능으로 인해 분자 설계 및 소셜 네트워크 분석과 같은 다양한 분야에서 중요한 작업입니다. 최근의 발전에도 불구하고 많은 그래프 생성 모델은 인접 행렬 표현에 크게 의존합니다. 이러한 방법은 효과적이지만 계산이 까다로울 수 있고 종종 유연성이 부족하여 특히 크고 희박한 그래프의 경우 노드와 에지 간의 복잡한 종속성을 효율적으로 캡처하기가 어렵습니다. 확산 기반 모델과 자동 회귀 모델을 포함한 현재 접근 방식은 확장성 및 정확성 측면에서 어려움을 겪고 있어 보다 정교한 솔루션의 필요성이 강조됩니다.

In a recent study, a team of researchers from Tufts University, Northeastern University, and Cornell University introduces the Graph Generative Pre-trained Transformer (G2PT), an auto-regressive model designed to learn graph structures through next-token prediction. Unlike traditional methods, G2PT employs a sequence-based representation of graphs, encoding nodes and edges as sequences of tokens. This approach streamlines the modeling process, making it more efficient and scalable. By leveraging a transformer decoder for token prediction, G2PT generates graphs that maintain structural integrity and flexibility. Moreover, G2PT can be readily adapted to downstream tasks, such as goal-oriented graph generation and graph property prediction, serving as a versatile tool for various applications.

최근 연구에서 터프츠 대학교, 노스이스턴 대학교, 코넬 대학교 연구진은 다음 토큰 예측을 통해 그래프 구조를 학습하도록 설계된 자동 회귀 모델인 G2PT(Graph Generative Pre-trained Transformer)를 소개했습니다. 기존 방법과 달리 G2PT는 그래프의 시퀀스 기반 표현을 사용하여 노드와 에지를 토큰 시퀀스로 인코딩합니다. 이 접근 방식은 모델링 프로세스를 간소화하여 더욱 효율적이고 확장 가능하게 만듭니다. 토큰 예측을 위해 변환기 디코더를 활용함으로써 G2PT는 구조적 무결성과 유연성을 유지하는 그래프를 생성합니다. 또한 G2PT는 목표 지향 그래프 생성 및 그래프 속성 예측과 같은 다운스트림 작업에 쉽게 적용할 수 있어 다양한 애플리케이션을 위한 다목적 도구 역할을 합니다.

Technical Insights and Benefits

기술적 통찰력 및 이점

G2PT introduces a novel sequence-based representation that decomposes graphs into node and edge definitions. Node definitions specify indices and types, whereas edge definitions outline connections and labels. This approach fundamentally differs from adjacency matrix representations, which focus on all possible edges, by considering only the existing edges, thereby reducing sparsity and computational complexity. The transformer decoder effectively models these sequences through next-token prediction, offering several advantages:

G2PT는 그래프를 노드 및 에지 정의로 분해하는 새로운 시퀀스 기반 표현을 도입합니다. 노드 정의는 인덱스와 유형을 지정하는 반면, 에지 정의는 연결과 레이블을 간략하게 설명합니다. 이 접근 방식은 기존 가장자리만 고려하여 희소성과 계산 복잡성을 줄여 가능한 모든 가장자리에 초점을 맞추는 인접 행렬 표현과 근본적으로 다릅니다. 변환기 디코더는 다음 토큰 예측을 통해 이러한 시퀀스를 효과적으로 모델링하여 다음과 같은 몇 가지 이점을 제공합니다.

The researchers also explored fine-tuning methods for tasks like goal-oriented generation and graph property prediction, broadening the model’s applicability.

또한 연구원들은 목표 지향 생성 및 그래프 속성 예측과 같은 작업을 위한 미세 조정 방법을 탐색하여 모델의 적용 가능성을 넓혔습니다.

Experimental Results and Insights

실험 결과 및 통찰력

G2PT has been evaluated on various datasets and tasks, demonstrating strong performance. In general graph generation, it matched or exceeded the state-of-the-art performance across seven datasets. In molecular graph generation, G2PT achieved high validity and uniqueness scores, reflecting its ability to accurately capture structural details. For instance, on the MOSES dataset, G2PTbase attained a validity score of 96.4% and a uniqueness score of 100%.

G2PT는 다양한 데이터 세트와 작업에서 평가되어 강력한 성능을 보여주었습니다. 일반 그래프 생성에서는 7개 데이터 세트에 걸쳐 최첨단 성능과 일치하거나 이를 능가했습니다. 분자 그래프 생성에서 G2PT는 구조적 세부 사항을 정확하게 포착하는 능력을 반영하여 높은 타당성과 고유성 점수를 달성했습니다. 예를 들어, MOSES 데이터세트에서 G2PTbase는 96.4%의 유효성 점수와 100%의 고유성 점수를 획득했습니다.

In a goal-oriented generation, G2PT aligned generated graphs with desired properties using fine-tuning techniques like rejection sampling and reinforcement learning. These methods enabled the model to adapt its outputs effectively. Similarly, in predictive tasks, G2PT’s embeddings delivered competitive results across molecular property benchmarks, reinforcing its suitability for both generative and predictive tasks.

목표 지향 생성에서 G2PT는 거부 샘플링 및 강화 학습과 같은 미세 조정 기술을 사용하여 생성된 그래프를 원하는 속성과 정렬했습니다. 이러한 방법을 통해 모델은 출력을 효과적으로 조정할 수 있었습니다. 마찬가지로 예측 작업에서 G2PT의 임베딩은 분자 특성 벤치마크 전반에 걸쳐 경쟁력 있는 결과를 제공하여 생성 작업과 예측 작업 모두에 대한 적합성을 강화했습니다.

Conclusion

결론

The Graph Generative Pre-trained Transformer (G2PT) represents a thoughtful step forward in graph generation. By employing a sequence-based representation and transformer-based modeling, G2PT addresses many limitations of traditional approaches. Its combination of efficiency, scalability, and adaptability makes it a valuable resource for researchers and practitioners. While G2PT shows sensitivity to graph orderings, further exploration of universal and expressive edge-ordering mechanisms could enhance its robustness. G2PT exemplifies how innovative representations and modeling approaches can advance the field of graph generation.

G2PT(Graph Generative Pre-trained Transformer)는 그래프 생성의 사려 깊은 발전을 나타냅니다. 시퀀스 기반 표현과 변환기 기반 모델링을 사용함으로써 G2PT는 기존 접근 방식의 많은 한계를 해결합니다. 효율성, 확장성 및 적응성이 결합되어 연구자와 실무자에게 귀중한 리소스가 됩니다. G2PT는 그래프 순서에 대한 민감성을 보여 주지만 보편적이고 표현력이 풍부한 가장자리 순서 지정 메커니즘을 추가로 탐색하면 견고성을 향상시킬 수 있습니다. G2PT는 혁신적인 표현 및 모델링 접근 방식이 그래프 생성 분야를 어떻게 발전시킬 수 있는지 보여줍니다.

Check out the Paper. All credit for this research goes to the researchers of this project. Also, don’t forget to follow us on Twitter and join our Telegram Channel and LinkedIn Group. Don’t Forget to join our 60k+ ML SubReddit.

논문을 확인해 보세요. 이 연구에 대한 모든 공로는 이 프로젝트의 연구자에게 돌아갑니다. 또한 Twitter에서 우리를 팔로우하고 Telegram 채널과 LinkedIn 그룹에 가입하는 것을 잊지 마세요. 60,000개가 넘는 ML SubReddit에 가입하는 것을 잊지 마세요.

🚨 FREE UPCOMING AI WEBINAR (JAN 15, 2025): Boost LLM Accuracy with Synthetic Data and Evaluation Intelligence–Join this webinar to gain actionable insights into boosting LLM model performance and accuracy while safeguarding data privacy.

🚨 무료로 예정된 AI 웨비나(2025년 1월 15일): 합성 데이터 및 평가 인텔리전스를 통해 LLM 정확성 향상 – 이 웨비나에 참여하여 데이터 개인 정보를 보호하면서 LLM 모델 성능 및 정확성을 높이는 데 대한 실행 가능한 통찰력을 얻으세요.

뉴스 소스:www.marktechpost.com

부인 성명:info@kdj.com

The information provided is not trading advice. kdj.com does not assume any responsibility for any investments made based on the information provided in this article. Cryptocurrencies are highly volatile and it is highly recommended that you invest with caution after thorough research!

If you believe that the content used on this website infringes your copyright, please contact us immediately (info@kdj.com) and we will delete it promptly.

2025年01月07日 에 게재된 다른 기사