本文系統性地評估了經典圖神經網絡(GNNs)在圖級任務中的表現,并提出統一增強框架 GNN+。實驗結果表明,經典GNNs不僅在多個圖級任務中達到了甚至超過了當前先進模型的性能,還表現出更高的訓練效率。研究成果有力地質疑了“復雜模型優于經典GNNs”的普遍觀點,凸顯了合理架構設計與調優在提升GNN性能中的關鍵作用。
論文題目: Can Classic GNNs Be Strong Baselines for Graph-level Tasks? Simple Architectures Meet Excellence 論文鏈接: https://arxiv.org/abs/2502.09263 代碼鏈接: https://github.com/LUOyk1999/GNNPlus
繼作者團隊此前對經典圖神經網絡(GNNs)在節點分類任務中的研究 [1],本研究進一步探討了經典GNNs在圖分類與圖回歸任務中的潛力。為此,本文通過提出GNN+框架,將六項常用超參數技術(邊特征、歸一化、Dropout、殘差連接、FFN和位置編碼)集成進經典GNNs架構中(包括 GCN、GIN 和 GatedGCN),以全面重估其性能表現。
實驗結果表明,在公平對比近三年提出的30個主流GTs和GSSMs時,經典GNNs在14個廣泛使用的大規模圖級任務數據集上整體性能優異,在全部數據集上進入前三,其中在8個任務中取得第一。值得強調的是,經典GNNs在保持高效性能的同時,在大多數數據集上顯著快于GTs模型,最高可達10倍的加速。本研究挑戰了“復雜全局建模架構在圖級任務中天然優越”的主流觀點,重新確認了經典GNNs在圖級任務中的適用性與競爭力,強調其作為強大基線模型的現實潛力。
重新評估經典GNNs系列工作:
Benchmarking系列
代碼鏈接
Classic GNNs are Strong Baselines: Reassessing GNNs for Node Classification (NeurIPS 2024)
https://github.com/LUOyk1999/tunedGNN
Can Classic GNNs Be Strong Baselines for Graph-level Tasks? Simple Architectures Meet Excellence (ICML 2025)
https://github.com/LUOyk1999/GNNPlus
一、引言
圖級任務(graph-level tasks)是圖機器學習中最具挑戰性的研究方向之一,涵蓋了從小規模分子圖的屬性預測,到大規模蛋白質圖與代碼圖的分類與回歸。在這些任務中,整個圖被視為基本學習單元,要求模型能夠全面理解圖結構與節點屬性的聯合模式。
近年來,隨著Graph Transformer(GTs)和Graph State Space Models(GSSMs)等模型在多個公開排行榜上取得優異成績,尤其是在小分子圖領域,其全局序列建模機制被認為具備天然的表示優勢。在這一趨勢推動下,逐漸形成一種共識:相比基于局部消息傳遞機制的經典GNNs,此類復雜模型在圖級任務中更具表現力和應用潛力。
然而,已有研究[1]顯示,經典GNNs在節點任務中的表現被系統性低估,其原因在于以往超參數設置不合理、評估覆蓋范圍有限。本研究自然延伸出一個問題:經典GNNs在圖級任務中是否也存在未被挖掘的性能潛力?
為此,本文構建了GNN+框架,在三類經典GNNs模型(GCN、GIN、GatedGCN)基礎上,引入六項被廣泛使用的超參數技術(邊特征整合、歸一化、Dropout、殘差連接、前饋網絡、位置編碼),全面評估其在14個廣泛使用的大規模圖級任務數據集中的表現。主要發現如下:
經典GNNs在全部數據集上進入前三,8個數據集取得第一,性能全面對標或超越當前SOTA GTs、GSSMs等架構;
經典GNNs有顯著的訓練效率優勢,更適合大規模圖學習場景;
通過消融實驗,系統驗證了GNN+框架中每個模塊的有效性,揭示其對性能的獨立與聯合貢獻
這些結果再次重申:經典GNNs在圖表示學習中的核心地位不應被忽視,簡單模型在合理設計與調優下,依然是圖級任務中的強大競爭者。
二、GNN+框架介紹
GNN+架構 GNN+是一個統一增強框架,適用于經典GNNs。其核心在于在消息傳遞基礎上,融入如下六項廣泛使用的超參數技術,用以提升表示能力和訓練穩定性:
邊特征整合:將邊特征引入消息傳遞過程,有助于建模節點之間更豐富的結構關系,特別適用于分子圖等邊信息關鍵的任務
歸一化:對每層輸出應用normalization,可緩解協變量偏移,提高訓練穩定性與收斂速度
Dropout:在激活后對節點表示進行隨機丟棄,有效抑制過擬合,并減少圖中節點表示間的共適應性
殘差連接:在層間引入殘差連接,有助于緩解深層GNNs中的梯度消失問題,使網絡能夠更有效地堆疊更多層
前饋網絡(FFN):在每層后追加前饋網絡,增強非線性變換能力,從而提升模型的表達能力
位置編碼(PE):通過將節點的位置編碼與其特征拼接,引入全圖結構感知能力,彌補GNNs對全局信息建模的不足

GNN Benchmark[2](ZINC, MNIST, CIFAR10, PATTERN, CLUSTER)
Long-Range Graph Benchmark (LRGB)[3,4](Peptides-func, Peptides-struct, PascalVOC-SP, COCO-SP, MalNet-Tiny)
Open Graph Benchmark (OGB)[5](ogbg-molhiv, ogbg-molpcba, ogbg-ppa, ogbg-code2)
基準包括圖回歸、圖分類等多類任務,覆蓋從小規模分子圖到百萬級大圖,測試模型的廣泛適應性。
所有經典GNNs和GTs、GSSMs等模型均在相同的超參數搜索空間下訓練,并使用標準劃分與評估指標進行對比。
四、實驗結果分析 4.1 主性能對比
GNN Benchmark實驗結果LRGB實驗結果
OGB實驗結果
結果顯示GCN+、GIN+和GatedGCN+三者在所有數據集均進入前三,其中8項任務取得第一,整體性能全面對標甚至超越主流GTs與GSSMs:
在GNN Benchmark中,GNN+在ZINC、PATTERN和CLUSTER任務上的性能提升尤為顯著,GatedGCN+在MNIST與CIFAR10中超越GEAET與GRED等最新模型。
在LRGB基準下,GCN+在Peptides-func與Peptides-struct上取得最佳表現,GatedGCN+在MalNet-Tiny中排名第一,并在PascalVOC-SP和COCO-SP中穩居前三。
OGB基準實驗進一步驗證了GNN+在大規模圖任務中的優勢,GatedGCN+在四個數據集中三次排名第一,在ogbg-ppa上提升約9%,性能超過多個預訓練GTs模型。
GNN Benchmark消融結果
LRGB和OGB的消融結果
本研究對GNN+框架中的六個超參數模塊(邊特征、歸一化、Dropout、殘差連接、前饋網絡、位置編碼)進行逐一消融,結果表明各模塊均為性能提升的關鍵組成:
消融觀察1:邊特征在分子圖和圖像超像素數據集中尤為重要
消融觀察2:歸一化在相對大規模數據集中影響更顯著,而在小規模數據集中影響較小
消融觀察3:Dropout對大多數數據集均有積極作用,且極低的dropout率已足夠
消融觀察4:殘差連接通常是必要的,除非是在淺層GNNs處理小圖時
消融觀察5:FFN對GIN+和GCN+至關重要,顯著影響其在各數據集上的表現
消融觀察6:位置編碼對相對小規模數據集尤為有效,而對大規模數據集影響較小
五、總結
本文系統性重新審視了經典GNNs在圖級任務中的表現,并提出統一增強框架GNN+。實驗證明:經典GNNs在圖級任務中不僅具備與最先進模型相媲美的能力,甚至在多個任務上取得最優結果,且訓練效率更高。研究結果強烈挑戰了“復雜圖模型優于經典GNNs”的普遍認知,進一步強調合理設計與調優對于GNN性能釋放的重要性。
參考文獻
[1] Yuankai Luo, Lei Shi, and Xiao-Ming Wu. Classic GNNs are strong baselines: Reassessing GNNs for node classification. In The Thirty-eight Conference on Neural Information Processing Systems Datasets and Benchmarks Track, 2024.
[2] Vijay Prakash Dwivedi, Chaitanya K Joshi, Anh Tuan Luu, Thomas Laurent, Yoshua Bengio, and Xavier Bresson. Benchmarking graph neural networks. Journal of Machine Learning Research, 24(43):1–48, 2023.
[3] Vijay Prakash Dwivedi, Ladislav Rampá?ek, Mikhail Galkin, Ali Parviz, Guy Wolf, Anh Tuan Luu, and Dominique Beaini. Long range graph benchmark. Advances in neural information processing systems, 2022.
[4] Scott Freitas and Yuxiao Dong. A large-scale database for graph representation learning. Advances in neural information processing systems, 2021.
[5] Weihua Hu, Matthias Fey, Marinka Zitnik, Yuxiao Dong, Hongyu Ren, Bowen Liu, Michele Catasta, and Jure Leskovec. Open graph benchmark: Datasets for machine learning on graphs. Advances in neural information processing systems, 2020.
來源:【知乎】 https://zhuanlan.zhihu.com/p/1910287643025082280
llustration From IconScout By IconScout Store
-The End-
掃碼觀看!
本周上新!
“AI技術流”原創投稿計劃
TechBeat是由將門創投建立的AI學習社區(www.techbeat.net)。社區上線600+期talk視頻,3000+篇技術干貨文章,方向覆蓋CV/NLP/ML/Robotis等;每月定期舉辦頂會及其他線上交流活動,不定期舉辦技術人線下聚會交流活動。我們正在努力成為AI人才喜愛的高質量、知識型交流平臺,希望為AI人才打造更專業的服務和體驗,加速并陪伴其成長。
投稿內容
// 最新技術解讀/系統性知識分享 //
// 前沿資訊解說/心得經歷講述 //
投稿須知
稿件需要為原創文章,并標明作者信息。
我們會選擇部分在深度技術解析及科研心得方向,對用戶啟發更大的文章,做原創性內容獎勵
投稿方式
發送郵件到
melodybai@thejiangmen.com
或添加工作人員微信(yellowsubbj)投稿,溝通投稿詳情;還可以關注“將門創投”公眾號,后臺回復“投稿”二字,獲得投稿說明。
關于我“門”
將門是一家以專注于數智核心科技領域的新型創投機構,也是北京市標桿型孵化器。 公司致力于通過連接技術與商業,發掘和培育具有全球影響力的科技創新企業,推動企業創新發展與產業升級。
將門成立于2015年底,創始團隊由微軟創投在中國的創始團隊原班人馬構建而成,曾為微軟優選和深度孵化了126家創新的技術型創業公司。
如果您是技術領域的初創企業,不僅想獲得投資,還希望獲得一系列持續性、有價值的投后服務,歡迎發送或者推薦項目給我“門”:
bp@thejiangmen.com
點擊右上角,把文章分享到朋友圈
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.