91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

經(jīng)典圖神經(jīng)網(wǎng)絡(luò)(GNNs)的基準(zhǔn)分析研究

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:智能感知與物聯(lián)網(wǎng)技術(shù)研 ? 2024-11-27 09:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文簡要介紹了經(jīng)典圖神經(jīng)網(wǎng)絡(luò)(GNNs)的基準(zhǔn)分析研究,發(fā)表在 NeurIPS 2024。

文章回顧了經(jīng)典 GNNs 模型在節(jié)點(diǎn)分類任務(wù)上的表現(xiàn),結(jié)果發(fā)現(xiàn)過去 SOTA 圖學(xué)習(xí)模型報(bào)告的性能優(yōu)越性可能是由于經(jīng)典 GNNs 的超參數(shù)配置不佳。通過適當(dāng)?shù)某瑓?shù)調(diào)整,經(jīng)典 GNNs 模型在 18 個(gè)廣泛使用的節(jié)點(diǎn)分類數(shù)據(jù)集中的 17 個(gè)上超越了最新的圖學(xué)習(xí)模型。本研究旨在為 GNNs 的應(yīng)用和評估帶來新的見解。

96e7f88e-9f6e-11ef-93f3-92fbcf53809c.png

論文題目:Classic GNNs are Strong Baselines: Reassessing GNNs for Node Classification

論文鏈接:

https://arxiv.org/abs/2406.08993

代碼鏈接:

https://github.com/LUOyk1999/tunedGNN

引言節(jié)點(diǎn)分類是圖機(jī)器學(xué)習(xí)中的一個(gè)基本任務(wù),在社交網(wǎng)絡(luò)分析、生物信息學(xué)和推薦系統(tǒng)等多個(gè)領(lǐng)域中具有廣泛的高影響力應(yīng)用。圖神經(jīng)網(wǎng)絡(luò)(GNNs)已成為解決節(jié)點(diǎn)分類任務(wù)的強(qiáng)大模型。 GNNs 通過迭代地從節(jié)點(diǎn)的鄰居中聚合信息,這一過程被稱為消息傳遞,利用圖結(jié)構(gòu)和節(jié)點(diǎn)特征來學(xué)習(xí)有用的節(jié)點(diǎn)表示進(jìn)行分類。盡管 GNNs 取得了顯著的成功,但研究指出它們存在一些局限性,包括過度平滑、過度壓縮、對異質(zhì)性缺乏敏感性以及捕獲長距離依賴的挑戰(zhàn)。 最近,Graph Transformer(GTs)作為 GNN 的替代模型受到越來越多的關(guān)注。與主要聚合局部鄰域信息的 GNNs 不同,Transformer 架構(gòu)通過自注意力層可以捕獲任意節(jié)點(diǎn)對之間的交互。GTs 在圖級任務(wù)(如涉及小規(guī)模圖的分子圖分類)上取得了顯著成功。 這一成功激發(fā)了嘗試將 GTs 應(yīng)用于節(jié)點(diǎn)分類任務(wù)的努力,特別是在大規(guī)模圖上,以應(yīng)對 GNNs 的上述局限性。盡管最新的 GTs 取得了令人鼓舞的成果,但觀察到許多此類模型在顯性或隱性層面上仍然依賴于消息傳遞來學(xué)習(xí)局部節(jié)點(diǎn)表示,將其與全局注意力機(jī)制結(jié)合以獲得更全面的表示。 這促使我們重新思考:消息傳遞 GNNs 在節(jié)點(diǎn)分類中的潛力是否被低估了?雖然已有研究在一定程度上解決了這一問題,但這些研究在范圍和全面性上仍存在局限性,例如數(shù)據(jù)集數(shù)量和多樣性有限,以及超參數(shù)的考察不完整。 在本研究中,我們?nèi)嬷匦略u估了 GNNs 在節(jié)點(diǎn)分類中的表現(xiàn),使用了三種經(jīng)典的 GNNs 模型—— GCN、GAT和 GraphSAGE ——并在 18 個(gè)真實(shí)世界的基準(zhǔn)數(shù)據(jù)集上進(jìn)行了測試,包括同質(zhì)性、異質(zhì)性和大規(guī)模圖。 我們考察了 GNNs 訓(xùn)練中的關(guān)鍵超參數(shù)對其性能的影響,包括 normalization、dropout、residual connections 和 network depth。主要發(fā)現(xiàn)總結(jié)如下:

經(jīng)過適當(dāng)?shù)某瑓?shù)調(diào)整,經(jīng)典 GNNs 在同質(zhì)性和異質(zhì)性圖中的節(jié)點(diǎn)分類任務(wù)中均能取得高度競爭力的性能,甚至在節(jié)點(diǎn)數(shù)量達(dá)百萬量級的大規(guī)模圖上也是如此。值得注意的是,經(jīng)典 GNNs 在 18 個(gè)數(shù)據(jù)集中有 17 個(gè)超越了最先進(jìn)的圖學(xué)習(xí)模型,表明 GTs 對比 GNNs 所宣稱的優(yōu)勢可能是由于在 GNNs 評估中超參數(shù)配置不佳

我們的消融研究對 GNNs 節(jié)點(diǎn)分類中的超參數(shù)提供了見解。我們驗(yàn)證了:

Normalization 對于大規(guī)模圖至關(guān)重要

Dropout 一致地表現(xiàn)出積極影響

Residual connections 在異質(zhì)性圖上可以顯著增強(qiáng)性能

在異質(zhì)性圖上,較深的層數(shù)可能更適合 GNNs

方法介紹

2.1 數(shù)據(jù)集概述

970b87fe-9f6e-11ef-93f3-92fbcf53809c.png

同質(zhì)性圖:Cora、CiteSeer 和 PubMed 是三種常用的引用網(wǎng)絡(luò)[1]。我們遵循傳統(tǒng)的半監(jiān)督設(shè)定[2]來劃分?jǐn)?shù)據(jù)集。此外,Computer 和 Photo 是公共購買網(wǎng)絡(luò)[3],CS 和 Physics是公共作者網(wǎng)絡(luò)[3],我們采用訓(xùn)練/驗(yàn)證/測試劃分為 60%/20%/20% 的標(biāo)準(zhǔn)[4]。我們還使用了 Wiki-CS [5],該數(shù)據(jù)集是由計(jì)算機(jī)科學(xué)論文組成的引用網(wǎng)絡(luò),我們使用[5]的劃分。

異質(zhì)性圖:Squirrel 和 Chameleon 是兩個(gè) Wikipedia 特定主題的頁面網(wǎng)絡(luò)[6]。我們采用異質(zhì)圖基準(zhǔn)測試[7]中的新的數(shù)據(jù)集劃分。此外,我們還使用 Roman-Empire、Amazon-Ratings、Minesweeper 和 Questions 四個(gè)異質(zhì)性數(shù)據(jù)集[7],這些數(shù)據(jù)集的劃分和評估指標(biāo)遵循其來源[7]的標(biāo)準(zhǔn)。大規(guī)模圖:我們使用了由 Open Graph Benchmark(OGB)[8]發(fā)布的多個(gè)大規(guī)模圖,包括 ogbn-arxiv、ogbn-proteins 和 ogbn-products,節(jié)點(diǎn)數(shù)量從 0.16M 到 2.4M 不等。此外,我們還分析了社交網(wǎng)絡(luò) pokec [9]的性能表現(xiàn)。

2.2 超參數(shù)設(shè)置

我們的重點(diǎn)在于經(jīng)典 GNNs 模型(GCN、GraphSAGE、GAT)與最先進(jìn)的圖學(xué)習(xí)模型的比較。我們對經(jīng)典 GNNs 進(jìn)行了超參數(shù)調(diào)整,并與 Polynormer [4] 的超參數(shù)搜索空間保持一致。同時(shí),所有基準(zhǔn)baselines也在相同的超參數(shù)搜索空間和訓(xùn)練環(huán)境下重新訓(xùn)練。

2.3 關(guān)鍵超參數(shù)在本節(jié)中,我們概述了 GNNs 訓(xùn)練中的關(guān)鍵超參數(shù),包括 normalization、dropout、residual connections 和 network depth。這些超參數(shù)在不同類型的神經(jīng)網(wǎng)絡(luò)中被廣泛應(yīng)用,以提升模型性能:

Normalization:在每一層激活函數(shù)之前使用 layer normalization(LN)或 batch normalization(BN),可以減少協(xié)變量偏移,穩(wěn)定訓(xùn)練過程并加速收斂。

Dropout:在激活函數(shù)之后對特征嵌入使用 dropout 來減少隱藏神經(jīng)元間的共適應(yīng),有助于降低 GNNs 中消息傳遞的共適應(yīng)效應(yīng)。

Residual Connections:通過在層之間引入 residual connections,可以緩解梯度消失問題,增強(qiáng) GNNs 的表現(xiàn)力。

Network Depth:盡管深層網(wǎng)絡(luò)能夠提取更復(fù)雜的特征,但 GNNs 在深度上面臨獨(dú)特挑戰(zhàn),如過度平滑等。因此,大多數(shù) GNNs 采用較淺的結(jié)構(gòu),通常包含 2 到 5 層。然而,我們的實(shí)驗(yàn)發(fā)現(xiàn)如果搭配上 residual connections,GNNs 可以拓深至 10 層的網(wǎng)絡(luò)。

實(shí)驗(yàn)結(jié)果

3.1 主要發(fā)現(xiàn)

9720909a-9f6e-11ef-93f3-92fbcf53809c.png

關(guān)于同質(zhì)性圖的觀察:經(jīng)典 GNNs 在同質(zhì)性圖的節(jié)點(diǎn)分類任務(wù)中,僅需對超參數(shù)進(jìn)行輕微調(diào)整,便能夠具備很強(qiáng)的競爭力,且在很多情況下優(yōu)于最先進(jìn)的 GTs。

9747aa9a-9f6e-11ef-93f3-92fbcf53809c.png

關(guān)于異質(zhì)性圖的觀察:我們的參數(shù)調(diào)整顯著提高了經(jīng)典 GNNs 在異質(zhì)性圖上的先前最佳結(jié)果,超越了為此類圖專門設(shè)計(jì)的專用 GNNs 模型,甚至超過了 SOTA GTs 架構(gòu)。這一進(jìn)展不僅支持了[7]中的發(fā)現(xiàn),還進(jìn)一步強(qiáng)化了其結(jié)論,即經(jīng)典 GNNs 在異質(zhì)性圖上也是強(qiáng)有力的競爭者,挑戰(zhàn)了它們主要適用于同質(zhì)性圖結(jié)構(gòu)的普遍假設(shè)。

97639ff2-9f6e-11ef-93f3-92fbcf53809c.png

關(guān)于大規(guī)模圖的觀察:我們的參數(shù)調(diào)整顯著提升了經(jīng)典 GNNs 的先前結(jié)果,在某些情況下準(zhǔn)確率提升達(dá)到了兩位數(shù)。它們在這些大規(guī)模圖數(shù)據(jù)集(無論是同質(zhì)性還是異質(zhì)性)中取得了最佳結(jié)果,甚至超過了最先進(jìn)的 GTs。這表明消息傳遞在大規(guī)模圖上學(xué)習(xí)節(jié)點(diǎn)表示仍然非常有效。

3.2 消融分析

9777529a-9f6e-11ef-93f3-92fbcf53809c.png

978b2d2e-9f6e-11ef-93f3-92fbcf53809c.png

消融觀察 1:Normalization 在大規(guī)模圖的節(jié)點(diǎn)分類中非常重要,但在小規(guī)模圖中則不太顯著。

消融觀察 2:Dropout 對于節(jié)點(diǎn)分類始終是必要的。

消融觀察 3:Residual Connections 能夠顯著提升某些數(shù)據(jù)集上的性能,且在異質(zhì)性圖上的效果比同質(zhì)性圖上更為顯著。 消融觀察 4:更深的網(wǎng)絡(luò)通常在異質(zhì)性圖上帶來更大的性能提升,相較于同質(zhì)性圖表現(xiàn)更為明顯。

總結(jié)我們的研究對經(jīng)典 GNNs 模型在節(jié)點(diǎn)分類任務(wù)中的有效性進(jìn)行了全面的重新評估。通過廣泛的實(shí)證分析,我們驗(yàn)證了這些經(jīng)典 GNNs 模型能夠在各種圖數(shù)據(jù)集上達(dá)到甚至超越最先進(jìn)圖學(xué)習(xí)模型的性能。

此外,我們的全面消融研究提供了關(guān)于不同 GNNs 超參數(shù)如何影響性能的見解。我們希望我們的研究結(jié)果為 GNNs 的應(yīng)用和評估帶來新的見解。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:NeurIPS 2024 | 全面重新評估!經(jīng)典GNN是強(qiáng)有力的節(jié)點(diǎn)分類基線模型

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大腦中神經(jīng)
    的頭像 發(fā)表于 12-17 15:05 ?336次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時(shí)的梯度耗散問題。當(dāng)x&gt;0 時(shí),梯度恒為1,無梯度耗散問題,收斂快;當(dāng)x&lt;0 時(shí),該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個(gè)功能,每個(gè)功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練一個(gè)手寫數(shù)字識別的神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器上。首先需要將所有權(quán)重?cái)?shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲器內(nèi)。 在仿真環(huán)境下,可將其存于一個(gè)文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1227次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    問題。因此,并行計(jì)算與加速技術(shù)在神經(jīng)網(wǎng)絡(luò)研究和應(yīng)用中變得至關(guān)重要,它們能夠顯著提升神經(jīng)網(wǎng)絡(luò)的性能和效率,滿足實(shí)際應(yīng)用中對快速響應(yīng)和大規(guī)模數(shù)據(jù)處理的需求。神經(jīng)網(wǎng)絡(luò)并行
    的頭像 發(fā)表于 09-17 13:31 ?1131次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真模型解決方案

    在基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真(DPD)模型中,使用不同的激活函數(shù)對整個(gè)系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3477次閱讀

    無刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究

    MATLAB/SIMULINK工具對該方法進(jìn)行驗(yàn)證,實(shí)驗(yàn)結(jié)果表明該方法在全程速度下效果良好。 純分享帖,點(diǎn)擊下方附件免費(fèi)獲取完整資料~~~ *附件:無刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究.pdf
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機(jī)故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點(diǎn),很大程度上降低了對電機(jī)
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究

    ,在一定程度上擴(kuò)展了轉(zhuǎn)速估計(jì)范圍。 純分享帖,需要者可點(diǎn)擊附件免費(fèi)獲取完整資料~~~*附件:神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究.pdf【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)
    發(fā)表于 06-16 21:54

    六相永磁同步電機(jī)串聯(lián)系統(tǒng)控制的兩種方法分析研究

    ,需要者可點(diǎn)擊附件免費(fèi)獲取完整資料~~~*附件:六相永磁同步電機(jī)串聯(lián)系統(tǒng)控制的兩種方法分析研究.pdf【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請第一時(shí)間告知,刪除內(nèi)容!
    發(fā)表于 06-10 13:09

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個(gè)神經(jīng)網(wǎng)絡(luò)已經(jīng)通過python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1224次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    AI神經(jīng)網(wǎng)絡(luò)降噪算法在語音通話產(chǎn)品中的應(yīng)用優(yōu)勢與前景分析

    的語音保真度以及更低的延遲,能夠有效應(yīng)對復(fù)雜噪聲場景。本文將探討AI神經(jīng)網(wǎng)絡(luò)降噪在語音通話產(chǎn)品中的核心優(yōu)勢,并分析其未來發(fā)展趨勢和市場前景
    的頭像 發(fā)表于 05-16 17:07 ?1519次閱讀
    AI<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>降噪算法在語音通話產(chǎn)品中的應(yīng)用優(yōu)勢與前景<b class='flag-5'>分析</b>

    NVIDIA實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能

    近日,NVIDIA 宣布了 NVIDIA RTX 神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能。NVIDIA 與微軟合作,將在 4 月的 Microsoft DirectX 預(yù)覽版中增加神經(jīng)網(wǎng)絡(luò)著色技術(shù),讓開
    的頭像 發(fā)表于 04-07 11:33 ?1188次閱讀