91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

清華大學(xué)聯(lián)合提出了用于半監(jiān)督學(xué)習(xí)的圖隨機(jī)神經(jīng)網(wǎng)絡(luò)

ss ? 來源:學(xué)術(shù)頭條 ? 作者:學(xué)術(shù)頭條 ? 2020-12-01 15:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀:在 NeurIPS 2020 上,清華大學(xué)聯(lián)合微眾銀行、微軟研究院以及博世人工智能中心提出了 Graph Random Neural Network (GRAND),一種用于圖半監(jiān)督學(xué)習(xí)的新型圖神經(jīng)網(wǎng)絡(luò)框架。在模型架構(gòu)上,GRAND 提出了一種簡單有效的圖數(shù)據(jù)增強(qiáng)方法 Random Propagation,用來增強(qiáng)模型魯棒性及減輕過平滑。基于 Random Propagation,GRAND 在優(yōu)化過程中使用一致性正則(Consistency Regularization)來增強(qiáng)模型的泛化性,即除了優(yōu)化標(biāo)簽節(jié)點的 cross-entropy loss 之外,還會優(yōu)化模型在無標(biāo)簽節(jié)點的多次數(shù)據(jù)增強(qiáng)的預(yù)測一致性。GRAND 不僅在理論上有良好的解釋,還在三個公開數(shù)據(jù)集上超越了 14 種不同的 GNN 模型,取得了 SOTA 的效果。

這項研究被收入為 NeurIPS 2020 的 Oral paper (105/9454)。

論文名稱:GraphRandom Neural Network for Semi-Supervised Learning on Graphs

研究背景

圖是用于建模結(jié)構(gòu)化和關(guān)系數(shù)據(jù)的一種通用的數(shù)據(jù)結(jié)構(gòu)。在這項工作中,我們重點研究基于圖的半監(jiān)督學(xué)習(xí)問題,這個問題的輸入是一個節(jié)點帶屬性的無向圖,其中只有一小部分節(jié)點有標(biāo)簽,我們的目的是要根據(jù)節(jié)點屬性,圖的結(jié)構(gòu)去預(yù)測無標(biāo)簽節(jié)點的標(biāo)簽。近幾年來,解決這個問題一類有效的方法是以圖卷積神經(jīng)網(wǎng)絡(luò)(GCN)[1]為代表的圖神經(jīng)網(wǎng)絡(luò)模型(GNN)。其主要思想是通過一個確定性的特征傳播來聚合鄰居節(jié)點的信息,以此來達(dá)到對特征降噪的目的。

但是,最近的研究表明,這種傳播過程會帶來一些固有的問題,例如:

1) 過平滑,圖卷積可以看做是一種特殊形式的拉普拉斯平滑,疊加多層之后節(jié)點之間的feature就會變得不可區(qū)分。

2)欠魯棒,GNN中的特征傳播會使得節(jié)點的預(yù)測嚴(yán)重依賴于特定的鄰居節(jié)點,這樣的模型對噪音的容忍度會很差,例如KDD’18的best paper[2]就表明我們甚至可以通過間接攻擊的方式通過改變目標(biāo)節(jié)點鄰居的屬性來達(dá)到攻擊目標(biāo)節(jié)點的目的。

3)過擬合,在半監(jiān)督節(jié)點分類的任務(wù)中,有標(biāo)簽的節(jié)點很少,而一般GNN僅僅依靠這些少量的監(jiān)督信息做訓(xùn)練,這樣訓(xùn)練出來的模型泛化能力會比較差。

模型介紹

為了解決這些問題,在這個工作中我們提出了圖隨機(jī)神經(jīng)網(wǎng)絡(luò)(GRAND),一種簡單有效的圖半監(jiān)督學(xué)習(xí)方法。與傳統(tǒng)GNN不同,GRAND采用隨機(jī)傳播(Random Propagation)策略。具體來說,我們首先隨機(jī)丟棄一些節(jié)點的屬性對節(jié)點特征做一個隨機(jī)擾動,然后對擾動后的節(jié)點特征做一個高階傳播。這樣一來,每個節(jié)點的特征就會隨機(jī)地與其高階鄰居的特征進(jìn)交互,這種策略會降低節(jié)點對某些特定節(jié)點的依賴,提升模型的魯棒性。

除此之外,在同質(zhì)圖中,相鄰的節(jié)點往往具有相似的特征及標(biāo)簽,這樣節(jié)點丟棄的信息就可以被其鄰居的信息補償過來。因此這樣形成的節(jié)點特征就可以看成是一種針對圖數(shù)據(jù)的數(shù)據(jù)增強(qiáng)方法。基于這種傳播方法,我們進(jìn)而設(shè)計了基于一致性正則(consistency regularization)的訓(xùn)練方法,即每次訓(xùn)練時進(jìn)行多次Random Propagation 生成多個不同的節(jié)點增強(qiáng)表示,然后將這些增強(qiáng)表示輸入到一個MLP中,除了優(yōu)化交叉熵?fù)p失之外,我們還會去優(yōu)化MLP模型對多個數(shù)據(jù)增強(qiáng)產(chǎn)生預(yù)測結(jié)果的一致性。這種一致性正則損失無需標(biāo)簽,可以使模型利用充足的無標(biāo)簽數(shù)據(jù),以彌補半監(jiān)督任務(wù)中監(jiān)督信息少的不足,提升模型的泛化能力,減小過擬合的風(fēng)險。

圖一

圖二

我們對GRAND進(jìn)行了理論分析,分析結(jié)果表明,這種Random propagation + Consistency Regularization 的訓(xùn)練方式實際上是在優(yōu)化模型對節(jié)點與其鄰居節(jié)點預(yù)測置信度之間的一致性。

實驗結(jié)果

我們在GNN基準(zhǔn)數(shù)據(jù)集中的實驗結(jié)果對GRAND進(jìn)行了評測,實驗結(jié)果顯示GRAND在3個公開數(shù)據(jù)集中顯著超越了14種不同種類的GNN模型,取得了SOTA的效果。實驗結(jié)果(圖三):

圖三

此外我們還對模型泛化性,魯棒性,過平滑等問題進(jìn)行了分析,實驗結(jié)果顯示1)Consistency Regularization 和Random Propagation均能提升模型的泛化能力(圖四);2)GRAND具有更好的對抗魯棒性(圖五);3)GRAND可以減輕過平滑問題(圖六)。

圖四

圖五

圖六

責(zé)任編輯:xj

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    沐曦股份聯(lián)合清華大學(xué)發(fā)布磁性材料AI原子基座模型

    2月27日,沐曦股份聯(lián)合清華大學(xué)等多家研究機(jī)構(gòu)聯(lián)合發(fā)布了磁性材料AI原子基座模型。該模型是首個覆蓋寬溫壓域的磁性材料AI原子模型,經(jīng)權(quán)威專家鑒定,整體技術(shù)水平達(dá)到國際領(lǐng)先。
    的頭像 發(fā)表于 03-03 15:25 ?415次閱讀
    沐曦股份<b class='flag-5'>聯(lián)合</b><b class='flag-5'>清華大學(xué)</b>發(fā)布磁性材料AI原子基座模型

    算法工程師需要具備哪些技能?

    (PCA)、異常檢測等。強(qiáng)化學(xué)習(xí):Q-learning、Policy Gradient等(適用于游戲AI、機(jī)器人控制)。 深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)基礎(chǔ):前向傳播、反向傳播、激活函數(shù)等。CNN:
    發(fā)表于 02-27 10:53

    清華大學(xué)“啟·創(chuàng)”計劃走進(jìn)拓維信息,校企共探AI時代產(chǎn)學(xué)研合作新范式

    1月13日,清華大學(xué)“啟·創(chuàng)”計劃第十三期赴湘社會實踐活動暨TalkwebHouse創(chuàng)業(yè)私董會第二期在拓維信息圓滿舉辦。清華大學(xué)創(chuàng)業(yè)團(tuán)隊20余名師生,與拓維信息團(tuán)隊深入對話,圍繞“AI+”產(chǎn)業(yè)融合
    的頭像 發(fā)表于 01-16 14:04 ?558次閱讀
    <b class='flag-5'>清華大學(xué)</b>“啟·創(chuàng)”計劃走進(jìn)拓維信息,校企共探AI時代產(chǎn)學(xué)研合作新范式

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物
    的頭像 發(fā)表于 12-17 15:05 ?344次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計原理及在MCU200T上仿真測試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時的梯度耗散問題。當(dāng)x&gt;0 時,梯度恒為1,無梯度耗散問題,收斂快;當(dāng)x&lt;0 時,該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接層函數(shù)   神經(jīng)網(wǎng)絡(luò)池化函數(shù)   Softmax 函數(shù)   神經(jīng)網(wǎng)絡(luò)支持功能   該庫具有
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識別。一旦模型被訓(xùn)練并保存,就可以用于對新圖像進(jìn)行推理和預(yù)測。要使用生成的模型進(jìn)行推理,可以按照以下步驟進(jìn)行操作: 1.
    發(fā)表于 10-22 07:03

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1268次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計算方式面臨著巨大的挑戰(zhàn),如計算速度慢、訓(xùn)練時間長等
    的頭像 發(fā)表于 09-17 13:31 ?1163次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計算與加速技術(shù)

    清華大學(xué)TOP EE+項目參訪美光上海

    此前,2025年6月4日至6日,清華大學(xué)TOP EE+ 項目于美光上海的參訪活動圓滿舉行。為期三天的活動匯聚了來自清華大學(xué)電子工程系的優(yōu)秀留學(xué)生與美光的多位管理者和工程師,展開了深入的技術(shù)交流與文化互動之旅。
    的頭像 發(fā)表于 07-07 18:02 ?1536次閱讀

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機(jī)故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降
    發(fā)表于 06-16 22:09

    清華大學(xué)到鎵未來科技,張大江先生在半導(dǎo)體功率器件十八年的堅守!

    清華大學(xué)到鎵未來科技,張大江先生在半導(dǎo)體功率器件十八年的堅守!近年來,珠海市鎵未來科技有限公司(以下簡稱“鎵未來”)在第三代半導(dǎo)體行業(yè)異軍突起,憑借領(lǐng)先的氮化鎵(GaN)技術(shù)儲備和不斷推出的新產(chǎn)品
    發(fā)表于 05-19 10:16

    使用MATLAB進(jìn)行無監(jiān)督學(xué)習(xí)

    監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗知識。
    的頭像 發(fā)表于 05-16 14:48 ?1470次閱讀
    使用MATLAB進(jìn)行無<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>

    清華大學(xué)攜手華為打造業(yè)內(nèi)首個園區(qū)網(wǎng)絡(luò)智能體

    清華大學(xué)響應(yīng)國家教育新基建戰(zhàn)略,正在加速推進(jìn)網(wǎng)絡(luò)管理平臺升級:為滿足在線教育、協(xié)同創(chuàng)新及智慧校園的發(fā)展需求,為清華大學(xué)躋身世界一流大學(xué)創(chuàng)造基礎(chǔ)條件,
    的頭像 發(fā)表于 05-07 09:51 ?875次閱讀

    2025年開放原子校源行清華大學(xué)站成功舉辦

    近日,由開放原子開源基金會、清華大學(xué)計算機(jī)科學(xué)與技術(shù)系、清華大學(xué)軟件學(xué)院主辦的開放原子“校源行”(清華站)在清華大學(xué)成功舉辦。
    的頭像 發(fā)表于 04-22 16:46 ?957次閱讀