91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DeepMind如何用神經(jīng)網(wǎng)絡(luò)自動(dòng)構(gòu)建啟發(fā)式算法

dhVf_AcousticSi ? 來(lái)源:機(jī)器之心 ? 作者:機(jī)器之心 ? 2021-08-25 15:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

混合整數(shù)規(guī)劃(MIP)是一類 NP 困難問(wèn)題,來(lái)自 DeepMind、谷歌的一項(xiàng)研究表明,用神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)方法可以解決混合整數(shù)規(guī)劃問(wèn)題。

混合整數(shù)規(guī)劃(Mixed Integer Program, MIP)是一類 NP 困難問(wèn)題,旨在最小化受限于線性約束的線性目標(biāo),其中部分或所有變量被約束為整數(shù)值。混合整數(shù)規(guī)劃的形式如下:

MIP 已經(jīng)在產(chǎn)能規(guī)劃、資源分配和裝箱等一系列問(wèn)題中得到廣泛應(yīng)用。人們?cè)谘芯亢凸こ躺系拇罅颗σ惭邪l(fā)出了 SCIP、CPLEX、Gurobi 和 Xpress 等實(shí)用的求解器。這些求解器使用復(fù)雜的啟發(fā)式算法來(lái)指導(dǎo)求解 MIP 的搜索過(guò)程,并且給定應(yīng)用上求解器的性能主要依賴于啟發(fā)式算法適配應(yīng)用的程度。

在本文中,來(lái)自 DeepMind、谷歌的研究者展示了機(jī)器學(xué)習(xí)可以用于從 MIP 實(shí)例數(shù)據(jù)集自動(dòng)構(gòu)建有效的啟發(fā)式算法。

在實(shí)踐中經(jīng)常會(huì)出現(xiàn)這樣的用例,即應(yīng)用程序需要用不同的問(wèn)題參數(shù)解決同一高級(jí)語(yǔ)義問(wèn)題的大量實(shí)例。

文中此類「同質(zhì)」數(shù)據(jù)集的示例包括:(1)優(yōu)化電網(wǎng)中發(fā)電廠的選擇以滿足需求,其中電網(wǎng)拓?fù)浔3植蛔?,而需求、可再生能源發(fā)電等則因情況而異(2)解決了谷歌在生產(chǎn)系統(tǒng)中的一個(gè)包裝問(wèn)題,在這個(gè)系統(tǒng)中,要包裝的「items」和「bins」的語(yǔ)義基本保持不變,但它們的尺寸在不同的實(shí)例之間有所波動(dòng)。

然而,現(xiàn)有的 MIP 求解器無(wú)法自動(dòng)構(gòu)造啟發(fā)式來(lái)利用這種結(jié)構(gòu)。在具有挑戰(zhàn)性的應(yīng)用程序中,用戶可能依賴專家設(shè)計(jì)的啟發(fā)式,或者以放棄潛在的大型性能改進(jìn)為代價(jià)。而機(jī)器學(xué)習(xí)提供了在不需要特定于應(yīng)用程序?qū)I(yè)知識(shí)的情況下進(jìn)行大規(guī)模改進(jìn)的可能性。

論文地址:https://arxiv.org/pdf/2012.13349.pdf

該研究證明,機(jī)器學(xué)習(xí)可以構(gòu)建針對(duì)給定數(shù)據(jù)集的啟發(fā)式算法,其性能顯著優(yōu)于 MIP 求解器中使用的經(jīng)典算法,特別是具有 SOTA 性能的非商業(yè)求解器 SCIP 7.0.1。

該研究將機(jī)器學(xué)習(xí)應(yīng)用于 MIP 求解器的兩個(gè)關(guān)鍵子任務(wù):(1)輸出對(duì)滿足約束的所有變量的賦值(如果存在此類賦值)(2)證明變量賦值與最優(yōu)賦值之間的目標(biāo)值差距邊界。這兩個(gè)任務(wù)決定了該方法的主要組件,即:Neural Diving、 Neural Branching。

該研究在不同的數(shù)據(jù)集上進(jìn)行了評(píng)估,這些數(shù)據(jù)集包含來(lái)自實(shí)際應(yīng)用的大規(guī)模 MIP,包括來(lái)自谷歌生產(chǎn)系統(tǒng)和 MIPLIB 的兩組數(shù)據(jù)。來(lái)自所有數(shù)據(jù)集的大多數(shù) MIP 組合集在解算后都有 10^3-10^6 個(gè)變量和約束,這明顯大于早期的工作。

一旦在給定的數(shù)據(jù)集上訓(xùn)練 Neural Diving 和 Neural Branching 模型,它們就被集成到 SCIP 中,以形成專門(mén)針對(duì)該數(shù)據(jù)集的「神經(jīng)求解器」?;€是 SCIP,其重點(diǎn)參數(shù)通過(guò)網(wǎng)格搜索在每個(gè)數(shù)據(jù)集上進(jìn)行調(diào)整,稱之為 Tuned SCIP。

將神經(jīng)求解器和 Tuned SCIP 與原始對(duì)偶間隙(primal-dual gap)在一組實(shí)例上的平均值進(jìn)行比較,圖 2 所示,神經(jīng)求解器在相同的運(yùn)行時(shí)間內(nèi)提供了更好的間隙,或者在更短的時(shí)間內(nèi)提供了相同的間隙,在五個(gè)數(shù)據(jù)集中進(jìn)行評(píng)估,有四個(gè)數(shù)據(jù)集的 MIP 最大,而第五個(gè)數(shù)據(jù)集的性能與 Tuned SCIP 性能相匹配。據(jù)了解,這是第一次使用機(jī)器學(xué)習(xí)在大規(guī)模真實(shí)應(yīng)用數(shù)據(jù)集和 MIPLIB 上得到如此大的改進(jìn)。

MIP 表示與神經(jīng)網(wǎng)絡(luò)架構(gòu)

該研究描述了 MIP 如何表示為神經(jīng)網(wǎng)絡(luò)的輸入,并用來(lái)學(xué)習(xí) Neural Diving、Neural Branching 模型的架構(gòu)。該研究使用的深度學(xué)習(xí)架構(gòu)為一種圖神經(jīng)網(wǎng)絡(luò),特別是圖卷積網(wǎng)絡(luò) (GCN)。

將 MIP 表示為神經(jīng)網(wǎng)絡(luò)的輸入

該研究使用 MIP 的二部圖表示,方程(1)可用于定義二部圖,其中圖中的一組 n 個(gè)節(jié)點(diǎn)對(duì)應(yīng)于被優(yōu)化的 n 個(gè)變量,另一組 m 個(gè)節(jié)點(diǎn)對(duì)應(yīng)于 m 個(gè)約束。

神經(jīng)網(wǎng)絡(luò)架構(gòu)

下面介紹一下 Neural Diving 、 Neural Branching 所使用的網(wǎng)絡(luò)架構(gòu)中共同的方面。

給定一個(gè) MIP 的二部圖表示,該研究使用 GCN 來(lái)學(xué)習(xí) Neural Diving 、Neural Branching 模型。設(shè) GCN 的輸入為圖,其中 V 為節(jié)點(diǎn)集合、ε為邊集合、A 為圖鄰接矩陣。對(duì)于 MIP 二部圖,V 是 n 個(gè)變量節(jié)點(diǎn)和 m 個(gè)約束節(jié)點(diǎn)的并集,大小 N := |V| = n + m。一個(gè)單層 GCN 用來(lái)學(xué)習(xí)計(jì)算輸入圖中每個(gè)節(jié)點(diǎn)的 H 維連續(xù)向量表示,稱為節(jié)點(diǎn)嵌入。

在 MIP 和 GCN 體系架構(gòu)中二部圖表示的兩個(gè)關(guān)鍵性質(zhì)是:(1)網(wǎng)絡(luò)輸出對(duì)變量和約束的排列是不變的(2)可以使用同一組參數(shù)應(yīng)用于不同大小的 MIP。

這兩個(gè)性質(zhì)很重要,因?yàn)樽兞亢图s束可能沒(méi)有任何規(guī)范順序,而且同一應(yīng)用程序中的不同實(shí)例可能具有不同數(shù)量的變量和約束。

架構(gòu)改進(jìn)

該研究對(duì)上述體系架構(gòu)進(jìn)行了改進(jìn),這些改進(jìn)提高了網(wǎng)絡(luò)的性能,主要體現(xiàn)在以下方面:

該研究修改了 MIP 二部圖的鄰接矩陣 A ,以包含來(lái)自 MIP 約束矩陣 A 的系數(shù),而不在是表示邊緣存在的二進(jìn)制值;

該研究通過(guò)連接來(lái)自第 l 層的節(jié)點(diǎn)嵌入來(lái)擴(kuò)展第 l + 1 層的節(jié)點(diǎn)嵌入;該研究在每一層的輸出處應(yīng)用 layer norm,使得 Z^ (l+1) =dcdd346e-fe6b-11eb-9bcf-12bb97331649.png

此外,該研究還探索了可以用來(lái)替代的架構(gòu),這些架構(gòu)對(duì)節(jié)點(diǎn)和邊使用嵌入,并使用單獨(dú)的 MLP 來(lái)計(jì)算。當(dāng)在每一層中使用具有高維邊嵌入的此類網(wǎng)絡(luò)時(shí),它們的內(nèi)存使用量可能會(huì)比 GCN 高得多,因?yàn)?GCN 只需要鄰接矩陣,可能不適合 GPU 內(nèi)存,除非以精度為代價(jià)減少層數(shù)。GCN 更適合擴(kuò)展到大規(guī)模 MIP。

數(shù)據(jù)集

表 1 中總結(jié)了數(shù)據(jù)集的詳細(xì)信息,除 MIPLIB 之外的所有數(shù)據(jù)集都是特定于應(yīng)用程序的,即它們只包含來(lái)自單個(gè)應(yīng)用程序的實(shí)例。

除了 MIPLIB 之外的所有數(shù)據(jù)集,該研究將實(shí)例隨機(jī)拆分為 70%、15% 和 15% 的不相交子集來(lái)定義訓(xùn)練集、驗(yàn)證集和測(cè)試集。對(duì)于 MIPLIB,該研究使用來(lái)自 MIPLIB 2017 基準(zhǔn)集的實(shí)例作為測(cè)試集。

在刪除與 MIPLIB 2017 基準(zhǔn)集的重疊實(shí)例后,分別使用 MIPLIB 2017 Collection Set 和 MIPLIB 2010 set 作為訓(xùn)練集和驗(yàn)證集。對(duì)每個(gè)數(shù)據(jù)集來(lái)說(shuō),訓(xùn)練集用于學(xué)習(xí)該數(shù)據(jù)集的模型,驗(yàn)證集用于調(diào)整學(xué)習(xí)超參數(shù)和 SCIP 的元參數(shù),測(cè)試集用于報(bào)告評(píng)估結(jié)果。

評(píng)估

首先該研究單獨(dú)評(píng)估了 Neural Diving、 Neural Branching,后續(xù)又進(jìn)行了聯(lián)合評(píng)估。不管在哪種情況下,該研究都評(píng)估了與訓(xùn)練集分離的 MIP 測(cè)試集,以衡量模型對(duì)未見(jiàn)實(shí)例的泛化能力。并使用 gap plot 和 survival plot 呈現(xiàn)結(jié)果。

校準(zhǔn)時(shí)間(Calibrated time):所有數(shù)據(jù)集和比較任務(wù)所需的評(píng)估工作量需要 160000 多個(gè) MIP 解算,以及近一百萬(wàn)個(gè) CPU 和 GPU 小時(shí)。為了滿足計(jì)算需求,該研究使用了一個(gè)共享的、異構(gòu)的計(jì)算集群。

為了提高準(zhǔn)確性,對(duì)于每個(gè)求解任務(wù),該研究定期在同一臺(tái)機(jī)器上的不同線程上解決一個(gè)小的校準(zhǔn) MIP。該研究還使用在同一臺(tái)機(jī)器上解決任務(wù)時(shí)的校準(zhǔn) MIP 求解數(shù)的估計(jì)來(lái)測(cè)量時(shí)間,然后使用參考機(jī)器上的校準(zhǔn) MIP 求解時(shí)間將這個(gè)量轉(zhuǎn)換為時(shí)間值。

Neural Diving

在本節(jié)中,研究者用本文方法來(lái)學(xué)習(xí) diving-style 原始啟發(fā)式的方法,該算法從給定的實(shí)例分布為 MIP 生成高質(zhì)量的賦值。思想是訓(xùn)練一個(gè)生成模型,對(duì) MIP 的整數(shù)變量進(jìn)行賦值,從這些整數(shù)變量中可以抽樣部分賦值。該研究使用 SCIP 獲得高質(zhì)量的賦值(不一定是最優(yōu)的)作為 MIP 訓(xùn)練集的目標(biāo)標(biāo)簽。

一旦在這些數(shù)據(jù)上進(jìn)行了訓(xùn)練,該模型就可以預(yù)測(cè)來(lái)自同一問(wèn)題分布的未見(jiàn)實(shí)例上的整數(shù)變量值。模型預(yù)測(cè)中所表示的不確定性被用于定義對(duì)原始 MIP 的部分賦值,該初始 MIP 固定了很大一部分整型變量。這些非常小的 sub-MIP 可以使用 SCIP 快速解決,產(chǎn)生高質(zhì)量的可行賦值。

解決方案預(yù)測(cè)作為條件生成模型

考慮一個(gè)整數(shù)程序(即,所有變量都是整數(shù)),其參數(shù)為 M = (A, b, c)(見(jiàn)方程 1),并在一組整數(shù)變量 x 上有一個(gè)非空可行集。假設(shè)最小化,該研究使用目標(biāo)函數(shù)定義 x 上的一個(gè)能量函數(shù):

ddc5c242-fe6b-11eb-9bcf-12bb97331649.png

注意,所有變量都使用了相同的 MLP

模型預(yù)測(cè)與經(jīng)典求解器相結(jié)合

該研究使用 SelectiveNet 方法訓(xùn)練了一個(gè)額外的二元分類器,可以用來(lái)判斷哪些變量需要預(yù)測(cè),哪些不需要預(yù)測(cè),并優(yōu)化變量之間的「coverage」,將其定義為預(yù)測(cè)變量數(shù)與未預(yù)測(cè)變量數(shù)之比。

通過(guò)分配或收緊大部分變量的邊界,該研究顯著地減少了問(wèn)題的規(guī)模,并熱啟動(dòng) SCIP,以在更短的時(shí)間內(nèi)找到高質(zhì)量的解決方案。

這種方法還提供了實(shí)際的計(jì)算優(yōu)勢(shì):預(yù)測(cè)抽樣和解搜索是完全并行的。研究者可以重復(fù)和獨(dú)立地從模型中提取不同的樣本,并且樣本的每個(gè)部分賦值都可以獨(dú)立地求解。

結(jié)果

該研究在訓(xùn)練集上為每個(gè)數(shù)據(jù)集訓(xùn)練一個(gè) GNN,并在驗(yàn)證集上調(diào)整超參數(shù)。 原始間隙(primal gap)與基線 SCIP 的平均結(jié)果。

與 SCIP 相比,該研究在并行和順序運(yùn)行方面,在所有數(shù)據(jù)集上以更短的時(shí)間產(chǎn)生更好的原始邊界。研究者認(rèn)為該方法的優(yōu)勢(shì)是能迅速找到好的解決方案,但有時(shí)它不能找到最優(yōu)或接近最優(yōu)的解決方案。這可以從圖 7 的 survival plot 中看出,Neural Diving 方法在較短的時(shí)間限制下勝出,但在 Electric Grid Optimization 和 MIPLIB 數(shù)據(jù)集上不如 SCIP。

該研究在兩個(gè)數(shù)據(jù)集上(Google Production Packing 、 NN Verification,如圖 8、9 所示)引入了兩個(gè)額外的結(jié)果,并且將 Neural Diving、Gurobi 求解器進(jìn)行結(jié)合:該研究以同樣的方式分配變量,但使用 Gurobi 而不是 SCIP 來(lái)解決剩下的問(wèn)題。

除了在上表 1 中的數(shù)據(jù)集上評(píng)估 Neural Diving 之外,研究者還通過(guò)修改自身方法來(lái)求解 MIPLIB 2017 Collection Set 中的開(kāi)放實(shí)例。這些實(shí)例是 MIPLIB 2017 Collection Set 能夠提供的 hardest 的問(wèn)題。

Neural Branching

分支定界(branch-and-bound)過(guò)程在每次迭代時(shí)需要做出兩個(gè)決策,即擴(kuò)展哪個(gè)葉節(jié)點(diǎn)以及在哪個(gè)變量上分支。研究者專注于后一個(gè)決策。變量選擇決策的質(zhì)量對(duì)求解 MIP 時(shí)分支定界所采取的步驟數(shù)量具有重大影響。通過(guò)模擬節(jié)點(diǎn)高效但計(jì)算昂貴的 expert 的行動(dòng),他們使用深度神經(jīng)網(wǎng)絡(luò)來(lái)學(xué)習(xí)變量選擇策略。

通過(guò)將昂貴 expert 的策略提煉到神經(jīng)網(wǎng)絡(luò)中,研究者尋求保持大致相同的決策質(zhì)量,但大大減少了做出決策所需時(shí)間。給定樹(shù)節(jié)點(diǎn)的決策完全是該節(jié)點(diǎn)的本地決策,因此學(xué)習(xí)策略只需要將節(jié)點(diǎn)的表示而不是整個(gè)樹(shù)作為輸入,由此實(shí)現(xiàn)更強(qiáng)的可擴(kuò)展性。

為了證明 expert 數(shù)據(jù)生成的可擴(kuò)展性得到了提升,研究者將 ADMM expert 與 Gasse 等人于 2019 年使用的 expert,即 Google Production Packing 和 MIPLIB 上的 Vanilla Full Strong Branching (VFSB)進(jìn)行了比較。

模仿學(xué)習(xí)是給定 expert 行為示例的情況時(shí)尋求學(xué)習(xí) expert 策略的算法的統(tǒng)稱。研究者在本文中將模仿學(xué)習(xí)表述為一個(gè)監(jiān)督學(xué)習(xí)問(wèn)題,并考慮了三種變體:克隆 expert 策略、隨機(jī)移動(dòng)的蒸餾和 DAgger。

在實(shí)驗(yàn)中,研究者將他們選擇的三種模仿學(xué)習(xí)變體作為超參數(shù)對(duì)每個(gè)數(shù)據(jù)集進(jìn)行調(diào)整。他們使用這三種變體為每個(gè)數(shù)據(jù)集生成了數(shù)據(jù)和訓(xùn)練策略,并選定了三小時(shí)內(nèi)在驗(yàn)證集實(shí)例上取得最低平均對(duì)偶間隙(dual gap)的策略,接著在測(cè)試集上對(duì)選定的策略進(jìn)行評(píng)估以得出相關(guān)結(jié)果。

結(jié)果

研究者在優(yōu)化雙重約束的任務(wù)上對(duì)學(xué)得的分支策略進(jìn)行評(píng)估。下圖 展示了 Neural Branching 與 Tuned SCIP 的平均對(duì)偶間隙曲線圖:

df06253e-fe6b-11eb-9bcf-12bb97331649.jpg

將一個(gè)數(shù)據(jù)集的目標(biāo)最優(yōu)間隙應(yīng)用于每個(gè)測(cè)試集 MIP 實(shí)例的對(duì)偶間隙時(shí)計(jì)算得出的生存曲線。研究者確認(rèn)了上圖 得出的結(jié)論,即在除 Google Production Planning 和 MIPLIB 之外的所有數(shù)據(jù)集上,Neural Branching 能夠在所有時(shí)間期限內(nèi)持續(xù)地求解出更高分?jǐn)?shù)的測(cè)試實(shí)例。

聯(lián)合評(píng)估

研究者將 Neural Branching 和 Neural Diving 結(jié)合成了單個(gè)求解器,這種做法使得在 Tuned SCIP 上實(shí)現(xiàn)了顯著加速。他們通過(guò) PySCIPOpt 包提供的接口使用并將學(xué)得的啟發(fā)式方法集成到 SCIP 中。

此外,研究者考慮了四種結(jié)合 Neural Branching 和 Neural Diving 的可能方法,具體如下:

單獨(dú)的 Tuned SCIP;

Neural Branching+Neural Diving(序列)使用神經(jīng)啟發(fā)式方法;

Neural Branching 僅使用學(xué)得的 branching 策略;

Tuned SCIP+Neural Diving(序列)僅使用連續(xù)版本的 Neural Diving。

作為運(yùn)行時(shí)間函數(shù)的平均原始對(duì)偶間隙曲線,神經(jīng)求解器在四個(gè)數(shù)據(jù)集上顯著優(yōu)于 Tuned SCIP。

具體來(lái)講,在 NN Verification 數(shù)據(jù)集上,神經(jīng)求解器在大的時(shí)間期限內(nèi)平均原始對(duì)偶間隙比 Tuned SCIP 好 5 個(gè)數(shù)量級(jí)以上;在 Google Production Packing 數(shù)據(jù)集上,Neural Branching 和 Neural Diving(序列)更快地實(shí)現(xiàn)更低的間隙,在比 Tuned SCIP 時(shí)間少 5 倍多的情況下達(dá)到了 0.1 的間隙,但 Tuned SCIP 最后趕上了;在 Electric Grid Optimization 數(shù)據(jù)集上,神經(jīng)求解器以更高的運(yùn)行時(shí)間實(shí)現(xiàn)了低一半的間隙;在 MIPLIB 數(shù)據(jù)集上,Tuned SCIP+Neural Diving(序列)組合以更高的運(yùn)行時(shí)間實(shí)現(xiàn)了 1.5 倍的間

研究者進(jìn)一步確認(rèn)了觀察結(jié)果,同樣在四個(gè)數(shù)據(jù)集上,神經(jīng)求解器在給定時(shí)間期限內(nèi)求解測(cè)試集問(wèn)題時(shí)能夠取得比 Tuned SCIP 更高的分?jǐn)?shù)。因此,這些結(jié)果表明學(xué)習(xí)可以顯著提升 SCIP 等強(qiáng)大求解器的性能。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • MIP
    MIP
    +關(guān)注

    關(guān)注

    0

    文章

    38

    瀏覽量

    14522
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1236

    瀏覽量

    26201
  • 求解器
    +關(guān)注

    關(guān)注

    0

    文章

    85

    瀏覽量

    4938
  • GCN
    GCN
    +關(guān)注

    關(guān)注

    0

    文章

    5

    瀏覽量

    2569

原文標(biāo)題:DeepMind用神經(jīng)網(wǎng)絡(luò)自動(dòng)構(gòu)建啟發(fā)式算法,求解MIP問(wèn)題

文章出處:【微信號(hào):AcousticSignal,微信公眾號(hào):聲學(xué)信號(hào)處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識(shí)

    日常生活中的智能應(yīng)用都離不開(kāi)深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大腦中神經(jīng)
    的頭像 發(fā)表于 12-17 15:05 ?333次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識(shí)

    自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個(gè)啥?

    自動(dòng)駕駛領(lǐng)域,經(jīng)常會(huì)聽(tīng)到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡(jiǎn)稱為CNN,是一種專門(mén)用來(lái)處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見(jiàn),因?yàn)閳D像本身就可以看作是由像素排列成的二維網(wǎng)格。
    的頭像 發(fā)表于 11-19 18:15 ?2078次閱讀
    <b class='flag-5'>自動(dòng)</b>駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個(gè)啥?

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測(cè)試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時(shí)的梯度耗散問(wèn)題。當(dāng)x&gt;0 時(shí),梯度恒為1,無(wú)梯度耗散問(wèn)題,收斂快;當(dāng)x&lt;0 時(shí),該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    NMSIS NN 軟件庫(kù)是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫(kù)分為多個(gè)功能,每個(gè)功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    通過(guò)實(shí)踐,本文總結(jié)了構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議,這些建議將會(huì)在構(gòu)建高準(zhǔn)確率輕量級(jí)CNN神經(jīng)網(wǎng)絡(luò)模型方面提供幫助。 1)避免單層神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-28 08:02

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)模型 model = models.Sequential()model.add(layers.Conv2D(input_shape=(28, 28, 1), filters=4
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器上。首先需要將所有權(quán)重?cái)?shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲(chǔ)器內(nèi)。 在仿真環(huán)境下,可將其存于一個(gè)文件,并在 Verilog 代碼中通過(guò) readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡(jiǎn)介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲(chóng)的
    的頭像 發(fā)表于 09-28 10:03 ?1225次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計(jì)算方式面臨著巨大的挑戰(zhàn),如計(jì)算速度慢、訓(xùn)練時(shí)間長(zhǎng)等
    的頭像 發(fā)表于 09-17 13:31 ?1129次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過(guò)對(duì)無(wú)刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來(lái)訓(xùn)練網(wǎng)絡(luò)結(jié)
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    的診斷誤差。仿真結(jié)果驗(yàn)證了該算法的有效性。 純分享帖,需要者可點(diǎn)擊附件免費(fèi)獲取完整資料~~~*附件:神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用.pdf【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究

    眾多方法中,由于其結(jié)構(gòu)簡(jiǎn)單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開(kāi)發(fā)。但是MRAS仍存在在低速區(qū)速度估計(jì)精度下降和對(duì)電動(dòng)機(jī)參數(shù)變化非常敏感的問(wèn)題。本文利用神經(jīng)網(wǎng)絡(luò)的特點(diǎn),使估計(jì)更為簡(jiǎn)單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個(gè)神經(jīng)網(wǎng)絡(luò)已經(jīng)通過(guò)python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過(guò)python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1217次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    AI神經(jīng)網(wǎng)絡(luò)降噪算法在語(yǔ)音通話產(chǎn)品中的應(yīng)用優(yōu)勢(shì)與前景分析

    隨著人工智能技術(shù)的快速發(fā)展,AI神經(jīng)網(wǎng)絡(luò)降噪算法在語(yǔ)音通話產(chǎn)品中的應(yīng)用正逐步取代傳統(tǒng)降噪技術(shù),成為提升語(yǔ)音質(zhì)量的關(guān)鍵解決方案。相比傳統(tǒng)DSP(數(shù)字信號(hào)處理)降噪,AI降噪具有更強(qiáng)的環(huán)境適應(yīng)能力、更高
    的頭像 發(fā)表于 05-16 17:07 ?1515次閱讀
    AI<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>降噪<b class='flag-5'>算法</b>在語(yǔ)音通話產(chǎn)品中的應(yīng)用優(yōu)勢(shì)與前景分析

    NVIDIA實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能

    近日,NVIDIA 宣布了 NVIDIA RTX 神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能。NVIDIA 與微軟合作,將在 4 月的 Microsoft DirectX 預(yù)覽版中增加神經(jīng)網(wǎng)絡(luò)著色技術(shù),讓開(kāi)
    的頭像 發(fā)表于 04-07 11:33 ?1182次閱讀