91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)時(shí)代的新主宰:可微編程

5b9O_deeplearni ? 來(lái)源:未知 ? 作者:胡薇 ? 2018-06-08 11:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度學(xué)習(xí)自誕生之日起,即面臨著黑盒智能、可解釋性差等質(zhì)疑,發(fā)展至今,不可否認(rèn)地帶來(lái)了一波人工智能的發(fā)展熱潮,然而正面臨研究熱情漸褪、算法紅利逐漸消失等問(wèn)題,整個(gè)學(xué)術(shù)界都在討論,后深度學(xué)習(xí)時(shí)代,誰(shuí)將是主宰。

恰在此時(shí),LeCun語(yǔ)出驚人地表示,“Deep Learning has outlived its usefulness as a buzz-phrase. Deep Learning est mort. Vive Differentiable Programming!” 一方面將對(duì)深度學(xué)習(xí)的質(zhì)疑推向了高潮,另一方面奠定了可微編程的地位。

可微編程,作為銜接傳統(tǒng)算法與深度學(xué)習(xí)之間的橋梁為深度算法提供可解釋性,將成為打開(kāi)深度學(xué)習(xí)黑盒子的一大利器。

本文中,來(lái)自四川大學(xué)的彭璽研究員,將為大家介紹后深度學(xué)習(xí)時(shí)代的新主宰:可微編程。

文末,大講堂提供文中提到參考文獻(xiàn)的下載鏈接。

今天的匯報(bào)將從上面四個(gè)部分展開(kāi)。

第一部分,介紹一下可微編程的一些相關(guān)的概念。

第二部分,介紹我們的第一個(gè)工作?,F(xiàn)在大多可微編程是把優(yōu)化過(guò)程展開(kāi),轉(zhuǎn)換成回復(fù)式神經(jīng)網(wǎng)絡(luò)。而我們這項(xiàng)工作也是把優(yōu)化過(guò)程展開(kāi),發(fā)現(xiàn)能夠得到新的長(zhǎng)短期記憶,再?gòu)目晌⒕幊探嵌龋业脚c長(zhǎng)短期記憶網(wǎng)絡(luò)的連接。

第三部分,介紹我們的第二個(gè)工作?,F(xiàn)有的絕大多數(shù)可微編程的工作都是基于優(yōu)化的過(guò)程展開(kāi),然后尋找它和神經(jīng)網(wǎng)絡(luò)之間的關(guān)系。而我們這項(xiàng)工作是從目標(biāo)函數(shù)進(jìn)行變形得到一個(gè)前向式神經(jīng)網(wǎng)絡(luò)。

第四部分,是我們對(duì)于這些研究問(wèn)題的一些思考。

首先介紹一下可微編程是什么呢?簡(jiǎn)單來(lái)說(shuō),就是把神經(jīng)網(wǎng)絡(luò)當(dāng)成一種語(yǔ)言,而不是一個(gè)簡(jiǎn)單的機(jī)器學(xué)習(xí)的方法,從而描述我們客觀世界的概念以及概念之間的關(guān)系。這種觀點(diǎn)無(wú)限地提高了神經(jīng)網(wǎng)絡(luò)的地位。

LeCun曾在facebook的文章里說(shuō):”Deep Learning Is Dead. Long Live Differentiable Programming!” (深度學(xué)習(xí)已死,可微編程永生)。

具體的可微編程和現(xiàn)有的深度學(xué)習(xí)、機(jī)器學(xué)習(xí)又有什么關(guān)系呢?這里有一個(gè)簡(jiǎn)單的對(duì)比,在上圖中顯示的三個(gè)實(shí)體之間發(fā)生的三項(xiàng)關(guān)系。目前最流行的方法是用深度學(xué)習(xí)提取特征,然后結(jié)合機(jī)器學(xué)習(xí)的一些方法來(lái)解決實(shí)際當(dāng)中的一些問(wèn)題,也可以反過(guò)來(lái)用深度神經(jīng)網(wǎng)絡(luò)拿來(lái)直接生成數(shù)據(jù),也就是目前最火的生成式對(duì)抗網(wǎng)絡(luò)。

但我們可以發(fā)現(xiàn)缺失了一塊,也是目前可微編程做的主流工作。缺失的就是把現(xiàn)有的機(jī)器學(xué)習(xí)的方法轉(zhuǎn)化成等價(jià)的神經(jīng)網(wǎng)絡(luò),使得同時(shí)具有傳統(tǒng)的統(tǒng)計(jì)機(jī)器學(xué)習(xí)方法的可解釋性強(qiáng)以及深度神經(jīng)網(wǎng)絡(luò)性能較優(yōu)等優(yōu)點(diǎn)。

針對(duì)現(xiàn)實(shí)世界中的一些問(wèn)題,傳統(tǒng)的機(jī)器學(xué)習(xí)的方法思路是首先基于一些假設(shè)或者先驗(yàn)知識(shí)(比如稀疏編碼等),將其形式化成目標(biāo)函數(shù),再對(duì)其進(jìn)行優(yōu)化求解。但當(dāng)?shù)玫揭粋€(gè)新的目標(biāo)函數(shù)時(shí),我們還需要研究目標(biāo)函數(shù)數(shù)學(xué)上的性質(zhì)對(duì)其進(jìn)行優(yōu)化,如目前最流行的優(yōu)化方法--凸優(yōu)劃。

但是這樣做飽受詬病的一個(gè)原因就是可解釋不強(qiáng)。那可微編程可以做什么?其實(shí)就把神經(jīng)網(wǎng)絡(luò)直接當(dāng)成一種語(yǔ)言,直接用于替代問(wèn)題的描述或者說(shuō)抽象化問(wèn)題。這樣做的好處顯而易見(jiàn),首先,它易于優(yōu)化。只需要一個(gè)SGD或者SGD的變種,而不需要發(fā)展出非常復(fù)雜的優(yōu)化的算法。此外,它還易于計(jì)算。并且,它也能做端到端的學(xué)習(xí)。

在神經(jīng)網(wǎng)絡(luò)以深度學(xué)習(xí)為標(biāo)志復(fù)出之后,最早的可微編程的工作應(yīng)該是Yann LeCun的ISTA。求解稀疏編碼這個(gè)目標(biāo)函數(shù)的優(yōu)化方法有非常多,ISTA是其中非常有名的一個(gè)。上圖中間紅框標(biāo)注的公式就是ISTA的核心,具體細(xì)節(jié)可以閱讀文章《Learning fast approximations of sparse coding》。

觀察上圖中紅色方框的公式,可以看到Z是依賴(lài)于前一步的Z值。這在數(shù)學(xué)上就等價(jià)于一個(gè)動(dòng)力學(xué)系統(tǒng)或者一個(gè)迭代過(guò)程,而動(dòng)力學(xué)系統(tǒng)本質(zhì)上就是回復(fù)式神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)本質(zhì)。因此,進(jìn)一步地把右下角公式簡(jiǎn)單地變形等價(jià)成RNN,這是神經(jīng)網(wǎng)絡(luò)復(fù)出以來(lái)最為知名的一個(gè)可微編程的工作。

隨后有很多的進(jìn)展,比如2016年NIPS上的文章《Attend, Infer, Repeat: Fast Scene Understanding with Generative Models》關(guān)于生成模型的工作,這項(xiàng)工作也是目前比較熱門(mén)的研究。

另外,在2015的ICCV上《Conditional Random Fields as Recurrent Neural Networks》文章中提出,把條件隨機(jī)場(chǎng)的求解變形成了循環(huán)神經(jīng)網(wǎng)絡(luò)的相關(guān)運(yùn)算,在圖像語(yǔ)義分割上實(shí)現(xiàn)了突破。

在2016的TPAMI上《Learning to Diffuse: A New Perspective of Designing PDEs for Visual Analysis》文章中,提出的PDE工作在多個(gè)任務(wù)視覺(jué)上取得很好的效果。

在2016的TIP《Learning Iteration-wise Generalized Shrinkage-Thresholding Operators for Blind Deconvolution》里,針對(duì)盲卷積這個(gè)問(wèn)題,發(fā)展出能夠?qū)崿F(xiàn)稀疏編碼的回復(fù)神經(jīng)網(wǎng)絡(luò)。

在2016的IEEE TPAMI的《Trainable Nonlinear Reaction Diffusion: A Flexible Framework for Fast and Effective Image Restoration》文章中,對(duì)圖像重構(gòu)工作進(jìn)行了這方面研究。

在2016年的AAAI文章《Learning Deep ?0 Encoders》中對(duì)0范數(shù)的優(yōu)化問(wèn)題,進(jìn)行變形和等價(jià)建議的回復(fù)式神經(jīng)網(wǎng)絡(luò)。

在2015年TPAMI文章《Learning Efficient Sparse and Low Rank Models》中,對(duì)使用深度神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)稀疏模型和非負(fù)矩陣分解之間建模的回復(fù)式神經(jīng)網(wǎng)絡(luò)。

將這些研究進(jìn)行歸納總結(jié),就是把一些現(xiàn)有的統(tǒng)計(jì)機(jī)器學(xué)習(xí)方法,特別是現(xiàn)有的優(yōu)化過(guò)程展開(kāi),形成一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),且其中大多都是一個(gè)簡(jiǎn)單的回復(fù)式神經(jīng)網(wǎng)絡(luò)。從而使它能享有傳統(tǒng)機(jī)器學(xué)習(xí)的優(yōu)點(diǎn),比如端到端學(xué)習(xí),同時(shí)兼具易于優(yōu)化以及高可解釋性等優(yōu)點(diǎn)。

我相信這樣介紹大家可以有一個(gè)直觀的概念。目前可微編程就是對(duì)傳統(tǒng)的機(jī)器學(xué)習(xí)的一個(gè)逆向的過(guò)程,由于傳統(tǒng)的機(jī)器學(xué)習(xí)的結(jié)構(gòu)非常清晰,對(duì)逆向過(guò)程可以產(chǎn)生的神經(jīng)網(wǎng)絡(luò),就可以知道哪一個(gè)激活函數(shù)的作用是什么,每一層的輸出、目的是什么,這也是現(xiàn)有的深度學(xué)習(xí)方法所不具備的優(yōu)勢(shì)。

下面給大家介紹一下我們的第一個(gè)工作。我們這項(xiàng)工作從可微編程出發(fā),來(lái)研究稀疏編碼的優(yōu)化方法—ISTA 。

目前,常見(jiàn)的對(duì)L1范數(shù)優(yōu)化的方法具有四個(gè)局限性:

第一,在優(yōu)化過(guò)程中,對(duì)于每一個(gè)變量的更新都是采用固定的學(xué)習(xí)率。所以沒(méi)有考慮優(yōu)化變量的每個(gè)維度之間的不同。

第二, 這些優(yōu)化過(guò)程并沒(méi)有考慮歷史信息。但是在優(yōu)化這個(gè)研究鄰域里已經(jīng)有大量的工作證明如果考慮歷史信息,能夠加速算法的收斂。

基于這兩點(diǎn)不足,我們提出了自適應(yīng)的ISTA算法。

還有兩個(gè)不足是什么呢?

第三,在稀疏編碼推理過(guò)程中,計(jì)算代價(jià)很高。

第四,稀疏表示矩陣計(jì)算和字典學(xué)習(xí)是兩個(gè)分隔開(kāi)的步驟。但現(xiàn)在流行端到端的訓(xùn)練,也就是同時(shí)優(yōu)化步驟,這樣做可能會(huì)產(chǎn)生次優(yōu)的解。

而這兩個(gè)不足,正好是可微編程能夠克服的問(wèn)題。因此基于這些問(wèn)題,我們對(duì)自適應(yīng)的ISTA變形和展開(kāi)提出新的神經(jīng)網(wǎng)絡(luò)——SC2Net。

左邊是ISTA的關(guān)鍵的優(yōu)化步驟,基于此,我們引進(jìn)了動(dòng)量向量(i(t),f(t))。這就是標(biāo)準(zhǔn)的受益于現(xiàn)代的優(yōu)化的一些相關(guān)的方法,通過(guò)引入這兩個(gè)量,從而解決非自適應(yīng)更新問(wèn)題和沒(méi)有考慮歷史信息的不足。更進(jìn)一步來(lái)看,這里存在一個(gè)問(wèn)題,i(t),f(t)如果是兩個(gè)向量的話,只能確定它的值。使用傳統(tǒng)的機(jī)器學(xué)習(xí)方法進(jìn)行訓(xùn)練,我們?nèi)藶橹付ㄋ闹?。在研究中,發(fā)現(xiàn)可以把這兩個(gè)向量當(dāng)成兩個(gè)變量從數(shù)據(jù)中學(xué)習(xí),就產(chǎn)生了我們提出的自適應(yīng)ISTA。

同時(shí),我們還發(fā)現(xiàn)這種自適應(yīng)ISTA可以等價(jià)于新的長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)。具體來(lái)看,我們可以認(rèn)為i和f是等價(jià)于LSTM中的input gate 和output gate。但是需要注意的是,和經(jīng)典的LSTM相比,自適應(yīng)的ISTA是沒(méi)有output gate。

基于以上,我們就組建了Sparse LSTM,并且構(gòu)建了相應(yīng)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

接下來(lái),展示我們的實(shí)驗(yàn)結(jié)果。在無(wú)監(jiān)督和有監(jiān)督的特征提取的情況下,對(duì)網(wǎng)絡(luò)的分類(lèi)性能進(jìn)行驗(yàn)證。

接下來(lái)還進(jìn)行圖像重構(gòu),圖中顯示的是一個(gè)重構(gòu)的誤差,越黑就代表誤差越小。

我們還做了視頻當(dāng)中的異常事件的檢測(cè),給定一個(gè)圈,在圈中的都是正常事件,不在圈中的就是異常事件。接下來(lái)使用稀疏重構(gòu)系數(shù)作為指標(biāo),找到一定閾值,在這個(gè)范圍內(nèi)的都是正常事件,而不在其中的就是異常事件。

通過(guò)實(shí)驗(yàn)可以看到,我們的結(jié)果是目前是最好的異常事件檢測(cè)算法。

最后簡(jiǎn)單地概括一下,相對(duì)現(xiàn)有的可微編程,我們是將優(yōu)化的過(guò)程或者說(shuō)具體的基于LSTM優(yōu)化的過(guò)程和長(zhǎng)短期記憶網(wǎng)絡(luò),最后掌握了他們之間關(guān)系。這對(duì)可微編程有一些促進(jìn)的作用,也可以從另外一個(gè)角度理解長(zhǎng)短期記憶網(wǎng)絡(luò)。

剛才我們得到的網(wǎng)絡(luò)和標(biāo)準(zhǔn)的只有一個(gè)區(qū)別,就是我們沒(méi)有Output gate。

相關(guān)的代碼公開(kāi),大家可以掃描上圖中的二維碼。

第二個(gè)工作較之前更進(jìn)一步,是在聚類(lèi)這個(gè)背景下來(lái)擴(kuò)展,把k-means這個(gè)聚類(lèi)算法轉(zhuǎn)化成為一個(gè)前向式記憶網(wǎng)絡(luò)。不同于現(xiàn)有的可微編程的方法,它是從優(yōu)化的角度出發(fā),我們直接把k-means聚類(lèi)算法的目標(biāo)函數(shù)直接進(jìn)行變形,然后建立對(duì)應(yīng)的神經(jīng)網(wǎng)絡(luò)模型。

K-means是什么?

它是在機(jī)器學(xué)習(xí),計(jì)算機(jī)視覺(jué),數(shù)據(jù)挖掘中最為知名的一個(gè)算法。主要是利用數(shù)據(jù)之間的相似性或者不相似性,將數(shù)據(jù)分為多個(gè)簇。最近一二十年,整個(gè)聚類(lèi)的研究領(lǐng)域主要關(guān)注的是高維數(shù)據(jù)的聚類(lèi),本質(zhì)上就是機(jī)器學(xué)習(xí)的共性問(wèn)題-——線性不可分的問(wèn)題。

為了解決這個(gè)問(wèn)題,基于核聚類(lèi)算法,譜聚類(lèi),子空間聚類(lèi)方法,以及近期基于深度神經(jīng)網(wǎng)絡(luò)的聚類(lèi)方法,這些方法都是在解決這個(gè)線性不可分的問(wèn)題。

現(xiàn)有的高維聚類(lèi)方法可以簡(jiǎn)單地概括成這個(gè)圖。它們都是用表示學(xué)習(xí)的方法將不可分的數(shù)據(jù)投影到另外一個(gè)線性可分的空間中,然后再進(jìn)行聚類(lèi)。而且現(xiàn)有的研究工作主要都是關(guān)注在如何學(xué)到一個(gè)好的表示。大家都知道,目前深度學(xué)習(xí)已經(jīng)成為最為有效的表示學(xué)習(xí)方法之一,一定意義上可以把“之一”去掉,特別是在數(shù)據(jù)量較多的情況下。

因此,我們就認(rèn)為如果表示學(xué)習(xí)能夠用深度神經(jīng)網(wǎng)絡(luò)來(lái)解決,我們是不是要考慮更多的研究能夠?qū)崿F(xiàn)聚類(lèi)的神經(jīng)網(wǎng)絡(luò)。但是讓我們驚訝的是,目前非常少的工作研究能以一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)聚類(lèi)的,寥寥可數(shù),比較知名一點(diǎn)的比如說(shuō)自組織映射。

受這個(gè)觀察的啟發(fā),我們思考計(jì)劃從可微編程的角度對(duì)經(jīng)典的算法進(jìn)行變形,從而形成一個(gè)新的神經(jīng)網(wǎng)絡(luò),從而解決上述的痛點(diǎn)。

這里的公式是k-means的目標(biāo)函數(shù),其中x是輸入,Ω是第j個(gè)聚類(lèi)的中心。我們最終的目標(biāo)是最小化不同類(lèi)別之間的相似性,最大化相同類(lèi)別之間的相似性。

通過(guò)對(duì)k-means目標(biāo)函數(shù)簡(jiǎn)單的變形,其實(shí)本質(zhì)上只是把標(biāo)簽只能分配到某一個(gè)聚類(lèi)空間的約束去掉,轉(zhuǎn)變成了輸入Xi在第j個(gè)聚類(lèi)中心的概率。

如右圖所示的簡(jiǎn)單變形得到公式(6)和(7),并且我們發(fā)現(xiàn)這兩個(gè)公式是可以等價(jià)為一個(gè)簡(jiǎn)潔的前向式神經(jīng)網(wǎng)絡(luò)。

如果大家只看左邊的神經(jīng)網(wǎng)絡(luò),大家可能會(huì)覺(jué)得非常不稀奇,好像就是一個(gè)很簡(jiǎn)單的Sigmoid函數(shù),再加上一個(gè)隱含層的神經(jīng)網(wǎng)絡(luò)。但是如果結(jié)合右邊的公式來(lái)看,就會(huì)發(fā)現(xiàn),這么簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)是等價(jià)于K-means的。

我們?cè)谙嚓P(guān)的一些數(shù)據(jù)集上進(jìn)行驗(yàn)證,比如說(shuō)我們使用數(shù)據(jù)mnist和CIFAR10驗(yàn)證神經(jīng)網(wǎng)絡(luò),取得了非常好的效果。

接著我們使用CIFAR100數(shù)據(jù)的20個(gè)子集進(jìn)行驗(yàn)證,也是取得很不錯(cuò)的結(jié)果。

同時(shí)我們還考慮使用CNN來(lái)發(fā)現(xiàn)特征,可以得到超過(guò)93%的距離精確度。所以得出一個(gè)結(jié)論,我們的算法對(duì)于距離中心的初始化方法是非常棒的。

這個(gè)工作和現(xiàn)有的可微編程不同主要是兩點(diǎn):

第一,我們的研究思路是從目標(biāo)出發(fā),而不是從優(yōu)化過(guò)程出發(fā)進(jìn)行研究

第二,我們得到的是前向式神經(jīng)網(wǎng)絡(luò),而不是回復(fù)式的神經(jīng)網(wǎng)絡(luò)。

接下來(lái)給大家分享一下我和我的合作伙伴的一些思考。

目前,深度學(xué)習(xí)的研究主要是對(duì)通過(guò)對(duì)一些算法的性能指標(biāo)不斷地試錯(cuò),最后確定整個(gè)網(wǎng)絡(luò)的結(jié)構(gòu)以及相關(guān)的超參,這也是深度學(xué)習(xí)最為詬病的一點(diǎn)。

現(xiàn)在深度神經(jīng)網(wǎng)絡(luò)已經(jīng)占據(jù)了絕對(duì)的優(yōu)勢(shì),可微編程提供了從高解釋性的角度去做這件事,它是將神經(jīng)網(wǎng)絡(luò)作為一種語(yǔ)言,將傳統(tǒng)的算法轉(zhuǎn)化成神經(jīng)網(wǎng)絡(luò)以后,一定程度上緩解了一些深度學(xué)習(xí)的不足。

下一步可微編程做什么?現(xiàn)在的可微編程是對(duì)傳統(tǒng)的繼續(xù)學(xué)習(xí)方法的等價(jià)或者一種替代物。從問(wèn)題的描述,再到問(wèn)題的建模、求解,這是一個(gè)很復(fù)雜的過(guò)程。如果我們對(duì)傳統(tǒng)的學(xué)習(xí)的方法,在一定的假設(shè)和前提下已經(jīng)有建好的建模,我們建立等價(jià)的神經(jīng)網(wǎng)絡(luò),其實(shí)就能走出最容易的一步。

在未來(lái),如果我們真的要貫徹可微編程,就是把它當(dāng)成一種語(yǔ)言。神經(jīng)網(wǎng)絡(luò)應(yīng)該更進(jìn)一步,應(yīng)該直接對(duì)問(wèn)題進(jìn)行建模,也就是對(duì)我們的物理現(xiàn)象進(jìn)行建模,并且傳統(tǒng)的統(tǒng)計(jì)機(jī)器學(xué)習(xí)方法有一些先驗(yàn)知識(shí),進(jìn)而解決我們的一些實(shí)際問(wèn)題。

可能這是更接近于做人工智能這個(gè)領(lǐng)域的一個(gè)更貼切的思路。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:可微編程:打開(kāi)深度學(xué)習(xí)的黑盒子

文章出處:【微信號(hào):deeplearningclass,微信公眾號(hào):深度學(xué)習(xí)大講堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T(mén)還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見(jiàn)錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?201次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    AI賦能電網(wǎng)規(guī)劃,開(kāi)啟智能新時(shí)代

    ,為電網(wǎng)規(guī)劃注入了“智慧基因”,推動(dòng)規(guī)劃過(guò)程從“靜態(tài)估算”轉(zhuǎn)向“動(dòng)態(tài)預(yù)判”,從“單點(diǎn)優(yōu)化”邁向“全局協(xié)同”,開(kāi)啟了電網(wǎng)智能規(guī)劃的全新時(shí)代。
    的頭像 發(fā)表于 01-05 14:36 ?346次閱讀
    AI賦能<b class='flag-5'>微</b>電網(wǎng)規(guī)劃,開(kāi)啟智能新<b class='flag-5'>時(shí)代</b>

    穿孔機(jī)頂頭檢測(cè)儀 機(jī)器視覺(jué)深度學(xué)習(xí)

    LX01Z-DG626穿孔機(jī)頂頭檢測(cè)儀采用深度學(xué)習(xí)技術(shù),能夠?qū)崿F(xiàn)頂頭狀態(tài)的在線實(shí)時(shí)檢測(cè),頂頭丟失報(bào)警,頂頭異常狀態(tài)報(bào)警等功能,響應(yīng)迅速,異常狀態(tài)視頻回溯,檢測(cè)頂頭溫度,配備吹掃清潔系統(tǒng),維護(hù)周期長(zhǎng)
    發(fā)表于 12-22 14:33

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    企業(yè)。利用LabVIEW開(kāi)發(fā)了“UVisionBuilder1.0”免編程視覺(jué)通用軟件,目前已被多家自動(dòng)化設(shè)備公司采購(gòu),累計(jì)銷(xiāo)售量500余套。 **點(diǎn)擊參與團(tuán)購(gòu)**:從0到1,史上最全!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)全套教程(1
    發(fā)表于 12-04 09:28

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿(mǎn)足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動(dòng)化領(lǐng)域主流開(kāi)發(fā)環(huán)境,LabVIEW與深度學(xué)習(xí)的集成
    發(fā)表于 12-03 13:50

    如何深度學(xué)習(xí)機(jī)器視覺(jué)的應(yīng)用場(chǎng)景

    深度學(xué)習(xí)視覺(jué)應(yīng)用場(chǎng)景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測(cè):處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類(lèi):對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類(lèi) 外觀質(zhì)量評(píng)估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?225次閱讀

    創(chuàng)客匠人創(chuàng)始人IP+AI萬(wàn)人大會(huì)次日:深度探討AI時(shí)代IP價(jià)值重塑與持續(xù)增長(zhǎng)路徑

    2025年11月23日,全球創(chuàng)始人IP+AI萬(wàn)人高峰論壇進(jìn)入第二日議程。在廈門(mén)海峽大劇院,數(shù)千名創(chuàng)始人、企業(yè)家及行業(yè)領(lǐng)袖齊聚,圍繞“AI時(shí)代的IP價(jià)值重構(gòu)”“數(shù)字時(shí)代的終身學(xué)習(xí)”及“
    的頭像 發(fā)表于 11-24 13:10 ?248次閱讀
    創(chuàng)客匠人創(chuàng)始人IP+AI萬(wàn)人大會(huì)次日:<b class='flag-5'>深度</b>探討AI<b class='flag-5'>時(shí)代</b>IP價(jià)值重塑與<b class='flag-5'>可</b>持續(xù)增長(zhǎng)路徑

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)定位已訓(xùn)練的目標(biāo)類(lèi)別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“
    的頭像 發(fā)表于 09-10 17:38 ?905次閱讀
    如何在機(jī)器視覺(jué)中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    成都華赴賽力斯開(kāi)展技術(shù)交流學(xué)習(xí)

    近日,成都華微電子科技股份有限公司(以下簡(jiǎn)稱(chēng)成都華)副總經(jīng)理朱志勇、董事會(huì)秘書(shū)李春妍帶領(lǐng)公司核心研發(fā)團(tuán)隊(duì),赴重慶賽力斯技術(shù)有限公司(以下簡(jiǎn)稱(chēng)賽力斯)開(kāi)展技術(shù)交流學(xué)習(xí),旨在對(duì)標(biāo)先進(jìn),推動(dòng)成都華優(yōu)勢(shì)技術(shù)與前沿應(yīng)用領(lǐng)域的
    的頭像 發(fā)表于 08-22 14:30 ?1539次閱讀

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過(guò)模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級(jí)能力。以下從技術(shù)賦能、場(chǎng)景突破
    的頭像 發(fā)表于 08-20 14:56 ?1033次閱讀

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿信公眾號(hào)]近年來(lái),隨著ChatGPT、Claude、文心一言等大語(yǔ)言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4188次閱讀
    自動(dòng)駕駛中Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    瑞芯NPU使用攻略

    核心要點(diǎn):定義與功能硬件加速單元:RKNPU是集成在瑞芯芯片中的專(zhuān)用NPU,專(zhuān)注于加速深度學(xué)習(xí)算法,如圖像識(shí)別、目標(biāo)檢測(cè)、語(yǔ)音處理等,同時(shí)優(yōu)化功耗與性能平衡。支
    的頭像 發(fā)表于 05-21 15:50 ?2850次閱讀
    瑞芯<b class='flag-5'>微</b>NPU使用攻略

    大模型時(shí)代深度學(xué)習(xí)框架

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 在 CNN時(shí)代 ,AI模型的參數(shù)規(guī)模都在百萬(wàn)級(jí)別,僅需在單張消費(fèi)類(lèi)顯卡上即可完成訓(xùn)練。例如,以業(yè)界知名的CNN模型: ResNet50 為例,模型參數(shù)
    的頭像 發(fā)表于 04-25 11:43 ?846次閱讀
    大模型<b class='flag-5'>時(shí)代</b>的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>框架

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過(guò)程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以深度理解數(shù)據(jù)中所要表示的規(guī)律。從原理上看,使用
    的頭像 發(fā)表于 04-02 18:21 ?1522次閱讀

    廠家芯資訊|WTK6900系列語(yǔ)音識(shí)別芯片自學(xué)習(xí)功能深度答疑

    在智能硬件全面擁抱語(yǔ)音交互的時(shí)代,廣州唯創(chuàng)電子WTK6900系列芯片憑借其獨(dú)特的離線自學(xué)習(xí)能力,已成為智能家居、工業(yè)控制等領(lǐng)域的核心交互模塊。本文針對(duì)實(shí)際應(yīng)用中的高頻問(wèn)題,深度解析故障排除方法與優(yōu)化
    的頭像 發(fā)表于 03-20 09:13 ?835次閱讀
    廠家芯資訊|WTK6900系列語(yǔ)音識(shí)別芯片自<b class='flag-5'>學(xué)習(xí)</b>功能<b class='flag-5'>深度</b>答疑