91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

卷積神經(jīng)網(wǎng)絡(luò)的詳細介紹

電子設(shè)計 ? 來源:電子設(shè)計 ? 作者:電子設(shè)計 ? 2020-12-25 16:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一種前饋神經(jīng)網(wǎng)絡(luò),它的人工神經(jīng)元可以響應(yīng)一部分覆蓋范圍內(nèi)的周圍單元,對于大型圖像處理有出色表現(xiàn)。 它包括卷積層(convolutional layer)和池化層(pooling layer)。

對比:卷積神經(jīng)網(wǎng)絡(luò)、全連接神經(jīng)網(wǎng)絡(luò)

左圖:全連接神經(jīng)網(wǎng)絡(luò)(平面),組成:輸入層、激活函數(shù)、全連接層

右圖:卷積神經(jīng)網(wǎng)絡(luò)(立體),組成:輸入層、卷積層、激活函數(shù)、池化層、全連接層

在卷積神經(jīng)網(wǎng)絡(luò)中有一個重要的概念:深度

卷積層

卷積:在原始的輸入上進行特征的提取。特征提取簡言之就是,在原始輸入上一個小區(qū)域一個小區(qū)域進行特征的提取,稍后細致講解卷積的計算過程。

上圖中,左方塊是輸入層,尺寸為32*32的3通道圖像。右邊的小方塊是filter,尺寸為5*5,深度為3。將輸入層劃分為多個區(qū)域,用filter這個固定尺寸的助手,在輸入層做運算,最終得到一個深度為1的特征圖。

上圖中,展示出一般使用多個filter分別進行卷積,最終得到多個特征圖。

上圖使用了6個filter分別卷積進行特征提取,最終得到6個特征圖。將這6層疊在一起就得到了卷積層輸出的結(jié)果。

卷積不僅限于對原始輸入的卷積。藍色方塊是在原始輸入上進行卷積操作,使用了6個filter得到了6個提取特征圖。綠色方塊還能對藍色方塊進行卷積操作,使用了10個filter得到了10個特征圖。每一個filter的深度必須與上一層輸入的深度相等。

直觀理解卷積

以上圖為例:

第一次卷積可以提取出低層次的特征。

第二次卷積可以提取出中層次的特征。

第三次卷積可以提取出高層次的特征。

特征是不斷進行提取和壓縮的,最終能得到比較高層次特征,簡言之就是對原式特征一步又一步的濃縮,最終得到的特征更可靠。利用最后一層特征可以做各種任務(wù):比如分類、回歸等。

卷積計算流程

左區(qū)域的三個大矩陣是原式圖像的輸入,RGB三個通道用三個矩陣表示,大小為7*7*3。

Filter W0表示1個filter助手,尺寸為3*3,深度為3(三個矩陣);Filter W1也表示1個filter助手。因為卷積中我們用了2個filter,因此該卷積層結(jié)果的輸出深度為2(綠色矩陣有2個)。

Bias b0是Filter W0的偏置項,Bias b1是Filter W1的偏置項。

OutPut是卷積后的輸出,尺寸為3*3,深度為2。

計算過程:

輸入是固定的,filter是指定的,因此計算就是如何得到綠色矩陣。第一步,在輸入矩陣上有一個和filter相同尺寸的滑窗,然后輸入矩陣的在滑窗里的部分與filter矩陣對應(yīng)位置相乘:

第二步,將3個矩陣產(chǎn)生的結(jié)果求和,并加上偏置項,即0+2+0+1=3,因此就得到了輸出矩陣的左上角的3:

第三步,讓每一個filter都執(zhí)行這樣的操作,變可得到第一個元素:

第四步,滑動窗口2個步長,重復(fù)之前步驟進行計算

第五步,最終可以得到,在2個filter下,卷積后生成的深度為2的輸出結(jié)果:

思考:

①為什么每次滑動是2個格子?

滑動的步長叫stride記為S。S越小,提取的特征越多,但是S一般不取1,主要考慮時間效率的問題。S也不能太大,否則會漏掉圖像上的信息。

②由于filter的邊長大于S,會造成每次移動滑窗后有交集部分,交集部分意味著多次提取特征,尤其表現(xiàn)在圖像的中間區(qū)域提取次數(shù)較多,邊緣部分提取次數(shù)較少,怎么辦?

一般方法是在圖像外圍加一圈0,細心的同學可能已經(jīng)注意到了,在演示案例中已經(jīng)加上這一圈0了,即+pad 1。 +pad n表示加n圈0.

③一次卷積后的輸出特征圖的尺寸是多少呢?

請計算上圖中Output=?

注意:在一層卷積操作里可以有多個filter,他們是尺寸必須相同。

卷積參數(shù)共享原則

在卷積神經(jīng)網(wǎng)絡(luò)中,有一個非常重要的特性:權(quán)值共享。

所謂的權(quán)值共享就是說,給一張輸入圖片,用一個filter去掃這張圖,filter里面的數(shù)就叫權(quán)重,這張圖每個位置是被同樣的filter掃的,所以權(quán)重是一樣的,也就是共享。

池化層

上圖顯示,池化就是對特征圖進行特征壓縮,池化也叫做下采樣。選擇原來某個區(qū)域的max或mean代替那個區(qū)域,整體就濃縮了。下面演示一下pooling操作,需要制定一個filter的尺寸、stride、pooling方式(max或mean):

卷積神經(jīng)網(wǎng)絡(luò)的組成

卷積——激活——卷積——激活——池化——......——池化——全連接——分類或回歸

前向傳播與反向傳播

之前已經(jīng)講解了卷積層前向傳播過程,這里通過一張圖再回顧一下:

下面講解卷積層的反向傳播過程:

反向傳播的目的:更新參數(shù)w。因此要先算出dJ/dw。假設(shè)上一層會傳過來一個梯度dJ/dout,根據(jù)鏈式求導(dǎo)法則,因此dJ/dw = dJ/dout * dout/dw =dJ/dout * x 。在計算機中方便為變量命名的緣故,將dJ/dout記為dout,dJ/dw記為dw,即圖中的情況。后面也用這個記號來講。

首先要清楚:dw 和 w 的尺寸是一樣的。一個點乘以一個區(qū)域還能得到一個區(qū)域。那么反向傳播過程就相當于:用dout中的一個元素乘以輸入層劃窗里的矩陣便得到一個dw矩陣;然后滑動滑窗,繼續(xù)求下一個dw,依次下去,最后將得到的多個dw相加,執(zhí)行 w = w - dw 就完成了反向傳播的計算。

上面的反向傳播可以更新一個filter中的參數(shù),還要求其他的filter。

下面用圖示來看一下2種不同的pooling過程——池化層的前向傳播:

在池化層進行反向傳播時,max-pooling和mean-pooling的方式也采用不同的方式。

對于max-pooling,在前向計算時,是選取的每個2*2區(qū)域中的最大值,這里需要記錄下最大值在每個小區(qū)域中的位置。在反向傳播時,只有那個最大值對下一層有貢獻,所以將殘差傳遞到該最大值的位置,區(qū)域內(nèi)其他2*2-1=3個位置置零。具體過程如下圖,其中4*4矩陣中非零的位置即為前邊計算出來的每個小區(qū)域的最大值的位置

對于mean-pooling,我們需要把殘差平均分成2*2=4份,傳遞到前邊小區(qū)域的4個單元即可。具體過程如圖:

卷積網(wǎng)絡(luò)架構(gòu)實例

VGGNet深度更多,有很多卷積層和池化層。一個版本有16層,另一個版本有19層(較常用)。

VGGNet的特點:

filter只有3*3的,意味著計算的特征較多,粒度更細。同時pooling的參數(shù)也有固定。

注意:傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)層數(shù)越多并以意味著效果更好。而在2016年推出了深度殘差網(wǎng)絡(luò)達到了152層。后續(xù)講介紹。

那么訓(xùn)練一個VGGNet有多少內(nèi)存開銷呢?

從圖可得知,訓(xùn)練過程中一張224*224*3的圖像會有138M個參數(shù)會占93MB的內(nèi)存。因此每個batch中圖像的數(shù)目應(yīng)該受內(nèi)存的約束,即 93*圖像數(shù)目<內(nèi)存總?cè)萘俊?/p>

審核編輯:符乾江
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1819

    文章

    50213

    瀏覽量

    266487
  • 智能計算
    +關(guān)注

    關(guān)注

    0

    文章

    199

    瀏覽量

    17090
  • 卷積神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    4

    文章

    372

    瀏覽量

    12897
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    神經(jīng)網(wǎng)絡(luò)的初步認識

    日常生活中的智能應(yīng)用都離不開深度學習,而深度學習則依賴于神經(jīng)網(wǎng)絡(luò)的實現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大腦中神經(jīng)
    的頭像 發(fā)表于 12-17 15:05 ?421次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認識

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個啥?

    在自動駕駛領(lǐng)域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學習模型。CNN在圖像處理中尤其常見,因為圖像本身就可以看作是由像
    的頭像 發(fā)表于 11-19 18:15 ?2174次閱讀
    自動駕駛中常提的<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個啥?

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計原理及在MCU200T上仿真測試

    CNN算法簡介 我們硬件加速器的模型為Lenet-5的變型,網(wǎng)絡(luò)粗略分共有7層,細分共有13層。包括卷積,最大池化層,激活層,扁平層,全連接層。下面是各層作用介紹卷積層:提取
    發(fā)表于 10-29 07:49

    NMSISI庫的使用

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接層函數(shù)   神經(jīng)網(wǎng)絡(luò)池化函數(shù)   Softmax 函數(shù)   神經(jīng)網(wǎng)絡(luò)支持功能
    發(fā)表于 10-29 07:07

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接層函數(shù)   神經(jīng)網(wǎng)絡(luò)池化函數(shù)   Softmax 函數(shù)   神經(jīng)網(wǎng)絡(luò)支持功能
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    整個模型非常巨大。所以要想實現(xiàn)輕量級的CNN神經(jīng)網(wǎng)絡(luò)模型,首先應(yīng)該避免嘗試單層神經(jīng)網(wǎng)絡(luò)。 2)減少卷積核的大?。篊NN神經(jīng)網(wǎng)絡(luò)是通過權(quán)值共享的方式,利用
    發(fā)表于 10-28 08:02

    卷積運算分析

    的數(shù)據(jù),故設(shè)計了ConvUnit模塊實現(xiàn)單個感受域規(guī)模的卷積運算. 卷積運算:不同于數(shù)學當中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡(luò)中的卷積嚴格意義
    發(fā)表于 10-28 07:31

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識別。一旦模型被訓(xùn)練并保存,就可以用于對新圖像進行推理和預(yù)測。要使用生成的模型進行推理,可以按照以下步驟進行操作: 1.
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    讀取。接下來需要使用擴展指令,完成神經(jīng)網(wǎng)絡(luò)的部署,此處僅對第一層卷積+池化的部署進行說明,其余層與之類似。 1.使用 Custom_Dtrans 指令,將權(quán)重數(shù)據(jù)、輸入數(shù)據(jù)導(dǎo)入硬件加速器內(nèi)。對于權(quán)重
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1459次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計算方式面臨著巨大的挑戰(zhàn),如計算速度慢、訓(xùn)練時間長等
    的頭像 發(fā)表于 09-17 13:31 ?1245次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計算與加速技術(shù)

    卷積神經(jīng)網(wǎng)絡(luò)如何監(jiān)測皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡(luò)
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    無刷電機小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來實現(xiàn)轉(zhuǎn)角預(yù)測,并采用改進遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機故障診斷中的應(yīng)用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進行自學習、自適應(yīng)的問題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機
    發(fā)表于 06-16 22:09

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個神經(jīng)網(wǎng)絡(luò)已經(jīng)通過python或者MATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1429次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析