91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

淺析人工智能的卷積神經(jīng)網(wǎng)絡(luò)與圖像處理

電子工程師 ? 來(lái)源:eetrend ? 作者:demi ? 2019-11-02 11:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人工智能深度學(xué)習(xí)技術(shù)中,有一個(gè)很重要的概念就是卷積神經(jīng)網(wǎng)絡(luò) CNN(Convolutional Neural Networks)。

卷積神經(jīng)網(wǎng)絡(luò)被廣泛地運(yùn)用到計(jì)算機(jī)視覺中,用于提取圖像數(shù)據(jù)的特征,其中發(fā)揮關(guān)鍵作用的步驟就是卷積層中的卷積運(yùn)算。

卷積到底是什么?深度學(xué)習(xí)中的卷積運(yùn)算與傳統(tǒng)的信號(hào)與系統(tǒng)中的卷積算子有什么不同?為什么卷積運(yùn)算可以提取圖像的特征呢?下3分鐘帶你讀懂卷積運(yùn)算與圖像處理。

了解卷積運(yùn)算

卷積神經(jīng)網(wǎng)絡(luò)中的核心即為 卷積運(yùn)算,其相當(dāng)于圖像處理中的 濾波器運(yùn)算。對(duì)于一個(gè) m×n大小的卷積核:

卷積一詞最開始出現(xiàn)在信號(hào)與系統(tǒng)中,是指兩個(gè)原函數(shù)產(chǎn)生一個(gè)新的函數(shù)的一種算子。

卷積運(yùn)算在運(yùn)算過程可以概括為翻轉(zhuǎn)、平移再加權(quán)求和三個(gè)步驟,其中的加權(quán)求和就是乘加操作。

另外,卷積運(yùn)算還有一個(gè)重要的特性:空間域卷積=頻域乘積,這一點(diǎn)可以解釋為什么卷積運(yùn)算可以自動(dòng)地提取圖像的特征。

在卷積神經(jīng)網(wǎng)絡(luò)中,對(duì)數(shù)字圖像做卷積操作其實(shí)就是利用卷積核(黃底部分)在圖像(綠底部分)上滑動(dòng),將圖像上的像素灰度值與對(duì)應(yīng)卷積核上的數(shù)值相乘,然后將所有相乘后的值相加作為此時(shí)的輸出值(紅底部分),并最終滑動(dòng)遍歷完整副圖像的過程。

動(dòng)圖來(lái)源于stanford.edu, Feature extraction using convolution

仔細(xì)觀察上述動(dòng)圖,圖像中的卷積操作相比于信號(hào)與系統(tǒng)中的卷積少了點(diǎn)什么?

我們可以看到,圖像中卷積的計(jì)算過程只有平移和乘加兩個(gè)步驟,相對(duì)于信號(hào)與系統(tǒng)的卷積算子缺少了翻轉(zhuǎn)。

那么,圖像的卷積操作是否需要進(jìn)行翻轉(zhuǎn)呢?

事實(shí)上,深度學(xué)習(xí)中卷積核是無(wú)需進(jìn)行翻轉(zhuǎn)的,因?yàn)榫矸e核中的所有權(quán)重都是隨機(jī)初始化,開始不是確定的。網(wǎng)絡(luò)每次更新迭代都是為了尋找一個(gè)最合適的卷積核權(quán)重值,所以是否翻轉(zhuǎn)也就無(wú)關(guān)緊要了。除此之外,圖像處理中的卷積核一般是對(duì)稱的,翻轉(zhuǎn)也就顯得不那么必要。

卷積神經(jīng)網(wǎng)絡(luò)被廣泛運(yùn)用到計(jì)算機(jī)視覺的最大一個(gè)原因,就是卷積層可以自動(dòng)地提取圖像特征。

提取圖像特征

圖像中的特征通常指代圖像中物體的輪廓與紋理信息,而通常物體的細(xì)節(jié)(可以簡(jiǎn)單地理解為圖像中像素點(diǎn)灰度值變換緩慢的地方)帶來(lái)的信息量較少。我們通常所說(shuō)的圖像特征提取的過程是在保留圖像輪廓和紋理的同時(shí),去掉冗余信息的過程。

物體輪廓

物體紋理,圖片來(lái)源The Berkeley Segmentation Dataset and Benchmark

那么如何區(qū)分圖像的特征與圖像的冗余信息量呢?

如下面這幅人物圖像,如果我們不對(duì)原始圖像做處理,很難將圖像的特征與冗余信息量區(qū)分開來(lái)。

我們可以換一個(gè)角度,不從時(shí)空區(qū)域來(lái)區(qū)分,而是抓住圖像細(xì)節(jié)和圖像輪廓紋理的頻率不一樣這一特征,把一副圖像放在頻域中以區(qū)分圖像的細(xì)節(jié)與圖像的輪廓紋理。

我們將這幅人物圖像(左)轉(zhuǎn)換到頻域中的該圖像(右),離中心點(diǎn)越近的分量頻率越低,離中心點(diǎn)越遠(yuǎn)的分量頻率越高。

原圖

頻域圖像,圖片來(lái)源CMU, Computational Photography, Fall 2019

現(xiàn)在我們將用一個(gè)模板來(lái)分離高低頻分量。

如左圖所示的模板1中,其數(shù)值取值范圍為0到1。模板中的點(diǎn)越黑其數(shù)值越接近于0,越白越接近于1.

將模板1與頻域圖像相乘后,就可以只保留高頻部分去除離中心點(diǎn)較近的低頻分量,再將圖像轉(zhuǎn)換回到空間域中,可以看到圖像的高頻分量(右)是輪廓和紋理特征。

模板1

高頻分量,圖片來(lái)源:CMU, Computational Photography, Fall 2019

同樣的操作方式,將模板2與頻域圖像相乘,頻域圖中的低頻分量可以被選取出來(lái),再將低頻分量轉(zhuǎn)到空間域中,可以看到低頻分量代表著細(xì)節(jié)特征。這時(shí)我們就可以成功地將圖像的輪廓紋理細(xì)節(jié)信息從頻率的角度分開來(lái)了。

模板2

低頻分量,圖片來(lái)源CMU, Computational Photography, Fall 2019

以上處理過程,實(shí)際就是在頻域中將模板與頻域圖像相乘,以區(qū)分圖像輪廓紋理與細(xì)節(jié)信息的過程。

而頻域相乘就等于空間域卷積,這是剛才提及到的卷積的重要特性。那么上述在頻域中的操作等同于空間中的圖像與空間域中的模板做卷積,這樣從頻域的角度,就可以解釋卷積操作能夠提取圖像特征的原因。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識(shí)

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大
    的頭像 發(fā)表于 12-17 15:05 ?323次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識(shí)

    自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個(gè)啥?

    在自動(dòng)駕駛領(lǐng)域,經(jīng)常會(huì)聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡(jiǎn)稱為CNN,是一種專門用來(lái)處理網(wǎng)格狀數(shù)據(jù)(比如
    的頭像 發(fā)表于 11-19 18:15 ?2076次閱讀
    自動(dòng)駕駛中常提的<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個(gè)啥?

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測(cè)試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時(shí)的梯度耗散問題。當(dāng)x&gt;0 時(shí),梯度恒為1,無(wú)梯度耗散問題,收斂快;當(dāng)x&lt;0 時(shí),該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    NMSIS NN 軟件庫(kù)是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫(kù)分為多個(gè)功能,每個(gè)功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    卷積運(yùn)算分析

    的數(shù)據(jù),故設(shè)計(jì)了ConvUnit模塊實(shí)現(xiàn)單個(gè)感受域規(guī)模的卷積運(yùn)算. 卷積運(yùn)算:不同于數(shù)學(xué)當(dāng)中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡(luò)中的卷積嚴(yán)格意義
    發(fā)表于 10-28 07:31

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識(shí)別。一旦模型被訓(xùn)練并保存,就可以用于對(duì)新圖像進(jìn)行推理和預(yù)測(cè)。要使用生成的模型進(jìn)行推理,可以按照以下步驟進(jìn)行操作: 1.
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    讀取。接下來(lái)需要使用擴(kuò)展指令,完成神經(jīng)網(wǎng)絡(luò)的部署,此處僅對(duì)第一層卷積+池化的部署進(jìn)行說(shuō)明,其余層與之類似。 1.使用 Custom_Dtrans 指令,將權(quán)重?cái)?shù)據(jù)、輸入數(shù)據(jù)導(dǎo)入硬件加速器內(nèi)。對(duì)于權(quán)重
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    神經(jīng)元,但卻能產(chǎn)生復(fù)雜的行為。受此啟發(fā),與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)相比,LNN旨在通過模擬大腦中神經(jīng)元之間的動(dòng)態(tài)連接來(lái)處理信息,這種網(wǎng)絡(luò)能夠順序
    的頭像 發(fā)表于 09-28 10:03 ?1198次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計(jì)算方式面臨著巨大的挑戰(zhàn),如計(jì)算速度慢、訓(xùn)練時(shí)間長(zhǎng)等
    的頭像 發(fā)表于 09-17 13:31 ?1124次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能

    nRF52805),只占用幾千字節(jié)的非易失性存儲(chǔ)器(NVM)。這使得以前被認(rèn)為不可能的應(yīng)用也能增加 ML 功能。例如,您現(xiàn)在可以在廣泛的傳感器網(wǎng)絡(luò)的每個(gè)節(jié)點(diǎn)上進(jìn)行人工智能處理,而在這種網(wǎng)絡(luò)
    發(fā)表于 08-31 20:54

    卷積神經(jīng)網(wǎng)絡(luò)如何監(jiān)測(cè)皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡(luò)
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    MAX78000采用超低功耗卷積神經(jīng)網(wǎng)絡(luò)加速度計(jì)的人工智能微控制器技術(shù)手冊(cè)

    人工智能(AI)需要超強(qiáng)的計(jì)算能力,而Maxim則大大降低了AI計(jì)算所需的功耗。MAX78000是一款新型的AI微控制器,使神經(jīng)網(wǎng)絡(luò)能夠在互聯(lián)網(wǎng)邊緣端以超低功耗運(yùn)行,將高能效的AI處理與經(jīng)過驗(yàn)證
    的頭像 發(fā)表于 05-08 11:42 ?985次閱讀
    MAX78000采用超低功耗<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>加速度計(jì)的<b class='flag-5'>人工智能</b>微控制器技術(shù)手冊(cè)

    MAX78002帶有低功耗卷積神經(jīng)網(wǎng)絡(luò)加速器的人工智能微控制器技術(shù)手冊(cè)

    人工智能(AI)需要超強(qiáng)的計(jì)算能力,而Maxim則大大降低了AI計(jì)算所需的功耗。MAX78002是一款新型的AI微控制器,使神經(jīng)網(wǎng)絡(luò)能夠在互聯(lián)網(wǎng)邊緣端以超低功耗運(yùn)行,將高能效的AI處理與經(jīng)過驗(yàn)證
    的頭像 發(fā)表于 05-08 10:16 ?844次閱讀
    MAX78002帶有低功耗<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>加速器的<b class='flag-5'>人工智能</b>微控制器技術(shù)手冊(cè)

    開售RK3576 高性能人工智能主板

    ZYSJ-2476B 高性能智能主板,采用瑞芯微 RK3576 高性能 AI 處理器、神經(jīng)網(wǎng)絡(luò)處理器 NPU, Android 14.0/debian11/ubuntu20.04 操
    發(fā)表于 04-23 10:55

    自動(dòng)駕駛感知系統(tǒng)中卷積神經(jīng)網(wǎng)絡(luò)原理的疑點(diǎn)分析

    背景 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)的核心技術(shù)主要包括以下幾個(gè)方面:局部連接、權(quán)值共享、多卷積核以及池化。這些技術(shù)共同作用,使得CNN在
    的頭像 發(fā)表于 04-07 09:15 ?845次閱讀
    自動(dòng)駕駛感知系統(tǒng)中<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>原理的疑點(diǎn)分析