91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CNN如何用于解決邊緣檢測問題

新機(jī)器視覺 ? 來源:海豚數(shù)據(jù)科學(xué)實(shí)驗(yàn)室 ? 作者:海豚數(shù)據(jù)科學(xué)實(shí)驗(yàn) ? 2022-06-23 11:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

研究人員在研究圖像處理算法時(shí)提出了CNN(卷積神經(jīng)網(wǎng)絡(luò))的概念。傳統(tǒng)的全連接網(wǎng)絡(luò)是一種黑盒子 - 它接收所有輸入并通過每個(gè)值傳遞到一個(gè)dense 網(wǎng)絡(luò),然后再傳遞給一個(gè)熱輸出。這似乎適用于少量的輸入。

當(dāng)我們處理1024x768像素的圖像時(shí),我們輸入3x1024x768 = 2359296個(gè)數(shù)字(每個(gè)像素的RGB值)。使用2359296個(gè)數(shù)字的輸入向量的dense多層神經(jīng)網(wǎng)絡(luò)在第一層中每個(gè)神經(jīng)元至少具有2359296個(gè)權(quán)重 - 第一層的每個(gè)神經(jīng)元具有2MB的權(quán)重。對于處理器以及RAM,在20世紀(jì)90年代和2000年除,這幾乎是不可能的。

這導(dǎo)致研究人員想知道是否有更好的方法來完成這項(xiàng)工作。任何圖像處理(識(shí)別)中的第一個(gè)也是最重要的任務(wù)通常是檢測邊緣和紋理。接下來是識(shí)別和處理真實(shí)對象。很明顯要注意檢測紋理和邊緣實(shí)際上并不依賴于整個(gè)圖像。人們需要查看給定像素周圍的像素以識(shí)別邊緣或紋理。

此外,用于識(shí)別邊緣或紋理的算法在整個(gè)圖像中應(yīng)該是相同的。我們不能對圖像的中心或任何角落或側(cè)面使用不同的算法。檢測邊緣或紋理的概念必須相同。我們不需要為圖像的每個(gè)像素學(xué)習(xí)一組新參數(shù)。

這種理解導(dǎo)致了卷積神經(jīng)網(wǎng)絡(luò)。網(wǎng)絡(luò)的第一層由掃描圖像的小塊神經(jīng)元組成 - 一次處理幾個(gè)像素。通常這些是9或16或25像素的正方形。

CNN非常有效地減少了計(jì)算量。小的“filter/kernel”沿著圖像滑動(dòng),一次處理一小塊。整個(gè)圖像所需的處理非常相似,因此非常有效。

雖然它是為圖像處理而引入的,但多年來,CNN已經(jīng)在許多其他領(lǐng)域中得到應(yīng)用。

一個(gè)例子

現(xiàn)在我們已經(jīng)了解了CNN的基本概念,讓我們了解數(shù)字的工作原理。正如我們所看到的,邊緣檢測是任何圖像處理問題的主要任務(wù)。讓我們看看CNN如何用于解決邊緣檢測問題。

aae3b098-f22e-11ec-ba43-dac502259ad0.jpg

左邊是16x16單色圖像的位圖。矩陣中的每個(gè)值表示相應(yīng)像素的亮度。我們可以看到,這是一個(gè)簡單的灰色圖像,中間有一個(gè)方塊。當(dāng)我們嘗試將其用2x2 filter(中圖)進(jìn)行卷積時(shí),我們得到一個(gè)14x14的矩陣(右圖)。

我們選擇的filter 可以突出顯示圖像中的邊緣。我們可以在右邊的矩陣中看到,原始圖像中與邊緣對應(yīng)的值是高的(正的或負(fù)的)。這是一個(gè)簡單的邊緣檢測filter。研究人員已經(jīng)確定了許多不同的filter,可以識(shí)別和突出圖像的各個(gè)不同方面。在典型的卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型開發(fā)中,我們讓網(wǎng)絡(luò)自己學(xué)習(xí)和發(fā)現(xiàn)這些filters

重要概念

以下是我們在進(jìn)一步使用CNN之前應(yīng)該了解的一些重要概念。

Padding

卷積filter的一個(gè)明顯問題是每一步都通過減小矩陣大小來減少“信息” - 縮小輸出?;旧希绻季仃囀荖×N,并且filter是F×F,則得到的矩陣將是(N-F + 1)×(N-F + 1)。這是因?yàn)檫吘壣系南袼乇葓D像中間的像素少。

如果我們在所有邊上按(F - 1)/ 2像素填充圖像,則將保留N×N的大小。

因此,我們有兩種類型的卷積,即Valid Convolution和 Same Convolution。Valid 實(shí)質(zhì)上意味著沒有填充。因此每個(gè)卷積都會(huì)導(dǎo)致尺寸減小。Same Convolution使用填充,以便保留矩陣的大小。

計(jì)算機(jī)視覺中,F(xiàn)通常是奇數(shù)。奇數(shù)F有助于保持圖像的對稱性,也允許一個(gè)中心像素,這有助于在各種算法中應(yīng)用均勻偏差。因此,3x3, 5x5, 7x7 filter是很常見的。我們還有1x1個(gè)filter。

Strided

我們上面討論的卷積是連續(xù)的,因?yàn)樗B續(xù)掃描像素。我們也可以使用strides - 通過在圖像上移動(dòng)卷積filter時(shí)跳過s像素。

因此,如果我們有nxn圖像和fxf filter并且我們用stride s和padding p進(jìn)行卷積,則輸出的大小為:((n + 2p -f)/ s + 1)x((n + 2p -f)/ s + 1)

卷積v / s互相關(guān)

互相關(guān)基本上是在底部對角線上翻轉(zhuǎn)矩陣的卷積。翻轉(zhuǎn)會(huì)將關(guān)聯(lián)性添加到操作中。但在圖像處理中,我們不會(huì)翻轉(zhuǎn)它。

RGB圖像上的卷積

現(xiàn)在我們有一個(gè)nxnx 3圖像,我們用fxfx 3 filter進(jìn)行卷積。因此,我們在任何圖像及其filter中都有高度,寬度和通道數(shù)。任何時(shí)候,圖像中的通道數(shù)量與filter中的通道數(shù)量相同。這個(gè)卷積的輸出有寬度和高度(n-f + 1)和1通道。

多個(gè)filters

一個(gè)3通道圖像與一個(gè)3通道filter卷積得到一個(gè)單一通道輸出。但我們并不局限于一個(gè)filter。我們可以有多個(gè)filters——每個(gè)filter都會(huì)產(chǎn)生一個(gè)新的輸出層。因此,輸入中的通道數(shù)應(yīng)該與每個(gè)filter中的通道數(shù)相同。filters的數(shù)量和輸出通道的數(shù)量是一樣的。

因此,我們從3個(gè)通道的圖像開始,并在輸出中以多個(gè)通道結(jié)束。這些輸出通道中的每一個(gè)都表示圖像的某些特定方面,這些方面由相應(yīng)的filter拾取。因此,它也被稱為特征而不是通道。在一個(gè)真正的深層網(wǎng)絡(luò)中,我們還添加了一個(gè)偏差和一個(gè)非線性激活函數(shù),如RelU。

池化層

池化基本上是將值組合成一個(gè)值。我們可以有平均池,最大池化,最小化池等。因此,使用fxf池化的nxn輸入將生成(n/f)x(n/f)輸出。它沒有需要學(xué)習(xí)的參數(shù)。

aafdda04-f22e-11ec-ba43-dac502259ad0.png

最大池化

CNN架構(gòu)

典型的中小型CNN模型遵循一些基本原則。

ab0be4aa-f22e-11ec-ba43-dac502259ad0.png

典型的CNN架構(gòu)

  • 交替卷積和池化層

  • 逐漸減小frame 大小并增加frame 數(shù),

  • 朝向末端的Flat 和全連接層

對所有隱藏層激活RelU,然后為最終層激活softmax

隨著我們轉(zhuǎn)向大型和超大型網(wǎng)絡(luò),事情變得越來越復(fù)雜。研究人員為我們提供了更多可以在這里使用的具體架構(gòu)(如:ImageNet, GoogleNet和VGGNet等)。

Python實(shí)現(xiàn)

通常實(shí)現(xiàn)CNN模型時(shí),先進(jìn)行數(shù)據(jù)分析和清理,然后選擇我們可以開始的網(wǎng)絡(luò)模型。我們根據(jù)網(wǎng)絡(luò)數(shù)量和層大小及其連接性的布局提供架構(gòu) - 然后我們允許網(wǎng)絡(luò)自己學(xué)習(xí)其余部分。然后我們可以調(diào)整超參數(shù)來生成一個(gè)足以滿足我們目的的模型。

讓我們看一個(gè)卷積網(wǎng)絡(luò)如何工作的簡單例子。

導(dǎo)入模塊

我們首先導(dǎo)入所需的Python庫。

import numpy as npimport tensorflow as tffrom tensorflow import kerasfrom keras.layers import Dense, Conv2D, Flatten, MaxPooling2Dfrom keras.models import Sequential
ab37ebae-f22e-11ec-ba43-dac502259ad0.png

獲取數(shù)據(jù)

下一步是獲取數(shù)據(jù)。我們使用構(gòu)建到Keras模塊中的機(jī)器學(xué)習(xí)數(shù)據(jù)集——MNIST數(shù)據(jù)集。在現(xiàn)實(shí)生活中,這需要更多的處理。

我們加載訓(xùn)練和測試數(shù)據(jù)。我們r(jià)eshape數(shù)據(jù),使其更適合卷積網(wǎng)絡(luò)。基本上,我們將其reshape為具有60000(記錄數(shù))大小為28x28x1的4D數(shù)組(每個(gè)圖像的大小為28x28)。這使得在Keras中構(gòu)建Convolutional層變得容易。

如果我們想要一個(gè)dense 神經(jīng)網(wǎng)絡(luò),我們會(huì)將數(shù)據(jù)reshape為60000x784 - 每個(gè)訓(xùn)練圖像的1D記錄。但CNN是不同的。請記住,卷積的概念是2D - 因此沒有必要將其flattening 為1維數(shù)組。

我們還將標(biāo)簽更改為分類的one-hot數(shù)組,而不是數(shù)字分類。最后,對圖像數(shù)據(jù)進(jìn)行歸一化處理,以降低梯度消失的可能性。


(train_images, train_labels), (test_images, test_labels) = tf.keras.datasets.mnist.load_data()train_images = train_images.reshape(60000,28,28,1)test_images = test_images.reshape(10000,28,28,1)test_labels = tf.keras.utils.to_categorical(test_labels)train_labels = tf.keras.utils.to_categorical(train_labels)train_images = train_images / 255.0test_images = test_images / 255.0
ab474e5a-f22e-11ec-ba43-dac502259ad0.png

構(gòu)建模型

Keras庫為我們提供了準(zhǔn)備使用API來構(gòu)建我們想要的模型。我們首先創(chuàng)建Sequential模型的實(shí)例。然后,我們將層添加到模型中。第一層是卷積層,處理28x28的輸入圖像。我們將核大小定義為3并創(chuàng)建32個(gè)這樣的核 - 創(chuàng)建32 frames?的輸出 - 大小為26x26(28-3 + 1 = 26)

接下來是2x2的最大池化層。這將尺寸從26x26減小到13x13。我們使用了最大池化,因?yàn)槲覀冎绬栴}的本質(zhì)是基于邊緣 - 我們知道邊緣在卷積中顯示為高值。

接下來是另一個(gè)核大小為3x3的卷積層,并生成24個(gè)輸出frames。每frame的大小為22x22。接下來是卷積層。最后,我們將這些數(shù)據(jù)flatten 并將其輸入到dense 層,該層具有對應(yīng)于10個(gè)所需值的輸出。


model = Sequential()model.add(Conv2D(32, kernel_size=3, activation='relu', input_shape=(28,28,1)))model.add(MaxPooling2D(pool_size=(3, 3)))model.add(Conv2D(24, kernel_size=3, activation='relu'))model.add(MaxPooling2D(pool_size=(2, 2)))model.add(Flatten())model.add(Dense(10, activation='softmax'))model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])
ab580696-f22e-11ec-ba43-dac502259ad0.png

訓(xùn)練模型

最后,我們用我們擁有的數(shù)據(jù)訓(xùn)練機(jī)器學(xué)習(xí)模型。五個(gè)epochs足以獲得一個(gè)相當(dāng)準(zhǔn)確的模型。


model.fit(train_images, train_labels, validation_data=(test_images, test_labels), epochs=5)
ab613c66-f22e-11ec-ba43-dac502259ad0.jpg

最后

上面的模型只有9*32 + 9*24 = 504個(gè)值需要學(xué)習(xí)。全連接網(wǎng)絡(luò)在第一層本身需要每個(gè)神經(jīng)元784個(gè)權(quán)重!因此,我們大大節(jié)省了處理能力 - 同時(shí)降低了過度擬合的風(fēng)險(xiǎn)。

請注意,我們使用了我們所知道的,然后訓(xùn)練模型來發(fā)現(xiàn)其余部分。使用全連接或隨機(jī)稀疏網(wǎng)絡(luò)的黑盒方法永遠(yuǎn)不會(huì)以這個(gè)成本獲得這樣的準(zhǔn)確性。

審核編輯 :李倩


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:卷積神經(jīng)網(wǎng)絡(luò)概述及示例教程

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    煤炭傳送帶狀態(tài)檢測系統(tǒng) 基于YOLOv8與邊緣計(jì)算

    煤炭傳送帶狀態(tài)檢測系統(tǒng)通過機(jī)器視覺+邊緣分析技術(shù)對煤炭皮帶狀況進(jìn)行實(shí)時(shí)監(jiān)測,一旦煤炭傳送帶狀態(tài)檢測系統(tǒng)監(jiān)測到皮帶跑偏、堆煤、撕裂、異物等其他情況,煤炭傳送帶狀態(tài)檢測系統(tǒng)馬上開展警報(bào)提醒
    的頭像 發(fā)表于 12-19 20:17 ?412次閱讀
    煤炭傳送帶狀態(tài)<b class='flag-5'>檢測</b>系統(tǒng) 基于YOLOv8與<b class='flag-5'>邊緣</b>計(jì)算

    從云端到邊緣:聯(lián)發(fā)科MT8371/MT8391平臺(tái)實(shí)現(xiàn)7B大模型本地部署

    顯示應(yīng)用 ?支持工規(guī)溫度運(yùn)行 三、核心優(yōu)勢: ? AI算力:7/9 TOPS邊緣算力支持,Transformer/CNN硬件加速,實(shí)時(shí)處理圖像合成、文本生成等生成式AI場景。 ? 本地部署
    發(fā)表于 12-15 16:32

    晶振為什么不能放置在PCB邊緣?

    晶振為什么不能放置在PCB邊緣
    發(fā)表于 12-05 07:13

    Neousys宸曜發(fā)布適用于狹小空間的經(jīng)濟(jì)型邊緣人工智能計(jì)算機(jī)

    采用獨(dú)特的扁平散熱片設(shè)計(jì),使得機(jī)器在密閉或防水機(jī)柜中的散熱效果得以優(yōu)化,并提供親民的價(jià)格,非常適用于智能農(nóng)業(yè)車輛、戶外AMR和工業(yè)檢測系統(tǒng)。NRU-160-FT兼具
    的頭像 發(fā)表于 12-01 16:21 ?1019次閱讀
    Neousys宸曜發(fā)布適<b class='flag-5'>用于</b>狹小空間的經(jīng)濟(jì)型<b class='flag-5'>邊緣</b>人工智能計(jì)算機(jī)

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測試

    CNN算法簡介 我們硬件加速器的模型為Lenet-5的變型,網(wǎng)絡(luò)粗略分共有7層,細(xì)分共有13層。包括卷積,最大池化層,激活層,扁平層,全連接層。下面是各層作用介紹: 卷積層:提取特征。“不全
    發(fā)表于 10-29 07:49

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    通過實(shí)踐,本文總結(jié)了構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議,這些建議將會(huì)在構(gòu)建高準(zhǔn)確率輕量級(jí)CNN神經(jīng)網(wǎng)絡(luò)模型方面提供幫助。 1)避免單層神經(jīng)網(wǎng)絡(luò):我們清楚神經(jīng)網(wǎng)絡(luò)本身是需要不斷抽象出更高級(jí)別的紋理
    發(fā)表于 10-28 08:02

    工業(yè)視覺網(wǎng)關(guān):RK3576賦能多路檢測邊緣AI

    IPC+獨(dú)顯的組合。 二、方案核心:多路檢測 + 編解碼 + 邊緣AI + MES對接多路并發(fā)采集RK3576 提供 3×4-lane MIPI-CSI,配合視頻轉(zhuǎn)換模塊可并發(fā)接入 12路
    發(fā)表于 10-16 17:56

    邊緣AI關(guān)鍵驅(qū)動(dòng)與應(yīng)用場景講解

    云端數(shù)據(jù)中心。它融合了邊緣計(jì)算(本地?cái)?shù)據(jù)處理)和人工智能(通過ML模擬人類推理),使設(shè)備能夠獨(dú)立決策,例如安全攝像頭即時(shí)檢測入侵或自動(dòng)駕駛汽車實(shí)時(shí)導(dǎo)航。 市場規(guī)模與增長預(yù)測 ? ? 2025年,邊緣AI市場正處于爆發(fā)式增長階段。
    的頭像 發(fā)表于 09-10 16:06 ?696次閱讀

    AI 邊緣計(jì)算網(wǎng)關(guān):開啟智能新時(shí)代的鑰匙?—龍興物聯(lián)

    計(jì)算網(wǎng)關(guān)在本地實(shí)時(shí)分析,一旦檢測到盜竊、斗毆等異常行為,能立即發(fā)出警報(bào),極大提高了安防監(jiān)控的及時(shí)性和準(zhǔn)確性,同時(shí)減輕了云端計(jì)算壓力,降低了網(wǎng)絡(luò)成本。? 豐富的人工智能算法應(yīng)用,是AI 邊緣計(jì)算網(wǎng)關(guān)實(shí)現(xiàn)
    發(fā)表于 08-09 16:40

    邊緣智能網(wǎng)關(guān)在水務(wù)行業(yè)中的應(yīng)用—龍興物聯(lián)

    、水庫等關(guān)鍵設(shè)施進(jìn)行視頻監(jiān)控(結(jié)合邊緣AI)、門禁控制、環(huán)境監(jiān)測(溫濕度、有害氣體)。 優(yōu)勢:? 本地智能分析:? 視頻AI在邊緣端完成入侵檢測、人員行為識(shí)別(如未穿防護(hù)服)、設(shè)備運(yùn)行狀態(tài)視覺檢查等
    發(fā)表于 08-02 18:28

    Axelera AI:邊緣計(jì)算加速智能創(chuàng)新解決方案

    。AxeleraAI憑借其卓越的AI加速解決方案,致力于協(xié)助企業(yè)快速部署高性能、低功耗的邊緣計(jì)算平臺(tái),廣泛應(yīng)用于智慧城市、智慧交通及工業(yè)檢測等領(lǐng)域。接下來說明AxeleraAI產(chǎn)品特色與技術(shù)重點(diǎn)(KeyFeatures
    的頭像 發(fā)表于 07-17 11:00 ?1094次閱讀
    Axelera AI:<b class='flag-5'>邊緣</b>計(jì)算加速智能創(chuàng)新解決方案

    FPGA在邊緣AI中的應(yīng)用

    從聊天機(jī)器人、內(nèi)容生成到高級(jí)數(shù)據(jù)分析,AI 已無處不在。過去,大多數(shù) AI 處理都在云端完成。然而,隨著模型功能日益強(qiáng)大以及對實(shí)時(shí)洞察的需求持續(xù)增長,AI 正在向邊緣轉(zhuǎn)移。智能攝像頭和傳感器中的卷積
    的頭像 發(fā)表于 06-24 09:31 ?1718次閱讀

    邊緣AI的優(yōu)勢和技術(shù)基石

    在萬物皆可AI(人工智能)的今天,市場上幾乎每家企業(yè)都在宣稱自己的業(yè)務(wù)中有了AI成分。因此,將AI接入極靠近終端客戶的網(wǎng)絡(luò)邊緣也就沒什么懸念了。這里的邊緣人工智能(即Edge AI,或邊緣AI)主要是指將人工智能系統(tǒng)(如預(yù)測分析
    的頭像 發(fā)表于 06-12 10:14 ?1470次閱讀
    <b class='flag-5'>邊緣</b>AI的優(yōu)勢和技術(shù)基石

    邊緣計(jì)算 到云端計(jì)算

    處理數(shù)據(jù),需通過互聯(lián)網(wǎng)傳輸原始數(shù)據(jù)?。 延遲與實(shí)時(shí)性? 邊緣計(jì)算?:毫秒級(jí)響應(yīng),適用于自動(dòng)駕駛、工業(yè)控制等實(shí)時(shí)場景?。 云端計(jì)算?:因網(wǎng)絡(luò)傳輸和集中處理,延遲較高(通常秒級(jí)),適合非實(shí)時(shí)任務(wù)(如數(shù)據(jù)分析、模型訓(xùn)練)?。
    的頭像 發(fā)表于 03-27 08:30 ?949次閱讀
    從<b class='flag-5'>邊緣</b>計(jì)算 到云端計(jì)算