91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

三種卷積神經(jīng)網(wǎng)絡(luò)模型:Light-CNN,雙分支CNN和預(yù)先訓(xùn)練的CNN

倩倩 ? 來(lái)源:老胡說(shuō)科學(xué) ? 2020-04-17 10:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

上海電力大學(xué)的兩位研究人員最近開(kāi)發(fā)并評(píng)估了野生人臉表情識(shí)別(FER)的新神經(jīng)網(wǎng)絡(luò)模型。他們的研究發(fā)表在Elsevier的Neurocomputing期刊上,提出了三種卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型:Light-CNN,雙分支CNN和預(yù)先訓(xùn)練的CNN。

“由于缺乏關(guān)于非正面的信息,野外的FER是計(jì)算機(jī)視覺(jué)中的一個(gè)難點(diǎn),”進(jìn)行這項(xiàng)研究的研究人員之一錢永生告訴TechXplore?!盎谏疃染矸e神經(jīng)網(wǎng)絡(luò)(CNN)的現(xiàn)有自然面部表情識(shí)別方法存在一些問(wèn)題,包括過(guò)擬合,高計(jì)算復(fù)雜度,單一特征和有限樣本?!?/p>

盡管許多研究人員已經(jīng)開(kāi)發(fā)了用于FER的CNN方法,但到目前為止,他們中很少有人試圖確定哪種類型的網(wǎng)絡(luò)最適合這一特定任務(wù)。意識(shí)到文獻(xiàn)中的這種差距,永勝和他的同事邵杰為FER開(kāi)發(fā)了三種不同的CNN,并進(jìn)行了一系列的評(píng)估,以確定他們的優(yōu)勢(shì)和劣勢(shì)。

“我們的第一個(gè)模型是淺光CNN,它引入了一個(gè)深度可分離的模塊和剩余的網(wǎng)絡(luò)模塊,通過(guò)改變卷積方法來(lái)減少網(wǎng)絡(luò)參數(shù),”永勝說(shuō)?!暗诙€(gè)是雙分支CNN,它結(jié)合了全局特征和局部紋理特征,試圖獲得更豐富的特征并補(bǔ)償卷積旋轉(zhuǎn)不變性的缺乏。第三個(gè)預(yù)訓(xùn)練的CNN使用在同一個(gè)分布式大型數(shù)據(jù)庫(kù)中訓(xùn)練的權(quán)重重新培訓(xùn)自己的小型數(shù)據(jù)庫(kù),縮短培訓(xùn)時(shí)間,提高識(shí)別率?!?/p>

研究人員對(duì)三種常用于FER的數(shù)據(jù)集進(jìn)行了CNN模型的廣泛評(píng)估:公共CK +,多視圖BU-3DEF和FER2013數(shù)據(jù)集。盡管三種CNN模型在性能上存在差異,但它們都取得了可喜的成果,優(yōu)于幾種最先進(jìn)的FER方法。

“目前,這三種CNN型號(hào)是分開(kāi)使用的,”永勝解釋說(shuō)?!皽\網(wǎng)絡(luò)更適合嵌入式硬件。預(yù)訓(xùn)練的CNN可以獲得更好的效果,但需要預(yù)先訓(xùn)練的權(quán)重。雙分支網(wǎng)絡(luò)不是很有效。當(dāng)然,也可以嘗試使用這三種模式一起?!?/p>

在他們的評(píng)估中,研究人員觀察到,通過(guò)組合剩余網(wǎng)絡(luò)模塊和深度可分離模塊,就像他們?yōu)榈谝粋€(gè)CNN模型所做的那樣,可以減少網(wǎng)絡(luò)參數(shù)。這最終可以解決計(jì)算硬件的一些缺點(diǎn)。此外,他們發(fā)現(xiàn)預(yù)先訓(xùn)練的CNN 模型將大型數(shù)據(jù)庫(kù)轉(zhuǎn)移到自己的數(shù)據(jù)庫(kù),因此可以用有限的樣本進(jìn)行訓(xùn)練。

永勝和杰提出的三個(gè)針對(duì)FER的CNN可以有許多應(yīng)用,例如,幫助開(kāi)發(fā)能夠識(shí)別他們正在與之交互的人的面部表情的機(jī)器人。研究人員現(xiàn)在計(jì)劃對(duì)他們的模型進(jìn)行額外調(diào)整,以進(jìn)一步提高他們的表現(xiàn)。

“在我們未來(lái)的工作中,我們將嘗試添加不同的傳統(tǒng)手動(dòng)功能,加入雙分支CNN并改變?nèi)诤夏J?,”永勝說(shuō)?!拔覀冞€將使用跨數(shù)據(jù)庫(kù)培訓(xùn)網(wǎng)絡(luò)參數(shù)來(lái)獲得更好的泛化能力,并采用更有效的深度傳輸學(xué)習(xí)方法?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Transformer如何讓自動(dòng)駕駛變得更聰明?

    ]自動(dòng)駕駛中常提的Transformer本質(zhì)上是一神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),最早在自然語(yǔ)言處理里火起來(lái)。與卷積神經(jīng)網(wǎng)絡(luò)CNN)或循環(huán)
    的頭像 發(fā)表于 11-19 18:17 ?2295次閱讀

    自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個(gè)啥?

    在自動(dòng)駕駛領(lǐng)域,經(jīng)常會(huì)聽(tīng)到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡(jiǎn)稱為CNN,是一專門用來(lái)處理網(wǎng)格狀
    的頭像 發(fā)表于 11-19 18:15 ?2095次閱讀
    自動(dòng)駕駛中常提的<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個(gè)啥?

    一些神經(jīng)網(wǎng)絡(luò)加速器的設(shè)計(jì)優(yōu)化方案

    特征圖保留不變,完成和所有相關(guān)卷積核點(diǎn)積以后再加載,最多復(fù)用 R*R*M 次。 3.不同網(wǎng)絡(luò)模型的效果 如圖所示,后者相對(duì)于前者,減少了連線資源和復(fù)雜度。 4.DNN加速器空間架構(gòu)片上存儲(chǔ)
    發(fā)表于 10-31 07:14

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測(cè)試

    CNN算法簡(jiǎn)介 我們硬件加速器的模型為L(zhǎng)enet-5的變型,網(wǎng)絡(luò)粗略分共有7層,細(xì)分共有13層。包括卷積,最大池化層,激活層,扁平層,全連接層。下面是各層作用介紹:
    發(fā)表于 10-29 07:49

    NMSISI庫(kù)的使用

    (q7_t) 和 16 位整數(shù) (q15_t)。 卷積神經(jīng)網(wǎng)絡(luò)示例: 本示例中使用的 CNN 基于來(lái)自 Caffe 的 CIFAR-10 示例。神經(jīng)網(wǎng)絡(luò)由 3 個(gè)
    發(fā)表于 10-29 07:07

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    (q7_t) 和 16 位整數(shù) (q15_t)。 卷積神經(jīng)網(wǎng)絡(luò)示例: 本示例中使用的 CNN 基于來(lái)自 Caffe 的 CIFAR-10 示例。神經(jīng)網(wǎng)絡(luò)由 3 個(gè)
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    整個(gè)模型非常巨大。所以要想實(shí)現(xiàn)輕量級(jí)的CNN神經(jīng)網(wǎng)絡(luò)模型,首先應(yīng)該避免嘗試單層神經(jīng)網(wǎng)絡(luò)。 2)減少卷積
    發(fā)表于 10-28 08:02

    卷積運(yùn)算分析

    的數(shù)據(jù),故設(shè)計(jì)了ConvUnit模塊實(shí)現(xiàn)單個(gè)感受域規(guī)模的卷積運(yùn)算. 卷積運(yùn)算:不同于數(shù)學(xué)當(dāng)中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡(luò)中的
    發(fā)表于 10-28 07:31

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò)CNN模型,用于手寫數(shù)字識(shí)別。一旦
    發(fā)表于 10-22 07:03

    使用OpenVINO將PP-OCRv5模型部署在Intel顯卡上

    是一個(gè)用于優(yōu)化和部署人工智能(AI)模型,提升AI推理性能的開(kāi)源工具集合,不僅支持以卷積神經(jīng)網(wǎng)絡(luò)(CNN)為核心組件的預(yù)測(cè)式AI模型(Pre
    的頭像 發(fā)表于 09-20 11:17 ?1265次閱讀
    使用OpenVINO將PP-OCRv5<b class='flag-5'>模型</b>部署在Intel顯卡上

    無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過(guò)對(duì)無(wú)刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個(gè)以相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來(lái)
    發(fā)表于 06-25 13:06

    MAX78000采用超低功耗卷積神經(jīng)網(wǎng)絡(luò)加速度計(jì)的人工智能微控制器技術(shù)手冊(cè)

    的Maxim超低功耗微控制器相結(jié)合。通過(guò)這款基于硬件的卷積神經(jīng)網(wǎng)絡(luò)(CNN)加速器,即使是電池供電的應(yīng)用也可執(zhí)行AI推理,同時(shí)功耗僅為微焦耳級(jí)。
    的頭像 發(fā)表于 05-08 11:42 ?998次閱讀
    MAX78000采用超低功耗<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>加速度計(jì)的人工智能微控制器技術(shù)手冊(cè)

    MAX78002帶有低功耗卷積神經(jīng)網(wǎng)絡(luò)加速器的人工智能微控制器技術(shù)手冊(cè)

    的Maxim超低功耗微控制器相結(jié)合。通過(guò)這款基于硬件的卷積神經(jīng)網(wǎng)絡(luò)(CNN)加速器,即使是電池供電的應(yīng)用也可執(zhí)行AI推理,同時(shí)功耗僅為微焦耳級(jí)。
    的頭像 發(fā)表于 05-08 10:16 ?872次閱讀
    MAX78002帶有低功耗<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>加速器的人工智能微控制器技術(shù)手冊(cè)

    在友晶LabCloud平臺(tái)上使用PipeCNN實(shí)現(xiàn)ImageNet圖像分類

    利用深度卷積神經(jīng)網(wǎng)絡(luò)CNN)進(jìn)行圖像分類是通過(guò)使用多個(gè)卷積層來(lái)從輸入數(shù)據(jù)中提取特征,最后通過(guò)分類層做決策來(lái)識(shí)別出目標(biāo)物體。
    的頭像 發(fā)表于 04-23 09:42 ?1099次閱讀
    在友晶LabCloud平臺(tái)上使用PipeCNN實(shí)現(xiàn)ImageNet圖像分類

    自動(dòng)駕駛感知系統(tǒng)中卷積神經(jīng)網(wǎng)絡(luò)原理的疑點(diǎn)分析

    背景 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)的核心技術(shù)主要包括以下幾個(gè)方面:局部連接、權(quán)值共享、多卷積核以及池化。這些技術(shù)共同作用,使得
    的頭像 發(fā)表于 04-07 09:15 ?865次閱讀
    自動(dòng)駕駛感知系統(tǒng)中<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>原理的疑點(diǎn)分析