91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于加快CNN模型在計算資源受限的應(yīng)用場景的速度的分析研究

VtWH_馭勢未 ? 來源:djl ? 2019-09-20 09:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自馭勢科技AI男子天團出道以來,大家都在求“不是博士的小伙伴韋濤的心理陰影面積”。

正確答案是,他的內(nèi)心沒有陰影!他忙著給大家解讀一篇有意思的論文呢!

韋濤,畢業(yè)于北京大學(xué)軟件與微電子學(xué)院,處女座……

他用“樂觀,踏實,好奇心重”三個詞來形容自己。作為馭勢科技AI天團成員,除了顔值,還需要會寫代碼,會搞算法,會調(diào)板子,會調(diào)車子。如果問他,怎么給好基友介紹馭勢科技?韋濤說,這里是一個仰望星空,腳踏實地的地方。而青春,就意味著努力工作。

對于那些對AI感興趣的朋友,韋濤特別推薦《深度學(xué)習(xí)》“大花書”給大家。

能不能看懂,就看你的IQ了~

關(guān)于加快CNN模型在計算資源受限的應(yīng)用場景的速度的分析研究

該論文主要通過利用Batchnorm Layer中的Scale參數(shù)來對模型中通道重要程度進(jìn)行建模,并引入了L1正則項來對該通道權(quán)值進(jìn)行稀疏化訓(xùn)練,使得最終得到的模型可以更有效的實現(xiàn)通道剪枝,達(dá)到網(wǎng)絡(luò)稀疏化的目標(biāo)。該論文的通道稀疏化的實現(xiàn)方式非常巧妙。

近些年來,CNN由于其出色的表現(xiàn),漸漸成為了圖像領(lǐng)域中主流的算法框架。

自動駕駛領(lǐng)域中,許多任務(wù)同樣可被抽象為圖像分類、圖像分割、目標(biāo)檢測三個基礎(chǔ)問題,因此,CNN在自動駕駛領(lǐng)域中的應(yīng)用也越來越廣泛。

CNN的表現(xiàn)如此突出主要是因為CNN模型有大量的可學(xué)習(xí)參數(shù),使得CNN模型具備很強的學(xué)習(xí)能力和表達(dá)能力,然而,也正因為這些大量的參數(shù)使得在硬件平臺上部署CNN模型時有較大困難,尤其是在一些計算資源非常受限的平臺上,如移動設(shè)備、嵌入式設(shè)備等。

在自動駕駛場景中,視覺系統(tǒng)在整個車輛系統(tǒng)中一直扮演著一個十分重要的角色,在視覺算法實際投入應(yīng)用時,不僅需要算法精度達(dá)到極高的指標(biāo),也對算法的實時性提出了較高的要求,與此同時,由于場景的特殊性,在自動駕駛場景中算法往往會被部署在一些計算能力較弱的嵌入式開發(fā)平臺上,因此,如何讓CNN模型在計算資源受限的應(yīng)用場景中跑的更快成為了一個越來越重要的課題。

目前對CNN模型進(jìn)行加速的方法很多,例如,從快速網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計的角度出發(fā)設(shè)計設(shè)計一些小而精的模型(squeezenet、mobilenet、enet等),從網(wǎng)絡(luò)壓縮角度出發(fā)對訓(xùn)練好的網(wǎng)絡(luò)在保證精度不變或小幅下降的前提下進(jìn)行壓縮剪枝(deep compression、channel-pruning等)等。

摘要

一直以來,由于受限于CNN模型的計算量,在各種實際應(yīng)用場景中部署CNN模型一直都是個問題。本文提出了一種新型的網(wǎng)絡(luò)學(xué)習(xí)方法以達(dá)到如下的三個目標(biāo):(1)減少模型大?。?)減小運行時內(nèi)存 (3)減少計算量。

為了實現(xiàn)上述目標(biāo),本文主要通過強制增加channel-level的參數(shù)并對該參數(shù)進(jìn)行稀疏化訓(xùn)練來實現(xiàn)。與其他的方法不同的是,本文的算法直接應(yīng)用于訓(xùn)練的環(huán)節(jié)中,以增加少量計算開銷的前提下實現(xiàn)了網(wǎng)絡(luò)的稀疏化訓(xùn)練。

本文將該算法稱作network slimming,該算法的輸入是一個“寬大”的網(wǎng)絡(luò),在訓(xùn)練過程中,那些不重要的通道會隨著訓(xùn)練權(quán)值逐漸降低,并通過后處理算法進(jìn)行通道裁剪,最終得到一個沒有精度損失的“瘦小”的網(wǎng)絡(luò)。

本文在主流的CNN網(wǎng)絡(luò)結(jié)構(gòu)上驗證了該方法,包括VGGNet, ResNet,DenseNet等,并在多個數(shù)據(jù)集上進(jìn)行了驗證。對于VGGNet, 在經(jīng)過多次network slimming以后,該模型達(dá)到了20倍的模型尺寸壓縮比以及5倍的模型計算量壓縮比。

引言

近些年來,CNN在多種視覺任務(wù)中已經(jīng)變成了一種主流的方法,比如圖像分類,目標(biāo)檢測以及圖像分割任務(wù)等。隨著大規(guī)模數(shù)據(jù)集、高端gpu以及新型網(wǎng)絡(luò)結(jié)構(gòu)的出現(xiàn),使得一些大模型的部署成為了可能。比如,imagenet比賽中的冠軍模型從AlexNet、VGGNet以及GoogLeNet再到ResNet,模型規(guī)模逐漸從8層演變成100層以上。

雖然這些大模型具備較強的表達(dá)能力,但是這些模型對計算資源的需求也更苛刻。例如像ResNet-152這樣的模型,由于需要大量的計算量,因此很難被部署在移動設(shè)備以及其他的IOT設(shè)備上。

上述提及的部署困難主要受限于如下的三個因素:

1.模型尺寸。CNN模型的強表達(dá)能力主要來源于他具有大量可學(xué)習(xí)的參數(shù),而這些參數(shù)將和網(wǎng)絡(luò)的結(jié)構(gòu)信息一起被保存在存儲介質(zhì)上,當(dāng)需要使用模型做inference時,再從硬盤上進(jìn)行讀取。舉例來說,存儲一個典型的在 ImageNet上訓(xùn)練好的模型需要大約300MB的空間,這對于嵌入式設(shè)備來說是一個非常大的開銷。

2.運行時內(nèi)存的消耗。在inference過程中,即使batchsize =1,中間層的計算需要消耗遠(yuǎn)大于模型參數(shù)量的內(nèi)存空間。這對于一些高端的GPU可能不是什么問題,但是對于一些計算資源比較緊張的設(shè)備而言,這是一個比較大的部署問題。

3.計算量的大小。當(dāng)把一款大型CNN模型部署于移動設(shè)備上時,由于計算量大同時移動設(shè)備計算性能弱,因此可能會消耗數(shù)分鐘去處理一張圖片,這對于一款模型被部署于真實應(yīng)用中是一個比較大的問題。

當(dāng)然,現(xiàn)在有很多工作提出可以通過壓縮CNN模型來使得模型具備更快的inference性能,這些方法主要包括低秩分解、模型量化、模型二值化、參數(shù)剪枝等。然而上述所說的方法都只能解決之前所提到的三個主要問題中的一個或兩個,同時,部分方法還需要軟件或硬件的支持才能實現(xiàn)真正的加速。

另一個減少CNN計算資源消耗的方法就是網(wǎng)絡(luò)稀疏化。稀疏化可被應(yīng)用于不同的層級。本文提出了一種network slimming的網(wǎng)絡(luò)稀疏化方法,該方法解決了在資源有限的場景下上述所提到的問題。

本文的方法中,主要通過對BatchNorm layer中的scale參數(shù)應(yīng)用了L1正則項,從而非常方便的在當(dāng)前的框架下實現(xiàn)了通道稀疏化。在該方法中,L1正則項將會使得不重要的通道的BatchNorm Layer中的scale參數(shù)推向0附近,通過這樣的方法,算法篩選出了不重要的通道,為后續(xù)的通道剪枝帶來了很多的便利。

與此同時,在該算法中引入的L1正則項并沒有帶來精度的損失,相反,在一些案例中,反而得到了更高的精度。在做通道剪枝的過程中,裁剪掉一些不重要的通道(即低權(quán)值的通道)可能會帶來一些精度的損失,但是這些損失的精度可以通過后續(xù)的fine-tuning操作補償回來。剪枝得到的壓縮版網(wǎng)絡(luò)在模型尺寸、運行時內(nèi)存占用以及計算量方面與初始的網(wǎng)絡(luò)相比更具競爭力。上述所說的過程可以被重復(fù)數(shù)次,在進(jìn)行多道裁剪工序后將會得到壓縮比越來越高的網(wǎng)絡(luò)模型。

根據(jù)本文在多個數(shù)據(jù)集上的實驗結(jié)果可以驗證本文的網(wǎng)絡(luò)在經(jīng)過slimming操作后,實現(xiàn)了20倍的模型尺寸壓縮以及5倍的模型計算量壓縮,而在精度方面沒有損失,甚至反而比原始模型更高。此外,由于本文的算法并沒有對網(wǎng)絡(luò)進(jìn)行參數(shù)存儲方式對修改,因此該方法可適用于在常規(guī)的硬件平臺以及軟件包上實現(xiàn)網(wǎng)絡(luò)壓縮以及inference加速。

Network Slimming

本文的目標(biāo)是提供一個簡單的策略在CNN上實現(xiàn)通道稀疏。在本章節(jié)將對channel-level稀疏的優(yōu)勢以及難點做一些分析,并且介紹了本文如何通過BatchNormLayer的scale參數(shù)來實現(xiàn)通道稀疏化。

(1)channel-level 稀疏化的優(yōu)勢

網(wǎng)絡(luò)稀疏化可以被應(yīng)用于不同的層級中,主要可分為weigh-level、kernel-level、channel-level或者layer-level。weight-level的稀疏化通常具備高度的靈活性以及通用性,并帶來了較大的壓縮比,但是該方案通常需要特殊的軟硬件加速的支持才能實現(xiàn)最終的加速。

與此相反,layer-level的方案不需要特殊軟硬件加速的支持即可實現(xiàn)最終的加速,但是這種方案相比weight-level不夠靈活,部分層需要被整個裁剪掉,同時,該方案只會在網(wǎng)絡(luò)層數(shù)特別深的前提下才會顯得比較有效。因此,根據(jù)上述的對比,channel-level的稀疏化在靈活性以及實現(xiàn)難度方面達(dá)到了一個較好的平衡,該方案可被用于各種典型的CNN模型中,為每一個原始模型生成一個“瘦身”版的網(wǎng)絡(luò)模型,該模型可以在各個常規(guī)的CNN平臺上高效的運行。

(2)channel-level稀疏化的挑戰(zhàn)

要實現(xiàn)channel-level的稀疏化需要裁剪掉所有與被裁剪通道相關(guān)的輸入通道以及輸出通道。直接用算法根據(jù)通道權(quán)值去裁剪一個預(yù)訓(xùn)練模型的通道會比較低效,因為不是所有的通道權(quán)值都會分布在0附近。如論文[23]所闡述的,直接在預(yù)訓(xùn)練好的ResNet中裁剪時,在精度不損失的前提下,只能裁剪掉~10%的通道。論文[35]通過引入了強制的稀疏正則項來實現(xiàn)通道權(quán)值的稀疏化,令通道的權(quán)值分布在0附近。本文提出了一種新方法來解決上述問題。

本文的方法就是為每一個通道引入一個scale 因子,該因子將對該通道的輸出做乘積運算,從而實現(xiàn)對通道重要程度的建模,本文對模型參數(shù)以及scale因子進(jìn)行聯(lián)合訓(xùn)練,最后把那些scale因子小的通道裁剪掉并fine-tune整個網(wǎng)絡(luò)。在引入了正則項以后,優(yōu)化的目標(biāo)函數(shù)如下式所示:

關(guān)于加快CNN模型在計算資源受限的應(yīng)用場景的速度的分析研究

上式中,(x,y)表示訓(xùn)練的輸入項與目標(biāo)項,W表示可訓(xùn)練的參數(shù),第一項表示CNN常規(guī)的訓(xùn)練損失, g(.)是一個引入在scale因子γ上的懲罰項,入表示第一項與第二項之間的權(quán)重比。在本文在實現(xiàn)中采用了g(s)=|s|,即L1正則項,被廣泛應(yīng)用于實現(xiàn)網(wǎng)絡(luò)稀疏化,同時采用了subgradient descent的優(yōu)化方法來優(yōu)化L1正則項。

關(guān)于加快CNN模型在計算資源受限的應(yīng)用場景的速度的分析研究

如上圖Figure 1所示,當(dāng)需要裁剪一個通道時僅需要移除該通道的輸入與輸出的連接即可得到一個壓縮后的模型而不需要做其他的一些特殊操作。同時,由于在訓(xùn)練過程中,scale因子實現(xiàn)了對通道的重要程度的建模,因此,當(dāng)后續(xù)做剪枝時,僅需要直接移除那些不重要的通道即可而不會影響模型整體的泛化能力。

(1)利用BatchNorm Layer進(jìn)行channel-wise的稀疏化

BatchNorm 層已經(jīng)被廣泛的應(yīng)用于各種CNN結(jié)構(gòu)中,作為一種標(biāo)準(zhǔn)的方法來實現(xiàn)快速收斂以及增強泛化能力。BatchNorm Layer的設(shè)計思路啟發(fā)了作者去設(shè)計一種簡單有效的方法來實現(xiàn)channel-wise稀疏化。BatchNorm Layer的計算定義如下:

關(guān)于加快CNN模型在計算資源受限的應(yīng)用場景的速度的分析研究

其中zin與zout分別代表Batchnorm Layer 的輸入和輸出,與分別表示當(dāng)前mini-batch下面的均值與方差,而與是可學(xué)習(xí)的參數(shù),可以將規(guī)范化后的分布返回到任何一種原始尺度下。

將BN層放置在Convolution層的后面是一種非常通用的方法。因此,可以直接利用BN層中的γ參數(shù)來建模通道的重要性,通過這樣的設(shè)計,不需要引入額外的實現(xiàn)就能達(dá)到算法的設(shè)計目標(biāo),事實上,這是可以用來實現(xiàn)channel-wise稀疏化的最有效也是最快捷的方法。接下來討論一下ScaleLayer的放置問題。

1.假如只是在Convolution后面增加了scale層而沒有使用Batchnorm Layer,Scale層學(xué)到的參數(shù)對于評估通道的重要性沒有意義,因為,Convolutionlayer和Scale layer都是線性變換,可以通過減少Scale因子的值同時放大Convolution Layer的參數(shù)值來達(dá)到同樣的目標(biāo)。

2.假如將Scale Layer放置在BatchnormLayer前,Scale Layer的效果會被BatchnormLayer 的規(guī)范化效果完全抵消掉。

3.將ScaleLayer 插入在Batchnorm Layer 之后時,就可以為每一個通道提供兩個scale參數(shù)進(jìn)行通道建模了。

(2)通道剪枝以及Finetune

在引入L1正則項進(jìn)行網(wǎng)絡(luò)稀疏化訓(xùn)練以后就可以得到一個多數(shù)通道權(quán)值在0附近的模型。之后對網(wǎng)絡(luò)這些權(quán)值在0附近的通道進(jìn)行裁剪,將這些通道對應(yīng)的輸入輸出的連接移除。在裁剪過程中,本文采用了一個全局裁剪閾值,比如,當(dāng)需要裁剪70%的通道時,本文會選取一個裁剪百分位為70%的閾值。通過這樣的操作即可得到裁剪后的模型。

經(jīng)過上述的裁剪操作后,如果采用的裁剪比例較高可能會帶來部分精度的損失,但是這部分損失可以通過后續(xù)的Finetune操作補償回來。在作者的實踐過程中發(fā)現(xiàn),在進(jìn)行Finetune操作后,裁剪后的模型往往會比原始的未裁剪的網(wǎng)絡(luò)精度高。

(3)多次循環(huán)剪枝

本文的方法可以從單步操作推廣到多步操作。操作流程如下圖所示:

關(guān)于加快CNN模型在計算資源受限的應(yīng)用場景的速度的分析研究

根據(jù)本文的實踐經(jīng)驗發(fā)現(xiàn)multi-pass得到的結(jié)果往往會得到更高的壓縮比。

(4)對Cross Layer Connections 以及 Pre-activation 結(jié)構(gòu)剪枝.

network slimming的方法可以被直接應(yīng)用于VGGNet、AlexNet這樣的網(wǎng)絡(luò)結(jié)構(gòu),但是當(dāng)需要把該方法應(yīng)用于ResNet、DenseNet這樣的網(wǎng)絡(luò)結(jié)構(gòu)時需要做其他的一些特殊設(shè)計。對于這樣的網(wǎng)絡(luò),前一個網(wǎng)絡(luò)的輸出往往會被作為后面多個網(wǎng)絡(luò)模塊的輸入,這些網(wǎng)絡(luò)中 BN層的放置將被放置在Convolution層前。在這樣的網(wǎng)絡(luò)結(jié)構(gòu)中,為了在inference時實現(xiàn)網(wǎng)絡(luò)參數(shù)以及網(wǎng)絡(luò)計算量的壓縮,需要在不重要的通道前放置一個channel-selection-layer來屏蔽不需要的channel。

結(jié)果分析

在Cifar10、Cifar100、SVHN上,本文采用了三種模型結(jié)構(gòu)進(jìn)行了測試分析。分別為VGGNet、ResNet164、DenseNet-40。在ImageNet數(shù)據(jù)集上,本文采用了VGGNet-A網(wǎng)絡(luò)進(jìn)行了測試分析。下圖table 1為在Cifar數(shù)據(jù)集以及SVHN數(shù)據(jù)集上進(jìn)行驗證的一些結(jié)果。

關(guān)于加快CNN模型在計算資源受限的應(yīng)用場景的速度的分析研究

如上表table1所示,分別在Cifar10、Cifar100以及SVHN三個數(shù)據(jù)集進(jìn)行了訓(xùn)練測試,可以看到在這三個數(shù)據(jù)集中,每一個模型在進(jìn)行了60%以上的channel-pruning以后,均能保持與原始模型幾乎一致的結(jié)果,甚至部分模型裁剪后的結(jié)果還有提升。

如下圖table2所示為VGGNet-A網(wǎng)絡(luò)在ImageNet上訓(xùn)練測試的一個結(jié)果表。當(dāng)采用了50%的通道裁剪以后,參數(shù)裁剪比例超過了5倍,但是Flops裁剪比例僅為30.4%,這是因為在卷積層中只有378個通道被裁剪掉了,而在全連接層中,有5094個通道被裁剪掉。

關(guān)于加快CNN模型在計算資源受限的應(yīng)用場景的速度的分析研究

如下表table4, 展示了在VGGNet在Cifar10以及Cifar100上進(jìn)行multi-pass裁剪的一個對比結(jié)果。如在Cifar10數(shù)據(jù)集上,隨著迭代次數(shù)的提升,裁剪比例越來越高,在iter 5的時候,得到了最低的test error。此時該模型達(dá)到了20x的參數(shù)減少和5x的計算量減少。而在Cifar100上,在iter3上,test error開始增加。這可能是因為在cifar100上,類別數(shù)目大于Cifar10,所以裁剪的太厲害會影響最終的結(jié)果,但是仍然實現(xiàn)了接近90%的參數(shù)減少以及接近70%的計算量下降。

關(guān)于加快CNN模型在計算資源受限的應(yīng)用場景的速度的分析研究

如下圖Figure 4為本文采用VGGNet在Cifar100上作稀疏化訓(xùn)練一些對比實驗,可以發(fā)現(xiàn)隨著入的增大,模型通道權(quán)重的結(jié)果會越來越稀疏。

關(guān)于加快CNN模型在計算資源受限的應(yīng)用場景的速度的分析研究

我們的一些實踐

由于公布的代碼是在torch框架下的代碼,因此,我們根據(jù)在Caffe上對上述結(jié)果進(jìn)行了一次簡單的驗證。在驗證過程中采用了VGGNet-A網(wǎng)絡(luò)作為實驗網(wǎng)絡(luò),并采用的Cifar10作為訓(xùn)練數(shù)據(jù)集。

如下圖所示,左上為入=0,在iteration = 10000時的入?yún)?shù)分布圖,右上為入=0,iteration=45000的參數(shù)分布圖。左下為入=10e-4,iteration = 45000的參數(shù)統(tǒng)計圖,右下為入=10-3, iteration = 45000下的參數(shù)統(tǒng)計圖。[橫軸值除以100為參數(shù)實際區(qū)間]

關(guān)于加快CNN模型在計算資源受限的應(yīng)用場景的速度的分析研究

根據(jù)上面這一組圖我們發(fā)現(xiàn)如下幾點得到了驗證。

(1)隨著訓(xùn)練次數(shù)的增加,入?yún)?shù)在正則項的影響下,逐步左移,重要的通道權(quán)值逐步凸顯,不重要的通道權(quán)值逐步抑制,與論文中Figure6的結(jié)論相符

(2)隨著入?yún)?shù)的增大,L1正則項的影響越來越大,參數(shù)越來越向0點靠攏,稀疏比例提高

(3)在增加L1正則項以后,實現(xiàn)了對通道的稀疏化但訓(xùn)練的結(jié)果并沒有下降甚至反而有所提升,考慮在訓(xùn)練過程中,“噪聲”通道由于L1正則項的引入被抑制,而真正的有效通道被凸顯。

因此,我們認(rèn)為slimming的方法對于channel-wise的稀疏化是有效的。我們也采用同樣的參數(shù)在ImageNet數(shù)據(jù)集上進(jìn)行了實驗,實驗發(fā)現(xiàn)效果并不如在cifar10數(shù)據(jù)集上那么好,雖然也有參數(shù)稀疏化的效果但是并不如cifar10上那么明顯,同時參數(shù)稀疏化后大部分主要分布在0.2附近,后續(xù)我們將進(jìn)一步進(jìn)行試驗。

總而言之,channel-slimming利用了BatchNorm Layer的特性巧妙的對通道重要性建模并最后實現(xiàn)通道的稀疏化還是非常值得學(xué)習(xí)的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 嵌入式
    +關(guān)注

    關(guān)注

    5202

    文章

    20522

    瀏覽量

    335501
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7342

    瀏覽量

    94910
  • 自動駕駛
    +關(guān)注

    關(guān)注

    794

    文章

    14922

    瀏覽量

    180488
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    算法工程師需要具備哪些技能?

    :神經(jīng)網(wǎng)絡(luò)中的權(quán)重矩陣計算、降維算法(如PCA)等。 概率論與數(shù)理統(tǒng)計核心內(nèi)容:貝葉斯定理、最大似然估計、假設(shè)檢驗等。應(yīng)用場景模型不確定性分析、A/B測試效果評估等。 微積分核心內(nèi)容
    發(fā)表于 02-27 10:53

    Neway電機方案電機控制的應(yīng)用場景

    Neway電機方案電機控制的應(yīng)用場景Neway電機方案電機控制領(lǐng)域的應(yīng)用場景廣泛且效果顯著,其核心優(yōu)勢步進(jìn)電機、伺服電機控制及CNC機
    發(fā)表于 01-04 10:10

    請問MOSFET電源管理中有哪些應(yīng)用場景?

    MOSFET電源管理中有哪些應(yīng)用場景
    發(fā)表于 12-23 07:07

    Switch的應(yīng)用場景

    Switch的應(yīng)用場景如下: 調(diào)用一到多個函數(shù) 設(shè)置變量值或者返回一個值 執(zhí)行一到多個代碼片段 如果case標(biāo)簽很多,switch的前兩個使用場景中,使用查找表可以更高效的完成。例如下面的兩種
    發(fā)表于 12-12 07:28

    動態(tài)調(diào)整策略的應(yīng)用場景有哪些?

    ? 動態(tài)調(diào)整策略的核心價值是 “自適應(yīng)場景變化、平衡監(jiān)測精度與資源消耗” ,其應(yīng)用場景集中 電網(wǎng)工況波動大、設(shè)備資源
    的頭像 發(fā)表于 12-11 17:30 ?1416次閱讀

    藍(lán)牙網(wǎng)關(guān)是什么?都有哪些功能?應(yīng)用場景有哪些?

    壁壘。 智能化水平提升:深度融合AI與邊緣計算,具備數(shù)據(jù)異常識別、設(shè)備故障預(yù)測、自主優(yōu)化連接等能力,減少人工干預(yù)。 應(yīng)用場景拓展:向智能交通(車輛藍(lán)牙設(shè)備聯(lián)網(wǎng))、智慧城市(公共設(shè)施監(jiān)測)、農(nóng)業(yè)物聯(lián)網(wǎng)
    發(fā)表于 12-11 15:21

    CW32L083有哪些應(yīng)用場景?

    CW32L083有哪些應(yīng)用場景
    發(fā)表于 11-24 07:37

    一文了解Mojo編程語言

    Mojo 是一種由 Modular AI 公司開發(fā)的編程語言,旨在將 Python 的易用性與 C 語言的高性能相結(jié)合,特別適合人工智能(AI)、高性能計算(HPC)和系統(tǒng)級編程場景。以下是關(guān)于
    發(fā)表于 11-07 05:59

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    整個模型非常巨大。所以要想實現(xiàn)輕量級的CNN神經(jīng)網(wǎng)絡(luò)模型,首先應(yīng)該避免嘗試單層神經(jīng)網(wǎng)絡(luò)。 2)減少卷積核的大?。?b class='flag-5'>CNN神經(jīng)網(wǎng)絡(luò)是通過權(quán)值共享的方式,利用卷積運算從圖像中提取線性紋理。
    發(fā)表于 10-28 08:02

    模型推理顯存和計算量估計方法研究

    ,為實際應(yīng)用提供了有益的參考。 未來,我們將繼續(xù)深入研究模型推理的優(yōu)化方法,以降低顯存和計算資源的需求,提高深度學(xué)習(xí)模型
    發(fā)表于 07-03 19:43

    鯤云科技AI智能分析解決方案全新升級

    人工智能應(yīng)用場景中,使用 CNN 類算法對視頻數(shù)據(jù)進(jìn)行檢測和分析已經(jīng)是常見的做法,但傳統(tǒng)智能監(jiān)控設(shè)備長期面臨誤報率高、復(fù)雜場景泛化能力不足
    的頭像 發(fā)表于 06-16 17:15 ?1662次閱讀

    六相永磁同步電機串聯(lián)系統(tǒng)控制的兩種方法分析研究

    ,需要者可點擊附件免費獲取完整資料~~~*附件:六相永磁同步電機串聯(lián)系統(tǒng)控制的兩種方法分析研究.pdf【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請第一時間告知,刪除內(nèi)容!
    發(fā)表于 06-10 13:09

    安卓工控一體機智慧農(nóng)業(yè)設(shè)備中的應(yīng)用場景

    安卓工控一體機憑借其強大的計算能力、開放的操作系統(tǒng)、良好的兼容性和便捷的人機交互特性,智慧農(nóng)業(yè)設(shè)備中具有廣泛的應(yīng)用場景,以下是一些典型的應(yīng)用場景及詳細(xì)
    的頭像 發(fā)表于 05-16 11:57 ?657次閱讀
    安卓工控一體機<b class='flag-5'>在</b>智慧農(nóng)業(yè)設(shè)備中的應(yīng)<b class='flag-5'>用場景</b>

    RK3588核心板邊緣AI計算中的顛覆性優(yōu)勢與場景落地

    ——替代傳統(tǒng)工控機與低算力嵌入式方案 行業(yè)痛點分析 智能制造與智慧城市領(lǐng)域,傳統(tǒng)方案常面臨三大瓶頸: 算力不足:基于ARM Cortex-A53/A72的工控機難以并行處理多路高清視頻流與AI
    發(fā)表于 04-15 10:48

    東軟醫(yī)療大模型覆蓋眾多應(yīng)用場景

    近日,國際數(shù)據(jù)公司(IDC)發(fā)布《中國醫(yī)療大模型技術(shù)評估,2025》(Doc#CHC51586524,2025年4月)報告,指出當(dāng)前中國醫(yī)療大模型廣泛的醫(yī)療場景中展現(xiàn)出巨大的應(yīng)用潛力
    的頭像 發(fā)表于 04-14 17:04 ?1172次閱讀