91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深入探討機(jī)器學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)現(xiàn)狀和瓶頸

產(chǎn)業(yè)大視野 ? 來(lái)源:未知 ? 作者:胡薇 ? 2018-10-23 11:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

機(jī)器學(xué)習(xí)作為工具商業(yè)化較為廣泛的還是在B端,比如一些金融公司會(huì)輸出自己的風(fēng)控能力、反作弊能力。在一些高精密工業(yè)領(lǐng)域通過(guò)AR+AI的技術(shù),已經(jīng)可以幫助技術(shù)人員迅速測(cè)量出儀器的指標(biāo),并將相關(guān)數(shù)據(jù)回傳至控制系統(tǒng)中。大大滴減少了技術(shù)人員手工測(cè)量的工作,同時(shí)也減少了人工測(cè)量數(shù)據(jù)的誤差。

一、機(jī)器學(xué)習(xí)的現(xiàn)狀和瓶頸

機(jī)器學(xué)習(xí)如今已算是在互聯(lián)網(wǎng)圈家喻戶(hù)曉的名詞了。現(xiàn)實(shí)生活中其實(shí)也早有很多應(yīng)用,什么無(wú)人駕駛,人臉識(shí)別,智能音響等等。去年七月國(guó)家發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,說(shuō)明人工智能領(lǐng)域已經(jīng)上升到了國(guó)家戰(zhàn)略層面。身邊一直羨慕的土豪朋友們五年后的長(zhǎng)線股也都已經(jīng)買(mǎi)好了。五年后的事情我不知道,但是對(duì)我印象最深的就是去年互聯(lián)網(wǎng)大會(huì),原先人們口中的互聯(lián)網(wǎng)現(xiàn)在都改名叫傳統(tǒng)互聯(lián)網(wǎng)了。當(dāng)我們還在理解什么是機(jī)器學(xué)習(xí)的時(shí)候,別人已經(jīng)開(kāi)公司幫人制定解決方案了。

實(shí)際上當(dāng)前機(jī)器學(xué)習(xí)作為工具商業(yè)化較為廣泛的還是在B端,比如一些金融公司會(huì)輸出自己的風(fēng)控能力、反作弊能力。在一些高精密工業(yè)領(lǐng)域通過(guò)AR+AI的技術(shù),已經(jīng)可以幫助技術(shù)人員迅速測(cè)量出儀器的指標(biāo),并將相關(guān)數(shù)據(jù)回傳至控制系統(tǒng)中。大大滴減少了技術(shù)人員手工測(cè)量的工作,同時(shí)也減少了人工測(cè)量數(shù)據(jù)的誤差。更多的應(yīng)用場(chǎng)景比如安防領(lǐng)域,通過(guò)人臉識(shí)別技術(shù)可以快速記錄出入人員,從而把非結(jié)構(gòu)化數(shù)據(jù)變成結(jié)構(gòu)化。

不過(guò)機(jī)器學(xué)習(xí)也并不是在所有領(lǐng)域都能發(fā)揮出巨大作用,起碼是在現(xiàn)在這個(gè)階段。機(jī)器學(xué)習(xí)很多情況是需要很多標(biāo)注數(shù)據(jù)來(lái)供機(jī)器進(jìn)行學(xué)習(xí),通過(guò)對(duì)標(biāo)注數(shù)據(jù)不斷的學(xué)習(xí)和優(yōu)化從而使其建立一個(gè)泛化的模型,當(dāng)新的數(shù)據(jù)通過(guò)這個(gè)模型時(shí)機(jī)器便會(huì)對(duì)其進(jìn)行分類(lèi)或者預(yù)測(cè)。

比如說(shuō)如果要判斷一個(gè)病人是否患有血管癌,就需要有大量被標(biāo)注的血管病變數(shù)據(jù)。但這些標(biāo)注數(shù)據(jù)的工作是需要非常有臨床經(jīng)驗(yàn)的醫(yī)生一個(gè)一個(gè)的去判斷和標(biāo)注的。一方面是有經(jīng)驗(yàn)的專(zhuān)家醫(yī)生很少,另一方面對(duì)于這類(lèi)數(shù)據(jù)本身數(shù)量也有限。另外醫(yī)療行業(yè)對(duì)于模型的準(zhǔn)確率要求肯定不會(huì)亞于無(wú)人駕駛。所以不可否認(rèn)機(jī)器學(xué)習(xí)的應(yīng)用的確有它的強(qiáng)大之處,但在不同領(lǐng)域中充滿的挑戰(zhàn)也非常多。

二、神經(jīng)網(wǎng)絡(luò)算法

按照慣例,簡(jiǎn)單介紹一下神經(jīng)網(wǎng)絡(luò)。

1、神經(jīng)元

人類(lèi)對(duì)事物的感知是通過(guò)無(wú)數(shù)個(gè)神經(jīng)元通過(guò)彼此鏈接而形成的一個(gè)巨大神經(jīng)網(wǎng)絡(luò),然后每層神經(jīng)元會(huì)將接收到的信號(hào)經(jīng)過(guò)處理后逐層傳遞給大腦,最后再由大腦做出下一步?jīng)Q策。神經(jīng)網(wǎng)絡(luò)算法實(shí)際上就是在模仿這一生物原理。

2、監(jiān)督無(wú)監(jiān)督

神經(jīng)網(wǎng)絡(luò)算法是屬于有監(jiān)督學(xué)習(xí)的一種。有監(jiān)督學(xué)習(xí)實(shí)際上就是需要有大量的被標(biāo)注數(shù)據(jù)供其學(xué)習(xí)。反之無(wú)監(jiān)督就是不需要事先對(duì)數(shù)據(jù)進(jìn)行標(biāo)注,而是利用算法挖掘數(shù)據(jù)中潛在的規(guī)律,比如一些聚類(lèi)算法。那么半監(jiān)督學(xué)習(xí),相信也不難理解。

3、權(quán)重參數(shù)

神經(jīng)網(wǎng)絡(luò)算法中的最小單元即為神經(jīng)元,一個(gè)神經(jīng)元可能會(huì)接受到n個(gè)傳遞過(guò)來(lái)的數(shù)據(jù)。每條數(shù)據(jù)在輸入神經(jīng)元時(shí)都需要乘以一個(gè)權(quán)重值w,然后將n個(gè)數(shù)據(jù)求和,在加上偏置量b。這時(shí)得到的值與該神經(jīng)元的閾值進(jìn)行比較,最后在通過(guò)激活函數(shù)輸出處理結(jié)果。

4、線性與非線性

實(shí)際上算法本身最核心的是一個(gè)線性函數(shù)y=wx+b。w為權(quán)重值,b為偏置量,x為輸入數(shù)據(jù),y為輸出數(shù)據(jù)。當(dāng)我們?cè)谔幚砟承?shù)據(jù)時(shí),理想情況是這些數(shù)據(jù)為線性可分的。這樣只要我們找到這條直線的w和b就可以作為某個(gè)模型來(lái)對(duì)數(shù)據(jù)進(jìn)行分類(lèi)或預(yù)測(cè)了。如下圖:

但事實(shí)上大部分的數(shù)據(jù)并不是線性可分的,或者說(shuō)一條直線無(wú)法很好的表達(dá)這些數(shù)據(jù)集。這時(shí)候怎么辦呢?這時(shí)候一般情況下就會(huì)通過(guò)增加多個(gè)神經(jīng)元以及激活函數(shù)來(lái)使模型擬合數(shù)據(jù)集。

5、激活函數(shù)

那么,什么是激活函數(shù)?說(shuō)白了,激活函數(shù)就是一個(gè)能把線性函數(shù)掰彎的函數(shù)。比如下面的這組數(shù)據(jù)我們是無(wú)法通過(guò)一條直線將紅藍(lán)兩種數(shù)據(jù)分隔開(kāi)。但是通過(guò)激活函數(shù),我們甚至可以將一條直線掰成一個(gè)圓。這樣我們就可以將兩組數(shù)據(jù)分隔開(kāi)了。

所以理論上,我們可以將一條直線做任意的變化使其更加貼近數(shù)據(jù)集,并選取一條最優(yōu)曲線即為我們期望的最終訓(xùn)練模型。那么我們的目標(biāo)就很明確了。

6、優(yōu)化器

但是如何才能找到這么一條曲線?這時(shí)候我們可以引入一系列的優(yōu)化算法,比如梯度下降。通過(guò)優(yōu)化算法對(duì)函數(shù)求導(dǎo)我們可以使模型中的參數(shù)逐漸貼近真實(shí)值。同時(shí)在優(yōu)化過(guò)程中還需要加入損失函數(shù)。

7、損失函數(shù)

什么是損失函數(shù)?損失函數(shù)說(shuō)白了可以理解成為一個(gè)驗(yàn)收者。損失函數(shù)會(huì)去衡量測(cè)試數(shù)據(jù)中的結(jié)果與實(shí)際值的偏差情況。如果偏差較大就要告訴優(yōu)化函數(shù)繼續(xù)優(yōu)化直到模型完全收斂。常用的損失函數(shù)如:交叉熵、平方差等。

8、過(guò)擬合欠擬合

不過(guò)需要注意的是,如果我們的曲線完美的擬合了所有數(shù)據(jù),那么這條曲線是否即為我們模型的最優(yōu)曲線呢?答案是否定的。這里我們還需要考慮一個(gè)模型泛化的問(wèn)題。如果我們訓(xùn)練了一個(gè)模型,但是這個(gè)模型僅能在訓(xùn)練數(shù)據(jù)集中發(fā)揮很大效用,那么它實(shí)際的應(yīng)用意義其實(shí)并不大。我們需要的是通過(guò)這個(gè)模型能夠讓我們了解到我們未知的信息,而不是已知的。所以我們并不希望這條曲線能夠穿過(guò)所有的數(shù)據(jù),而是讓它盡可能的描繪出這個(gè)數(shù)據(jù)集。為了防止模型過(guò)擬合可以嘗試增加訓(xùn)練數(shù)據(jù)同時(shí)減小模型復(fù)雜度。同樣我們也不可能讓這條曲線完全偏離數(shù)據(jù)集。

三、深度學(xué)習(xí)框架

自己推導(dǎo)算法?自己設(shè)計(jì)模型?不存在的…大神們?cè)缇蛶湍惴庋b好了。安心做一個(gè)調(diào)包俠吧。

沒(méi)有訓(xùn)練數(shù)據(jù)?沒(méi)有測(cè)試樣本?不存在的…大神們?cè)缇蛶湍銣?zhǔn)備好了。安心做一個(gè)調(diào)參狗吧。

什么?還是不知道怎么做?不存在的!下面讓你秒變機(jī)器學(xué)習(xí)大神(裝逼狗)。

Keras

機(jī)器學(xué)習(xí)的框架這里就不枚舉了,不過(guò)Keras還是非常值得提一下。相比Tensorflow,Keras更容易新手上手,封裝的更加高級(jí)。建議在嘗試使用框架前先了解或?qū)W習(xí)一下python,然后直接Keras中文文檔吧。

那么如何秒變大神?Keras框架中其實(shí)已經(jīng)內(nèi)置了很多預(yù)訓(xùn)練好的模型,如ResNet50圖片分類(lèi)器。你只需要將下圖中的代碼復(fù)制到你的Keras框架中并運(yùn)行。然后泡一杯咖啡,想象自己已經(jīng)成為吳恩達(dá)一樣的大神。靜靜的等待著深藏功與名的那一刻的到來(lái)。

大概半小時(shí)的時(shí)間,模型下載安裝完畢。激動(dòng)人心的時(shí)刻終于來(lái)臨,趕快來(lái)測(cè)一下這個(gè)模型。從百度上隨便搜索了一張貓的圖片,并將圖片的大小改為224*224像素。然后將圖片放到項(xiàng)目的根目錄中(不要忘記修改代碼中的圖片名稱(chēng)),最后運(yùn)行程序。你會(huì)發(fā)現(xiàn)模型不僅能識(shí)別出來(lái)是一只貓,并且還知道是一只波斯貓。驚不驚喜?刺不刺激?是不是有很多小圖片想要嘗試?趕快玩起來(lái)吧。

通過(guò)對(duì)這個(gè)模型的封裝以及作為產(chǎn)品經(jīng)理的你,相信也可以YY出很多好玩的應(yīng)用。雖然通過(guò)Keras中的預(yù)置模型可以讓我們快速體驗(yàn)機(jī)器學(xué)習(xí)的能力,但是個(gè)人建議最好還是自己手動(dòng)搭建一套簡(jiǎn)單的模型會(huì)更加幫助理解。Keras是通過(guò)Sequential模型線性堆疊網(wǎng)絡(luò)層。其中一些常用的層Keras已經(jīng)封裝好了,同時(shí)上面說(shuō)到的激活函數(shù)、優(yōu)化器、損失函數(shù)等等也都是任君挑選的。所以想要通過(guò)Keras搭建自己的模型其實(shí)也不難。上述內(nèi)容實(shí)際上也只是一個(gè)拋磚引玉,至少個(gè)人也是通過(guò)這些才開(kāi)始對(duì)機(jī)器學(xué)習(xí)感興趣的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:【Robot 學(xué)院】機(jī)器學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)現(xiàn)狀和瓶頸

文章出處:【微信號(hào):robotn,微信公眾號(hào):產(chǎn)業(yè)大視野】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識(shí)

    日常生活中的智能應(yīng)用都離不開(kāi)深度學(xué)習(xí),而深度學(xué)習(xí)則依賴(lài)于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物
    的頭像 發(fā)表于 12-17 15:05 ?317次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識(shí)

    自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個(gè)啥?

    在自動(dòng)駕駛領(lǐng)域,經(jīng)常會(huì)聽(tīng)到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡(jiǎn)稱(chēng)為CNN,是一種專(zhuān)門(mén)用來(lái)處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見(jiàn),因?yàn)閳D像本身就可以看作是由像素排列成的二維網(wǎng)格。
    的頭像 發(fā)表于 11-19 18:15 ?2071次閱讀
    自動(dòng)駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個(gè)啥?

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    NMSIS NN 軟件庫(kù)是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫(kù)分為多個(gè)功能,每個(gè)功能涵蓋特定類(lèi)別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)。我們采用jupyter notebook作為開(kāi)發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練一個(gè)手寫(xiě)數(shù)字識(shí)別的神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器上。首先需要將所有權(quán)重?cái)?shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲(chǔ)器內(nèi)。 在仿真環(huán)境下,可將其存于一個(gè)文件,并在 Verilog 代碼中通過(guò) readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡(jiǎn)介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲(chóng)的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1194次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計(jì)算方式面臨著巨大的挑戰(zhàn),如計(jì)算速度慢、訓(xùn)練時(shí)間長(zhǎng)等
    的頭像 發(fā)表于 09-17 13:31 ?1119次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類(lèi)別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語(yǔ)。這些概念對(duì)非專(zhuān)業(yè)
    的頭像 發(fā)表于 09-10 17:38 ?897次閱讀
    如何在<b class='flag-5'>機(jī)器</b>視覺(jué)中部署深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    一文了解Arm神經(jīng)超級(jí)采樣 (Arm Neural Super Sampling, Arm NSS) 深入探索架構(gòu)、訓(xùn)練和推理

    本文將從訓(xùn)練、網(wǎng)絡(luò)架構(gòu)到后處理和推理等方面,深入探討 Arm 神經(jīng)超級(jí)采樣 (Arm Neural Super Sampling, Arm NSS) 的工作原理,希望為機(jī)器
    的頭像 發(fā)表于 08-14 16:11 ?3028次閱讀

    無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過(guò)對(duì)無(wú)刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來(lái)訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專(zhuān)家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對(duì)傳統(tǒng)專(zhuān)家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問(wèn)題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專(zhuān)家系統(tǒng)的并步電機(jī)故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專(zhuān)家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點(diǎn),很大程度上降低了對(duì)電機(jī)
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究

    眾多方法中,由于其結(jié)構(gòu)簡(jiǎn)單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開(kāi)發(fā)。但是MRAS仍存在在低速區(qū)速度估計(jì)精度下降和對(duì)電動(dòng)機(jī)參數(shù)變化非常敏感的問(wèn)題。本文利用神經(jīng)網(wǎng)絡(luò)的特點(diǎn),使估計(jì)更為簡(jiǎn)單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個(gè)神經(jīng)網(wǎng)絡(luò)已經(jīng)通過(guò)python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過(guò)python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1190次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    感應(yīng)電機(jī)智能調(diào)速

    本資料探討了專(zhuān)家系統(tǒng)控制、模糊控制、神經(jīng)網(wǎng)絡(luò)控制、遺傳算法等智能控制算法在感應(yīng)電機(jī)控制中的應(yīng)用,以期設(shè)計(jì)出與電機(jī)參數(shù)無(wú)關(guān)或?qū)﹄姍C(jī)參數(shù)變化不敏感的控制。主要包括感應(yīng)電機(jī)控制現(xiàn)狀和感應(yīng)電機(jī)控制一般
    發(fā)表于 05-28 15:53

    神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過(guò)濾器修剪統(tǒng)計(jì)數(shù)據(jù)怎么查看?

    無(wú)法觀察神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過(guò)濾器修剪統(tǒng)計(jì)數(shù)據(jù)
    發(fā)表于 03-06 07:10