91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)是如何學(xué)習(xí)預(yù)測的?

穎脈Imgtec ? 2023-12-27 08:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作為一名程序員,我們習(xí)慣于去了解所使用工具、中間件的底層原理,本文則旨在幫助大家了解 AI 模型的底層機制,讓大家在學(xué)習(xí)或應(yīng)用各種大模型時更加得心應(yīng)手,更加適合沒有 AI 基礎(chǔ)的小伙伴們。


GPT 與神經(jīng)網(wǎng)絡(luò)的關(guān)系

GPT 想必大家已經(jīng)耳熟能詳,當我們與它進行對話時,通常只需關(guān)注自己問出的問題(輸入)以及 GPT 給出的答案(輸出),對于輸出內(nèi)容是如何產(chǎn)生的,我們一無所知,它就像一個神秘的黑盒子。c50f5c50-a44e-11ee-9ee2-92fbcf53809c.jpg

GPT 是一種基于神經(jīng)網(wǎng)絡(luò)的自然語言處理(NLP)模型,使用大量數(shù)據(jù)輸入神經(jīng)網(wǎng)絡(luò)對模型進行訓(xùn)練,直到模型的輸出在一定程度上符合我們的預(yù)期,訓(xùn)練成熟的模型就可以接收用戶的輸入,并針對輸入中的關(guān)鍵信息給出經(jīng)過 “思考” 后的答案。想要弄明白 GPT 究竟是如何 “思考” 的,或許我們可以從神經(jīng)網(wǎng)絡(luò)出發(fā)。


什么是神經(jīng)網(wǎng)絡(luò)

那么,神經(jīng)網(wǎng)絡(luò)到底是什么呢?或者說,為什么是神經(jīng)網(wǎng)絡(luò)?高中的生物學(xué)告訴我們,人類的神經(jīng)系統(tǒng)由數(shù)以億計的神經(jīng)元連接而成,它們是生物學(xué)上的細胞,有細胞體、樹突、軸突等主要結(jié)構(gòu),不同神經(jīng)元之間的樹突與軸突通過突觸與其他神經(jīng)元相互連接,形成復(fù)雜的人腦神經(jīng)網(wǎng)絡(luò)。人工智能為了使機器獲得接近人類的智力,嘗試效仿人腦的思考過程,創(chuàng)造出了一種模仿人腦神經(jīng)元之間相互連接的計算模型 —— 神經(jīng)網(wǎng)絡(luò)。它由多層神經(jīng)元組成,每個神經(jīng)元接收輸入并產(chǎn)生相應(yīng)的輸出。根據(jù)上述定義,圖 1 中黑盒子的內(nèi)部結(jié)構(gòu)已初具輪廓,下圖中的每個圓圈都代表一個神經(jīng)元,神經(jīng)元具有計算能力,可以將計算出來的結(jié)果傳遞到下一個神經(jīng)元。c5134bee-a44e-11ee-9ee2-92fbcf53809c.jpg

在生物學(xué)中,大腦的結(jié)構(gòu)越簡單,智力也就越低;相應(yīng)地,神經(jīng)系統(tǒng)越復(fù)雜,能處理的問題越多,智力也就越高。人工神經(jīng)網(wǎng)絡(luò)也是如此,越復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)計算能力越強大,這也是為什么發(fā)展出了深度神經(jīng)網(wǎng)絡(luò)。之所以被稱為 "深度",是因為它具有多個隱藏層(即上圖中縱向神經(jīng)元的層數(shù)),相對于傳統(tǒng)的淺層神經(jīng)網(wǎng)絡(luò),深度神經(jīng)網(wǎng)絡(luò)具有更多的層級結(jié)構(gòu)。訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的過程就叫做深度學(xué)習(xí)。構(gòu)建好深度神經(jīng)網(wǎng)絡(luò)之后,我們只需要將訓(xùn)練數(shù)據(jù)輸入到神經(jīng)網(wǎng)絡(luò)中,它就會自發(fā)地學(xué)習(xí)數(shù)據(jù)中的特征。比如說我們想要訓(xùn)練一個深度神經(jīng)網(wǎng)絡(luò)來識別貓,只需要將大量不同種類、不同姿勢、不同外觀的貓的圖片輸入到神經(jīng)網(wǎng)絡(luò)中讓它學(xué)習(xí)。訓(xùn)練成功后,我們將一張任意的圖片輸入到神經(jīng)網(wǎng)絡(luò)中,它會告訴我們里面是否有貓。


神經(jīng)網(wǎng)絡(luò)是如何計算的

現(xiàn)在,我們已經(jīng)知道了什么是神經(jīng)網(wǎng)絡(luò)以及它的基本結(jié)構(gòu),那么神經(jīng)網(wǎng)絡(luò)中的神經(jīng)元是如何對輸入數(shù)據(jù)進行計算的呢?

在此之前,我們要解決一個問題:數(shù)據(jù)是如何輸入到神經(jīng)網(wǎng)絡(luò)中的?下面以圖像和文本類型的數(shù)據(jù)為例講解。

  • 數(shù)據(jù)是如何輸入到神經(jīng)網(wǎng)絡(luò)中的

1、圖像輸入處理

想象一個畫面:當我們把一張圖片放大到一定程度時,可以看到一格一格的小方塊。這個小方塊就稱為像素點,一張圖片的像素點越多,說明像素越高,圖片越清晰。每個像素點僅由一種顏色構(gòu)成,光學(xué)中的三原色包含紅色、綠色、藍色,通過不同程度地混合這三種顏色可以產(chǎn)生出所有其他顏色。在 RGB 模型中,每種顏色的強度可以用一個數(shù)值來表示,通常在 0 到 255 之間。紅色的強度值為 0 表示沒有紅色光,255 表示最大強度的紅色光;綠色和藍色的強度值也是類似的。為了存儲一張圖像,計算機要存儲三個獨立的矩陣,這三個矩陣分別與圖像的紅色、綠色和藍色的強度相對應(yīng)。如果圖像的大小是 256 * 256 個像素,那么在計算機中使用三個 256 * 256 的矩陣(二維數(shù)組)就能表示這張圖像。可以想象將三個矩陣表示的顏色重疊堆放在一起,便可顯現(xiàn)出圖像的原始樣貌。現(xiàn)在我們得到了圖像在計算機中的表示方式,那么如何將它輸入到神經(jīng)網(wǎng)絡(luò)呢?通常我們會把上述三個矩陣轉(zhuǎn)化為一個向量,向量可以理解成 1 * n(行向量)或 n * 1(列向量)的數(shù)組。那么這個向量的總維數(shù)就是 256 * 256 * 3,結(jié)果是 196608。在人工智能領(lǐng)域中,每一個輸入到神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)都被叫做一個特征,那么上面的這張圖像中就有 196608 個特征。這個 196608 維的向量也被叫做特征向量。神經(jīng)網(wǎng)絡(luò)接收這個特征向量作為輸入,并進行預(yù)測,然后給出相應(yīng)的結(jié)果。

2、文本輸入處理

文本是由一系列字符組成的,首先需要將文本劃分成有意義的單詞,這個過程稱為分詞。在分詞后,構(gòu)建一個由出現(xiàn)的所有單詞或部分高頻單詞組成的詞匯表(也可以使用已有的詞匯表)。詞匯表中的每個單詞都會被分配一個唯一索引,這樣可以將文本轉(zhuǎn)換為離散的符號序列,方便神經(jīng)網(wǎng)絡(luò)進行處理。在輸入神經(jīng)網(wǎng)絡(luò)之前,通常會將文本的符號序列轉(zhuǎn)換為密集的向量表示。以文本 “How does neural network works?” 為例:

  • 分詞:["how", "does", "neural", "network", "works"]
  • 構(gòu)建詞匯表:{"how": 0, "does": 1, "neural": 2, "network": 3, "works": 4}
  • 序列化文本數(shù)據(jù):["how", "does", "neural", "network", "works"] -->[0, 1, 2, 3, 4]

向量化:

#此處以one-hot向量表示法為例:
[[1,0,0,0,0]
[0,1,0,0,0]
[0,0,1,0,0]
[0,0,0,1,0]
[0,0,0,0,1]]

最后,將向量序列作為輸入,給神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練或預(yù)測。

至此我們已經(jīng)知道了數(shù)據(jù)以怎樣的形式輸入到神經(jīng)網(wǎng)絡(luò)中,那么神經(jīng)網(wǎng)絡(luò)是如何根據(jù)這些數(shù)據(jù)進行訓(xùn)練的呢?

  • 神經(jīng)網(wǎng)絡(luò)是如何進行預(yù)測的

首先明確模型訓(xùn)練和預(yù)測的區(qū)別:訓(xùn)練是指通過使用已知的數(shù)據(jù)集來調(diào)整模型的參數(shù),使其能夠?qū)W習(xí)到輸入和輸出之間的關(guān)系;預(yù)測是指使用訓(xùn)練好的模型來對新的輸入數(shù)據(jù)進行預(yù)測。

神經(jīng)網(wǎng)絡(luò)的預(yù)測其實是基于一個很簡單的線性變換公式:

c51bfaf0-a44e-11ee-9ee2-92fbcf53809c.png

其中,x?表示特征向量,w?是特征向量的權(quán)重,表示每個輸入特征的重要程度,b?表示閾值,用于影響預(yù)測結(jié)果。公式中的 dot () 函數(shù)表示將 w?和 x?進行向量相乘。舉例:如果一個輸入數(shù)據(jù)有 i?個特征,代入公式計算結(jié)果為:c5226750-a44e-11ee-9ee2-92fbcf53809c.pngc5266cd8-a44e-11ee-9ee2-92fbcf53809c.jpg

如何理解這個公式呢?假設(shè)你需要決策周末是否去公園劃船,你對此猶豫不決,需要神經(jīng)網(wǎng)絡(luò)幫你做決定。決定是否去劃船有三個因素:天氣是否晴朗溫暖、地點是否遠近適中、同行玩伴是否合心意。實際情況是出行那天天氣為陰且偶有陣風(fēng)、地點在 20km 外的偏遠郊區(qū)、同行玩伴是心儀已久的大帥哥。這三個因素即為輸入數(shù)據(jù)的特征向量 x=[x1, x2, x3],我們需要根據(jù)特征對結(jié)果的影響來設(shè)置特征值,如 “天氣不好” 和 “地點偏遠” 對結(jié)果具有負向的影響,我們可以把它設(shè)為 - 1,“同行玩伴是心儀已久的大帥哥” 顯然對結(jié)果有大大的正向影響,可以把它設(shè)為 1,即特征向量 x=[-1, -1, 1]。接下來,需要根據(jù)你的偏好來設(shè)置三個特征的權(quán)重,也就是每個因素對你最終決策的影響程度。如果你不在乎天氣和地點,只要與大帥哥同行便風(fēng)雨無阻,那么可以將權(quán)重設(shè)置為 w=[1, 1, 5];如果你是個懶狗,那你可能會設(shè)置權(quán)重為 w=[2, 6, 3];總之,權(quán)重是根據(jù)對應(yīng)特征的重要程度來確定的。我們選擇第一組權(quán)重 w=[1, 1, 5],特征向量為 x=[-1, -1, 1], 并設(shè)置閾值 b=1,假設(shè)結(jié)果 z ≥ 0 表示去,z < 0 表示不去,計算預(yù)測結(jié)果 z = (x1w1 + x2w2 + x3*w3) + b = 4 > 0,因此神經(jīng)網(wǎng)絡(luò)給出的預(yù)測結(jié)果是:去公園劃船。

上面使用的公式

c52a2652-a44e-11ee-9ee2-92fbcf53809c.png

本質(zhì)上是一種邏輯回歸,用于將輸入數(shù)據(jù)映射到二分類的概率輸出。邏輯回歸通常使用一個特定的激活函數(shù)來實現(xiàn)將 z?值到 [0, 1] 的映射關(guān)系,即 Sigmoid 函數(shù),它將線性變換的結(jié)果通過非線性映射轉(zhuǎn)化為概率值。通常,大于等于 0.5 的概率值被視為正類,小于 0.5 的概率值被視為負類。Sigmoid 函數(shù)的公式和圖像如下所示:c52e18c0-a44e-11ee-9ee2-92fbcf53809c.pngc53686d6-a44e-11ee-9ee2-92fbcf53809c.jpg

除了能將結(jié)果輸出范圍控制在 0 到 1 之間,Sigmoid 函數(shù)(或其他激活函數(shù))另外一個重要作用就是將線性變換的結(jié)果進行非線性映射,使神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)和表示更加復(fù)雜的非線性關(guān)系。如果沒有激活函數(shù),神經(jīng)網(wǎng)絡(luò)只能解決簡單的線性問題;加入激活函數(shù)之后,只要層數(shù)足夠多,神經(jīng)網(wǎng)絡(luò)就能解決所有問題,因此激活函數(shù)是必不可少的。

  • 神經(jīng)網(wǎng)絡(luò)是如何進行學(xué)習(xí)的

得到預(yù)測結(jié)果后,神經(jīng)網(wǎng)絡(luò)會通過損失函數(shù)判斷預(yù)測結(jié)果是否準確,如果不夠準確,神經(jīng)網(wǎng)絡(luò)會進行自我調(diào)整,這就是學(xué)習(xí)的過程。

損失函數(shù)用于衡量模型的預(yù)測結(jié)果與真實標簽之間的誤差。通過將預(yù)測值與真實值進行比較,損失函數(shù)提供了一個數(shù)值指標,反映了模型當前的預(yù)測性能。較小的損失值表示模型的預(yù)測結(jié)果與真實標簽更接近,而較大的損失值表示預(yù)測誤差較大。下面介紹一個常用于二分類問題的損失函數(shù)(對數(shù)損失):

c53a5bee-a44e-11ee-9ee2-92fbcf53809c.pngc5420bb4-a44e-11ee-9ee2-92fbcf53809c.png

神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的目的,就是通過調(diào)整模型的參數(shù)使損失函數(shù)達到最小值,從而改善模型的預(yù)測性能,這個過程也稱為模型的訓(xùn)練。梯度下降算法可以解決這一問題,通過該算法找到合適的 w?(特征的權(quán)重)和 b(閾值),梯度下降算法會一步一步地改變 w 和 b?的值,使損失函數(shù)的結(jié)果越來越小,也就是使預(yù)測結(jié)果更精準。

c54be56c-a44e-11ee-9ee2-92fbcf53809c.pngc550f8ae-a44e-11ee-9ee2-92fbcf53809c.jpg這里需要注意的是,如果學(xué)習(xí)率設(shè)置過小,則需要多次梯度下降才能到達最低點,浪費機器運行資源;如果設(shè)置過大,則可能錯過最低點直接到了圖中左側(cè)的點位,因此需要根據(jù)實際情況選擇一個正確的學(xué)習(xí)率。

神經(jīng)網(wǎng)絡(luò)的計算過程主要有兩個步驟:正向傳播和反向傳播。正向傳播用于計算神經(jīng)元的輸出,也就是上述對輸入特征進行加權(quán)求和、并通過激活函數(shù)進行非線性變換的過程;反向傳播用于更新優(yōu)化模型參數(shù),通過計算損失函數(shù)關(guān)于模型參數(shù)的梯度,從輸出層向輸入層反向傳播梯度的過程(反向傳播涉及大量的數(shù)學(xué)計算,感興趣的讀者可以深入了解)。


小結(jié)

綜上所述,神經(jīng)網(wǎng)絡(luò)訓(xùn)練和學(xué)習(xí)的過程其實就是對模型參數(shù)進行不斷調(diào)優(yōu)、減少預(yù)測損失值過程。經(jīng)過充分訓(xùn)練后,模型能夠從輸入數(shù)據(jù)中學(xué)習(xí)到有效的特征表示和權(quán)重分配,從而能夠?qū)ξ匆娺^的數(shù)據(jù)進行準確的預(yù)測。訓(xùn)練完成的神經(jīng)網(wǎng)絡(luò)模型可以應(yīng)用于各種實際問題。比如,在圖像分類任務(wù)中,卷積神經(jīng)網(wǎng)絡(luò)可以根據(jù)輸入圖像的特征自動識別物體或圖案;在自然語言處理任務(wù)中,循環(huán)神經(jīng)網(wǎng)絡(luò)可以理解和生成文本;在推薦系統(tǒng)中,多層感知機神經(jīng)網(wǎng)絡(luò)可以根據(jù)用戶的歷史行為進行個性化推薦。

這篇文章對神經(jīng)網(wǎng)絡(luò)的工作機制做了淺層次的講解,如有不正之處,敬請指教!

作者:京東云開發(fā)者-京東零售 歐陽舟俞

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107834
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39820

    瀏覽量

    301497
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    16882
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    神經(jīng)網(wǎng)絡(luò)的初步認識

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物
    的頭像 發(fā)表于 12-17 15:05 ?337次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認識

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個啥?

    在自動駕駛領(lǐng)域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見,因為圖像本身就可以看作是由像素排列成的二維網(wǎng)格。
    的頭像 發(fā)表于 11-19 18:15 ?2083次閱讀
    自動駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個啥?

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計原理及在MCU200T上仿真測試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時的梯度耗散問題。當x&gt;0 時,梯度恒為1,無梯度耗散問題,收斂快;當x&lt;0 時,該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識別。一旦模型被訓(xùn)練并保存,就可以用于對新圖像進行推理和預(yù)測。要使用生成的模型進行推理,可以按照以下步驟進行操作: 1.
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器上。首先需要將所有權(quán)重數(shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲器內(nèi)。 在仿真環(huán)境下,可將其存于一個文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1243次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計算方式面臨著巨大的挑戰(zhàn),如計算速度慢、訓(xùn)練時間長等
    的頭像 發(fā)表于 09-17 13:31 ?1137次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計算與加速技術(shù)

    如何在機器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標檢測可定位已訓(xùn)練的目標類別,并通過矩形框(邊界框)對其進行標識。 在討論人工智能(AI)或深度學(xué)習(xí)時,經(jīng)常會出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標注”等術(shù)語。這些概念對非專業(yè)
    的頭像 發(fā)表于 09-10 17:38 ?909次閱讀
    如何在機器視覺中部署深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真模型解決方案

    在基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真(DPD)模型中,使用不同的激活函數(shù)對整個系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3478次閱讀

    無刷電機小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來實現(xiàn)轉(zhuǎn)角預(yù)測,并采用改進遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機故障診斷中的應(yīng)用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機轉(zhuǎn)速估計中的仿真研究

    眾多方法中,由于其結(jié)構(gòu)簡單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計精度下降和對電動機參數(shù)變化非常敏感的問題。本文利用神經(jīng)網(wǎng)絡(luò)的特點,使估計更為簡單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個神經(jīng)網(wǎng)絡(luò)已經(jīng)通過python或者MATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1236次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    NVIDIA實現(xiàn)神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強功能

    近日,NVIDIA 宣布了 NVIDIA RTX 神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強功能。NVIDIA 與微軟合作,將在 4 月的 Microsoft DirectX 預(yù)覽版中增加神經(jīng)網(wǎng)絡(luò)著色技術(shù),讓開
    的頭像 發(fā)表于 04-07 11:33 ?1198次閱讀