91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)的基礎(chǔ)知識,深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)和學(xué)習(xí)過程的歷史

倩倩 ? 來源:lq ? 作者:智能甄選 ? 2019-09-20 15:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在本文中,我將向您簡要介紹深度學(xué)習(xí)的基礎(chǔ)知識,無論您之后可能選擇何種語言,庫或框架。

介紹

試圖用很好的理解來解釋深度學(xué)習(xí)可能需要一段時間,所以這不是本文的目的。

目的是幫助初學(xué)者理解該領(lǐng)域的基本概念。然而,即使是專家也可能會在以下內(nèi)容中找到有用的東西。

冒著極其簡單的風(fēng)險(請專家請原諒我),我會盡量給你一些基本信息。如果不出意外,這可能只會引發(fā)一些人更愿意深入研究這個問題。

一些歷史

深度學(xué)習(xí)本質(zhì)上是一個新的和時髦的名稱,一個主題已經(jīng)存在了相當(dāng)長一段時間的神經(jīng)網(wǎng)絡(luò)。

當(dāng)我在90年代初開始學(xué)習(xí)(和愛好)這個領(lǐng)域時,這個主題已經(jīng)眾所周知了。事實上,第一步是在20世紀40年代(麥卡洛克和皮茨),但從那時起,這個領(lǐng)域的進展一直很大,直到現(xiàn)在。該領(lǐng)域取得了巨大的成功,在智能手機,汽車和許多其他設(shè)備上進行了深入的學(xué)習(xí)。

那么,什么是神經(jīng)網(wǎng)絡(luò),你可以用它做什么?

好吧,讓我們關(guān)注計算機科學(xué)的經(jīng)典方法:程序員設(shè)計一種算法,對于給定的輸入,它會生成輸出。

他或她準(zhǔn)確地設(shè)計函數(shù)f(x)的所有邏輯,以便:

y = f(x)

其中x和y分別是輸入和輸出。

但是,有時設(shè)計f(x)可能并不那么容易。例如,想象一下,x是面部圖像,y是通信者的名字。對于自然大腦來說,這項任務(wù)非常容易,而計算機算法難以完成!

這就是深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)發(fā)揮作用的地方?;驹瓌t是:停止嘗試設(shè)計f()算法并嘗試模仿大腦。

好的,大腦是如何表現(xiàn)的?它使用幾個無限對(x,y)樣本(訓(xùn)練集)訓(xùn)練自己,并且在整個逐步過程中,f(x)函數(shù)自動形成自身。它不是由任何人設(shè)計的,而是從無休止的試錯法提煉機制中產(chǎn)生的。

想象一個孩子每天看著他或她周圍的熟悉的人:數(shù)十億的快照,從不同的位置,視角,光線條件,每次進行關(guān)聯(lián),每次糾正和銳化下面的自然神經(jīng)網(wǎng)絡(luò)。

人工神經(jīng)網(wǎng)絡(luò)是由大腦中的神經(jīng)元和突觸構(gòu)成的自然神經(jīng)網(wǎng)絡(luò)的模型。

典型的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

為了保持簡單(并且能夠利用當(dāng)今機器的數(shù)學(xué)和計算能力),可以將神經(jīng)網(wǎng)絡(luò)設(shè)計為一組層,每層包含節(jié)點(大腦神經(jīng)元的人工對應(yīng)物),其中層中的每個節(jié)點連接到下一層中的每個節(jié)點。

每個節(jié)點都有一個由兩個限制之間的浮點數(shù)表示的狀態(tài),通常為0和1.當(dāng)此狀態(tài)接近其最小值時,該節(jié)點被視為非活動(關(guān)閉),而當(dāng)它接近最大值時,該節(jié)點被視為活動狀態(tài)(上)。你可以把它想象成一個燈泡; 不嚴格依賴于二進制狀態(tài),但也能夠處于兩個限制之間的某個中間值。

每個連接都有一個權(quán)重,因此前一層中的活動節(jié)點可能或多或少地對下一層中的節(jié)點的活動(興奮性連接)做出貢獻,而非活動節(jié)點不會傳播任何貢獻。

連接的權(quán)重也可以是負的,這意味著前一層中的節(jié)點(或多或少地)對下一層中的節(jié)點的不活動性(抑制連接)做出貢獻。

為簡單起見,讓我們描述一個網(wǎng)絡(luò)的子集,其中前一層中的三個節(jié)點與下一層中的節(jié)點相連。再簡單來說,假設(shè)前一層中的前兩個節(jié)點處于其最大激活值(1),而第三個節(jié)點處于其最小值(0)。

在上圖中,前一層中的前兩個節(jié)點是活動的(on),因此,它們對下一層中節(jié)點的狀態(tài)有所貢獻,而第三個節(jié)點在非活動(關(guān)閉)中有所貢獻,因此它不會貢獻以任何方式(獨立于其連接重量)。

第一個節(jié)點具有強(厚)正(綠色)連接權(quán)重,這意味著它對激活的貢獻很高。第二個具有弱(?。┴摚t色)連接重量; 因此,它有助于抑制連接節(jié)點。

最后,我們得到了來自前一層的傳入連接節(jié)點的所有貢獻的加權(quán)和。

其中i是節(jié)點i的激活狀態(tài),w ij是連接節(jié)點i和節(jié)點j的連接權(quán)重。

那么,給定這個加權(quán)和數(shù),我們?nèi)绾闻袛嘞乱粚又械墓?jié)點是否會被激活?規(guī)則是否簡單如“如果總和為正,它將被激活,而如果負數(shù)則不會”?嗯,它可能是這種方式,但一般來說,它取決于您為節(jié)點選擇的激活函數(shù)(以及哪個閾值)。

想一想; 這個最終數(shù)字可以是實數(shù)范圍內(nèi)的任何數(shù)字,而我們需要使用它來設(shè)置具有更有限范圍的節(jié)點的狀態(tài)(假設(shè)從0到1)。然后我們需要將第一個范圍映射到第二個范圍,以便將任意(負數(shù)或正數(shù))數(shù)字壓縮到0..1范圍。

執(zhí)行此任務(wù)的一個非常常見的激活函數(shù)是sigmoid函數(shù)

閾值(y值達到范圍中間的x值,即0.5)為零,但通常,它可以是任何值(負或正,導(dǎo)致sigmoid向左移位)或右邊)。

低閾值允許以較低加權(quán)和激活節(jié)點,而高閾值將僅使用該總和的高值來確定激活。

該閾值可以通過考慮前一層中的附加虛節(jié)點來實現(xiàn),其具有恒定激活值1.在這種情況下,實際上,該虛節(jié)點的連接權(quán)重可以充當(dāng)閾值,并且總和公式以上可以認為包含閾值本身。

最終,網(wǎng)絡(luò)的狀態(tài)由其所有權(quán)重的值集合(從廣義上講,包括閾值)來表示。

給定狀態(tài)或一組權(quán)重值可能會產(chǎn)生不良結(jié)果或大錯誤,而另一個狀態(tài)可能會產(chǎn)生良好結(jié)果,換句話說,就是小錯誤。

因此,在N維狀態(tài)空間中移動會導(dǎo)致小的或大的錯誤。將權(quán)重域映射到錯誤值的此函數(shù)是損失函數(shù)。我們的思想不能輕易想象在N + 1空間中的這種功能。但是,我們可以得到N = 2的特殊情況的一般概念:閱讀本文,你會看到。

訓(xùn)練神經(jīng)網(wǎng)絡(luò)包括找到最小的損失函數(shù)。為什么一個好的最小值而不是全局最小值?好吧,因為這個函數(shù)通常是不可微分的,所以你只能借助一些Gradient Descent技術(shù)在權(quán)重域中游蕩,并希望不要:

做出太大的步驟,可能會讓你在沒有意識到的情況下爬到最低限度

做太小的步驟可能會讓你鎖定在一個不太好的局部最小值

這不是一件容易的事,是吧?這就是為什么這是深度學(xué)習(xí)的總體主要問題,以及為什么訓(xùn)練階段可能需要數(shù)小時,數(shù)天或數(shù)周。這就是為什么您的硬件對于此任務(wù)至關(guān)重要以及為什么您經(jīng)常需要停止培訓(xùn)并考慮不同的方法和配置參數(shù)值并重新開始它的原因!

但讓我們回到網(wǎng)絡(luò)的一般結(jié)構(gòu),這是一堆層。第一層是輸入(x),而最后一層是輸出(y)。

中間的層可以是零,一個或多個。它們被稱為隱藏層,深度學(xué)習(xí)中的“深層”一詞恰好指的是網(wǎng)絡(luò)可以有許多隱藏層,因此可能在訓(xùn)練期間找到更多關(guān)聯(lián)輸入和輸出的特征。

注意:在20世紀90年代,你會聽說過多層網(wǎng)絡(luò)而不是深層網(wǎng)絡(luò),但這是一回事。現(xiàn)在,已經(jīng)越來越清楚的是,層越遠離輸入(深層),它就越能捕獲抽象特征。

另請參閱: 從程序員的角度設(shè)計Java中的神經(jīng)網(wǎng)絡(luò)

學(xué)習(xí)過程

在學(xué)習(xí)過程開始時,權(quán)重是隨機設(shè)置的,因此第一層中的給定輸入集將傳播并生成隨機(計算)輸出。然后將該輸出與所提供輸入的所需輸出進行比較; 差異是衡量網(wǎng)絡(luò)錯誤的指標(biāo)(損失函數(shù))。

然后,此錯誤用于對生成它的連接權(quán)重應(yīng)用調(diào)整,此過程從輸出層開始,逐步向后移動到第一層。

應(yīng)用的調(diào)整量可以很小或很大,并且通常在稱為學(xué)習(xí)率的因素中定義。

該算法稱為反向傳播,并在Rumelhart,Hinton和Williams研究后于1986年開始流行。

請記住中間的名字:Geoffrey Hinton。他經(jīng)常被稱為“深度學(xué)習(xí)的教父”,是一位不知疲倦的照明科學(xué)家。例如,他現(xiàn)在正在研究一種名為Capsule Neural Networks的新范例,這聽起來像是該領(lǐng)域的另一場偉大革命!

反向傳播的目標(biāo)是通過對訓(xùn)練集中每次迭代的權(quán)重進行適當(dāng)?shù)男U齺碇饾u減少網(wǎng)絡(luò)的整體誤差。再次,考慮到減少誤差的這個過程是困難的部分,因為沒有任何保證重量調(diào)整總是朝著正確的方向進行最小化。

這個問題總結(jié)為在n維表面找到最小值,同時用眼罩踩著:你可以找到一個局部最小值,永遠不知道你是否能表現(xiàn)得更好。

如果學(xué)習(xí)速率太小,則該過程可能導(dǎo)致過慢,并且網(wǎng)絡(luò)可能停滯在局部最小值。另一方面,較大的學(xué)習(xí)速率可能導(dǎo)致跳過全局最小值并使算法發(fā)散。

事實上,在訓(xùn)練階段,問題往往是減少錯誤的過程不會收斂,錯誤會增加而不是縮小!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    機器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個常見錯誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時間,機器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時刻關(guān)注并銘記的常見錯誤。如果對這些錯誤置之不理,日后可能會引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?261次閱讀
    機器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個常見錯誤與局限性

    穿孔機頂頭檢測儀 機器視覺深度學(xué)習(xí)

    頂頭狀態(tài)。 檢測頂頭算法 引入人工智深度學(xué)習(xí)技術(shù),通過Keras實現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)(CNN),用Numpy實現(xiàn)采集數(shù)據(jù)的訓(xùn)練,得到符合現(xiàn)場需求的模型,進一步提升檢測的準(zhǔn)確性和現(xiàn)場的適應(yīng)性。 應(yīng)用范圍
    發(fā)表于 12-22 14:33

    神經(jīng)網(wǎng)絡(luò)的初步認識

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 12-17 15:05 ?372次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認識

    如何深度學(xué)習(xí)機器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進行智能分類 外觀質(zhì)量評估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?263次閱讀

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個啥?

    在自動駕駛領(lǐng)域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見,因為圖像本身就可以看作是由像
    的頭像 發(fā)表于 11-19 18:15 ?2133次閱讀
    自動駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個啥?

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    人工智能工程師高頻面試題匯總:循環(huán)神經(jīng)網(wǎng)絡(luò)篇(題目+答案)

    ,提前準(zhǔn)備一些面試常問的問題,比如概率論與統(tǒng)計知識、機器學(xué)習(xí)的那些算法,或者深度學(xué)習(xí)的框架,還有怎么優(yōu)化模型,循環(huán)神經(jīng)網(wǎng)絡(luò)等,這些都是加分項
    的頭像 發(fā)表于 10-17 16:36 ?748次閱讀
    人工智能工程師高頻面試題匯總:循環(huán)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>篇(題目+答案)

    如何在機器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對其進行標(biāo)識。 在討論人工智能(AI)或深度學(xué)習(xí)時,經(jīng)常會出現(xiàn)“神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 09-10 17:38 ?958次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    Andes晶心科技推出新一代深度學(xué)習(xí)加速器

    高效能、低功耗 32/64 位 RISC-V 處理器核與 AI 加速解決方案的領(lǐng)導(dǎo)供貨商—Andes晶心科技(Andes Technology)今日正式發(fā)表最新深度學(xué)習(xí)加速器 AndesAIRE AnDLA I370。此產(chǎn)品專為具成本效益的邊緣與終端 AI 應(yīng)用所設(shè)計,旨
    的頭像 發(fā)表于 08-20 17:43 ?2721次閱讀

    深度學(xué)習(xí)對工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡(luò)的層級結(jié)構(gòu),能夠自動從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級能力。以下從技術(shù)賦能、場景突破
    的頭像 發(fā)表于 08-20 14:56 ?1091次閱讀

    自動駕駛中Transformer大模型會取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4269次閱讀
    自動駕駛中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    多層神經(jīng)網(wǎng)絡(luò)的非線性變換擬合規(guī)律,理論上幾乎可以描述和模擬一切規(guī)律,但實際上該過程效率極低 —— 其計算復(fù)雜度往往呈指數(shù)級增長。這一特性使得深度學(xué)習(xí)與端側(cè)設(shè)備的資源約束存在根本性矛盾,
    發(fā)表于 07-14 14:50 ?1273次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機故障診斷中的應(yīng)用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機
    發(fā)表于 06-16 22:09

    深度學(xué)習(xí)賦能:正面吊車載箱號識別系統(tǒng)的核心技術(shù)

    支撐。 深度學(xué)習(xí)驅(qū)動的智能識別 傳統(tǒng)OCR技術(shù)易受光線、污損或箱體圖案干擾,而新一代識別系統(tǒng)通過深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)和注意力機制,實現(xiàn)了復(fù)雜場景下的高精度動態(tài)識別: - 抗干擾優(yōu)
    的頭像 發(fā)表于 05-07 10:10 ?617次閱讀

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實現(xiàn)機器學(xué)習(xí),網(wǎng)絡(luò)的每個層都將對輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度
    的頭像 發(fā)表于 04-02 18:21 ?1567次閱讀