91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于深度學(xué)習(xí)的七大學(xué)習(xí)步驟

電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2018-12-14 16:01 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:Matthew Mayo 翻譯:Andrewseu

網(wǎng)上有很多的深度學(xué)習(xí)的免費(fèi)學(xué)習(xí)資源,但是可能會(huì)對(duì)從哪里開(kāi)始有些困惑。七步內(nèi)從對(duì)深度神經(jīng)網(wǎng)絡(luò)的模糊理解到知識(shí)淵博的從業(yè)者(knowledgeable practitioner)!

深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支,擁有很多的相似性,但是卻也不同,深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)在自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)、生物信息學(xué)和其他領(lǐng)域解決了各種各樣的問(wèn)題。深度學(xué)習(xí)經(jīng)歷了一場(chǎng)巨大的最近研究的重現(xiàn),并且在很多領(lǐng)域中已經(jīng)展現(xiàn)出最先進(jìn)的成果。

本質(zhì)上,深度學(xué)習(xí)是超過(guò)一層隱藏神經(jīng)元的神經(jīng)網(wǎng)絡(luò)的執(zhí)行。但是,這是對(duì)深度學(xué)習(xí)的一個(gè)簡(jiǎn)單的看法,并且不是一個(gè)沒(méi)有爭(zhēng)議的觀點(diǎn)。這些深層構(gòu)架也非常不同,對(duì)不同任務(wù)或目標(biāo)優(yōu)化會(huì)有不同的執(zhí)行。在這樣一個(gè)恒定速率進(jìn)行著的大量研究在以史上未有的速度展現(xiàn)新的和創(chuàng)新的深度學(xué)習(xí)模型。

關(guān)于深度學(xué)習(xí)的七大學(xué)習(xí)步驟

最近的一個(gè)白熱化的研究課題,深度學(xué)習(xí)似乎影響著機(jī)器學(xué)習(xí)的所有領(lǐng)域,相關(guān)的還有數(shù)據(jù)科學(xué)。粗略看看相關(guān)arXiv目錄下最近的論文,很容易看出大量正在被發(fā)表的論文都是深度學(xué)習(xí)相關(guān)的。鑒于已經(jīng)產(chǎn)生的令人驚嘆的成果,很多研究者,從業(yè)者和外行都在想深度學(xué)習(xí)是否是真正的人工智能的邊界。

這系列的閱讀材料和教程旨在給深度神經(jīng)網(wǎng)絡(luò)的新人提供一條路徑去理解這個(gè)巨大而復(fù)雜的課題。盡管我不假設(shè)對(duì)神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)真正的理解,但是我假設(shè)你對(duì)一般的機(jī)器學(xué)習(xí)理論和實(shí)踐具有某種程度的熟悉度。為了克服在一般機(jī)器學(xué)習(xí)理論和實(shí)踐的不足,你可以看看最近KDnuggets發(fā)布的7 Steps to Mastering Machine Learning With Python。由于我們也看用Python寫(xiě)的例子的執(zhí)行,對(duì)語(yǔ)言有些熟悉會(huì)很有用。介紹和綜述的資源在previodsly mentioned post也是提供的。

這篇博客將以緊密結(jié)合的順序使用網(wǎng)絡(luò)上免費(fèi)提供的材料在理論層面上獲得對(duì)深度神經(jīng)網(wǎng)絡(luò)的一些理解,然后繼續(xù)轉(zhuǎn)向一些實(shí)際的執(zhí)行。同樣的,借鑒過(guò)來(lái)的引用材料只屬于創(chuàng)建者,跟資源會(huì)一起被標(biāo)注。如果你看到有人因?yàn)樗麄兊墓ぷ鳑](méi)有被正確引用,請(qǐng)告知我,我會(huì)很快修改的。

一個(gè)完全誠(chéng)實(shí)的免責(zé)申明:深度學(xué)習(xí)是一個(gè)復(fù)雜而在廣度和深度(pun unintended?)變化很快的領(lǐng)域,因此這篇博客不保證包括所有成為深度學(xué)習(xí)專家的手冊(cè);這樣的一個(gè)轉(zhuǎn)化將會(huì)需要更多的時(shí)間,很多附加材料和很多實(shí)際建立和測(cè)試的模型。但是,我相信的是,使用這里的資源可以幫你在這樣一個(gè)路徑下開(kāi)始。

第一步:介紹深度學(xué)習(xí)

如果你正在讀這個(gè)并且對(duì)這個(gè)課題感興趣,你可能已經(jīng)對(duì)深度神經(jīng)網(wǎng)絡(luò)已經(jīng)熟悉,甚至在一個(gè)很基礎(chǔ)的層次。神經(jīng)網(wǎng)絡(luò)有一個(gè)故事性的歷史,但是我們將不會(huì)深入。但是,我們需要如果在開(kāi)始就有一個(gè)普遍高層次的理解。

首先,看看DeepLearning .tv精彩的介紹視頻。在 寫(xiě)完這個(gè)的時(shí)候已經(jīng)有14個(gè)視頻了;如果你喜歡看完他們,但是一定要看前五個(gè),包含了神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)和一些更常見(jiàn)的結(jié)構(gòu)。

然后,仔細(xì)閱讀Geoff Hinton,Yoshua Bengioh和Yann LeCun的NIPS 2015 Deep Learning Tutorial,一個(gè)稍微更低層次的介紹。

完成我們的第一步,讀the first chapter of Neural Networks and Deep Learning,這個(gè)由Michael Nielden寫(xiě)的精妙的,不斷更新的在線書(shū),這會(huì)更近一步但是依然很粗淺。

第二步:學(xué)習(xí)技術(shù)

深度神經(jīng)網(wǎng)絡(luò)依賴代數(shù)和微積分的數(shù)學(xué)基礎(chǔ)。然而這篇博客不會(huì)產(chǎn)生任何理論上的數(shù)學(xué),在繼續(xù)之前有一些理解將會(huì)很有幫助。

第一,看Andrew Ng的linear algebra review videos。但是不是絕對(duì)的必要,想要對(duì)線性代數(shù)了解更深的話,從Ng的斯坦福課程看看Zico Kolter 和Chuong Do寫(xiě)的Linear Algebra Review and Reference.

然后看看Professor Leonard的Introduction to the Derivative of a Function. 視頻是很簡(jiǎn)潔的,例子是很清晰的,并且提供了從數(shù)學(xué)的視角來(lái)看在反向傳播的過(guò)程中到底發(fā)生了什么。一會(huì)兒會(huì)更多。

接下來(lái)迅速瀏覽下維基Sigmoid function的詞條,一個(gè)在神經(jīng)網(wǎng)絡(luò)中經(jīng)常通過(guò)單個(gè)神經(jīng)元應(yīng)用的邊界差分函數(shù)。

最后,從數(shù)學(xué)上休息下閱讀谷歌研究科學(xué)家 Quoc Le的Deep Learning Tutorial.

第三步:反向傳播和梯度下降

神經(jīng)網(wǎng)絡(luò)包括現(xiàn)代深度構(gòu)架重要的一部分是反向傳播算法的錯(cuò)誤,使用離輸入更近的神經(jīng)元通過(guò)網(wǎng)絡(luò)更新權(quán)重。非常坦率的說(shuō),這就是神經(jīng)網(wǎng)絡(luò)繼承他們”力量“(缺乏更好的術(shù)語(yǔ))的地方。反向傳播和一個(gè)隨后分布式的最小化權(quán)重的優(yōu)化方法,為了最小化損失函數(shù)。在深度學(xué)習(xí)中一個(gè)常見(jiàn)的優(yōu)化方法是梯度下降。

首先,看看這些斯圖加特大學(xué)Marc Toussaint 寫(xiě)的關(guān)于梯度下降的介紹筆記。

然后,看看Matt Mazur寫(xiě)的this step by step example of backpropagation in action.

繼續(xù),閱讀Jeremy Kun關(guān)于 coding backpropagation in Python的信息博客。仔細(xì)看看完整代碼也是建議的,嘗試自己寫(xiě)一遍代碼。

最后,讀Quoc Le寫(xiě)的Deep Learning Tutorial的第二部分,為了獲取一些更具體更常見(jiàn)的深度結(jié)構(gòu)和他們用途的介紹。

第四步:實(shí)踐

具體的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的下一步介紹將會(huì)使用在現(xiàn)在研究中最流行的python深度學(xué)習(xí)庫(kù)包括實(shí)際執(zhí)行。在一些情況下,一些不同的庫(kù)的優(yōu)化是為了某個(gè)特定的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),并且已經(jīng)在某些特定的領(lǐng)域立足,我們將會(huì)使用三個(gè)不同的深度學(xué)習(xí)庫(kù)。這不是多余的,在特定領(lǐng)域的實(shí)踐中與最新的庫(kù)保持一致時(shí)學(xué)習(xí)時(shí)很重要的一步。接下來(lái)的訓(xùn)練也將會(huì)讓你自己評(píng)價(jià)不同的庫(kù),并且形成一個(gè)在哪些問(wèn)題上用哪個(gè)的直覺(jué)。

現(xiàn)在歡迎你選擇一個(gè)庫(kù)或者聯(lián)合庫(kù)進(jìn)行安裝,是否繼續(xù)那些教程取決于你的選擇。如果你希望嘗試一個(gè)庫(kù)并且使用它來(lái)執(zhí)行接下來(lái)步驟的教程,我會(huì)推薦TensorFlow,原因如下,我會(huì)提到最相關(guān)的(至少是在我的眼中):它執(zhí)行自動(dòng)分化(autodifferentiation),意味著你不需要擔(dān)心從頭執(zhí)行反向傳播,更可能使代碼更容易理解(尤其是對(duì)一個(gè)初學(xué)者來(lái)說(shuō))。

我寫(xiě)關(guān)于TensorFlow的文章是在剛出來(lái)的時(shí)候TensorFlow Disappoints – Google Deep Learning Falls Shallow,這個(gè)標(biāo)題暗示著比在實(shí)際中更失望;我最初關(guān)注的是它缺少GPU集叢的網(wǎng)絡(luò)訓(xùn)練(很可能很快會(huì)有它自己的方式).無(wú)論如何,如果你沒(méi)有看列在下面的白皮書(shū)但是想看更多關(guān)于TensotFlow的材料,我建議讀我原始的文章,然后跟著Zachary Lipton's 寫(xiě)的很好的部分,TensorFlow is Terrific – A Sober Take on Deep Learning Acceleration.

TensorFlow

Google的TensorFlow是基于數(shù)據(jù)流圖展現(xiàn)的一個(gè)通用的機(jī)器i學(xué)習(xí)庫(kù)。

安裝TensorFlow在這里

查看白皮書(shū)

嘗試它的

文檔

Theano

Theano是被蒙特利爾大學(xué)的LISA group積極開(kāi)發(fā)的。

安裝Theano在這里

介紹教程

文檔

Caffe

Caffe是由加州大學(xué)伯克利分校的BVLC開(kāi)發(fā)的。Theano和Tensorflow可以認(rèn)為是通用的深度學(xué)習(xí)庫(kù),Caffe是由一個(gè)計(jì)算機(jī)視覺(jué)的組開(kāi)發(fā)的,主要考慮的解決那樣的問(wèn)題;但是,它也是一個(gè)通用的庫(kù)為了為不同領(lǐng)域建立不同的深度學(xué)習(xí)框架。

在這里安裝Caffe

閱讀來(lái)進(jìn)行熟悉

同時(shí)看看文檔

記住這些并不僅僅是現(xiàn)在流行的庫(kù)。事實(shí)上,還有很多很多可以選擇,這些選擇是基于教程的流行性,文檔和總體上研究上的接受程度。

其他的深度學(xué)習(xí)庫(kù)選擇包括:

Keras---一個(gè)用于Theano和TensorFlow高層、極簡(jiǎn)Python神經(jīng)網(wǎng)絡(luò)庫(kù)

Lasagne---Theano頂上的輕量級(jí)python庫(kù)

Torch---Lua機(jī)器學(xué)習(xí)算法庫(kù)

DeepLearning4j---Jaav和Scala開(kāi)源、分布式深度學(xué)習(xí)庫(kù)

Chainer---一個(gè)靈活的、直觀的python神經(jīng)網(wǎng)絡(luò)庫(kù)

Mocha---Juliade的一個(gè)深度學(xué)習(xí)框架

安裝好這些庫(kù),現(xiàn)在我們可以繼續(xù)實(shí)踐。

第五步:卷積神經(jīng)網(wǎng)絡(luò)和計(jì)算機(jī)視覺(jué)

計(jì)算機(jī)視覺(jué)解決處理和理解圖片和它的符號(hào)信息。大部分領(lǐng)域最近的突破都是來(lái)自于深度神經(jīng)網(wǎng)絡(luò)的使用。特別的,卷積神經(jīng)網(wǎng)絡(luò)在最近扮演一個(gè)很重要的角色。

首先,讀Yoshua Bengio的deep learning with computer vision,為了對(duì)這個(gè)課題有一個(gè)理解。

然后。如果你安裝好了TensorFlow,閱讀并執(zhí)行這個(gè)教程,這個(gè)是用卷積i神經(jīng)網(wǎng)絡(luò)分類CIFAR-10圖片。如果你安裝了Caffe,對(duì)于上一個(gè)教程的替代,執(zhí)行Caffe中的卷積神經(jīng)網(wǎng)絡(luò)分類MNIST數(shù)據(jù)集圖片。

這里是一個(gè)粗略等同于Caffe 的練習(xí)Theano tutorial.

然后,讀Krizhevsky, Sutskever和Hinton的seminal convolutional neural network paper增加額外的視野。

第六步:遞歸網(wǎng)和語(yǔ)言處理

自然語(yǔ)言處理(NLP)是收益與深度學(xué)習(xí)的另一個(gè)領(lǐng)域。關(guān)心理解自然語(yǔ)言,NLP通過(guò)運(yùn)用遞歸神經(jīng)網(wǎng)絡(luò)(RNN)有很多最新的成功。

Andrej Karpathy有一篇很贊的博客,題目是The Unreasonable Effectiveness of Recurrent Neural Networks,列出了RNN在訓(xùn)練字符級(jí)語(yǔ)言模型的有效性的大綱。它提到的代碼是通過(guò)Torch用Lua寫(xiě)的,所以你可以跳過(guò);這個(gè)在純理論層次上依舊很有用。

這個(gè)教程為語(yǔ)言處理在TensorFlow上執(zhí)行RNN.

你也可以用Theano并且用這個(gè)教程嘗試,用文字嵌套執(zhí)行了一個(gè)RNN.

最后,你可以讀Yoon Kim的Convolutional Neural Networks for Sentence Classification,這是CNN在語(yǔ)言處理上的又一個(gè)應(yīng)用。Denny Britz 有一篇博客,題目是Implementing A CNN For Text Clasification in TensorFlow,使用的是電影的評(píng)論數(shù)據(jù)。

第七步:更深入的課題

上面的步驟在深度學(xué)習(xí)已經(jīng)從理論上進(jìn)步到實(shí)踐。通過(guò)在前兩步執(zhí)行卷積神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò),希望的是對(duì)它們力量和功能性的預(yù)先感知。與CNN和RNN一樣普遍的有很多其他隨著基礎(chǔ)研究出現(xiàn)的已經(jīng)存在的深度結(jié)構(gòu)。

有很多超過(guò)前面理論步驟展現(xiàn)的其他的考慮,同樣的,下面是這些另外結(jié)構(gòu)和考慮的快速的調(diào)研。

為了更深的理解適合時(shí)間序列預(yù)測(cè)的特定類型的RNN,長(zhǎng)短項(xiàng)記憶網(wǎng)絡(luò),讀Christopher Olah寫(xiě)的這篇文章。

Denny Britz寫(xiě)的這篇文章是用LSTM和GRUs的 很好的一個(gè)關(guān)于RNN的教程。看這篇論文更深地討論GRUs和LSTMs.

很顯然這沒(méi)有包含所有的深度學(xué)習(xí)構(gòu)架。限制波爾茲曼機(jī)是一個(gè)腦中很明顯需要排除的,正如antoencoders,和一系列產(chǎn)生的相關(guān)的模型包括Generative Adversarial Networks. 但是,必須在某處畫(huà)一條線,不然這篇將會(huì)一直下去。

對(duì)那些感興趣其他深度學(xué)習(xí)構(gòu)架的,我建議看看Yshua Bengio的ftml.

對(duì)于我們的最終目標(biāo)和有一些不同的東西,看看Google DeepMindShakir Mohamed的 A Statistical Analysis of Deep Learning。這個(gè)比我們平常看到的材料更理論一些,但是值得用另一種方法看我們熟悉的事物。Shakir對(duì)6個(gè)月的課程寫(xiě)了一系列文章,展現(xiàn)測(cè)試wide-held beliefs,增強(qiáng)數(shù)據(jù)的連接,并且深度學(xué)習(xí)中要隱藏的東西。有一個(gè)所有發(fā)布的PDF集合.

希望足夠的信息已經(jīng)展現(xiàn),能夠給讀者一個(gè)對(duì)深度神經(jīng)網(wǎng)絡(luò)介紹性的綜述,并且提供一些想對(duì)這個(gè)課題繼續(xù)研究的熱情。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    人工智能與機(jī)器學(xué)習(xí)在這些行業(yè)的深度應(yīng)用

    自人工智能和機(jī)器學(xué)習(xí)問(wèn)世以來(lái),多個(gè)在線領(lǐng)域的數(shù)字化格局迎來(lái)了翻天覆地的變化。這些技術(shù)從誕生之初就為企業(yè)賦予了競(jìng)爭(zhēng)優(yōu)勢(shì),而在線行業(yè)正是受其影響最為顯著的領(lǐng)域。人工智能(AI)與機(jī)器學(xué)習(xí)(ML)的深度應(yīng)用,徹底重塑了整個(gè)行業(yè)的發(fā)展模
    的頭像 發(fā)表于 02-04 14:44 ?534次閱讀

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T(mén)還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見(jiàn)錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?226次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    國(guó)內(nèi)七大基于大模型的發(fā)射任務(wù)調(diào)度與過(guò)程保障分系統(tǒng)軟件介紹

    ? ? 七大基于大模型的發(fā)射任務(wù)調(diào)度與過(guò)程保障系統(tǒng) ? ?結(jié)合公開(kāi)航天資料、機(jī)構(gòu)技術(shù)路線及商業(yè)航天實(shí)踐,可梳理出涵蓋國(guó)內(nèi)外典型案例的七大智能發(fā)射調(diào)度系統(tǒng)及平臺(tái)。這些系統(tǒng)深度融合大語(yǔ)言模型(LLM
    的頭像 發(fā)表于 12-24 11:08 ?291次閱讀

    七大基于大模型的地面測(cè)控站網(wǎng)調(diào)度分系統(tǒng)軟件的應(yīng)用與未來(lái)發(fā)展

    ? ? 七大基于大模型的地面測(cè)控站網(wǎng)智能調(diào)度系統(tǒng) ? ?“七大基于大模型的地面測(cè)控站網(wǎng)調(diào)度分系統(tǒng)”并非公開(kāi)資料中的標(biāo)準(zhǔn)化術(shù)語(yǔ),而是結(jié)合國(guó)際航天測(cè)控領(lǐng)域發(fā)展趨勢(shì),以及人工智能大模型的技術(shù)落地實(shí)踐,梳理
    的頭像 發(fā)表于 12-19 15:42 ?393次閱讀

    如何深度學(xué)習(xí)機(jī)器視覺(jué)的應(yīng)用場(chǎng)景

    深度學(xué)習(xí)視覺(jué)應(yīng)用場(chǎng)景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測(cè):處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評(píng)估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?239次閱讀

    七大無(wú)人機(jī)電磁兼容測(cè)試平臺(tái)系統(tǒng):如何護(hù)航飛行安全

    七大無(wú)人機(jī)電磁兼容測(cè)試平臺(tái)系統(tǒng):如何護(hù)航飛行安全
    的頭像 發(fā)表于 09-12 14:49 ?727次閱讀
    <b class='flag-5'>七大</b>無(wú)人機(jī)電磁兼容測(cè)試平臺(tái)系統(tǒng):如何護(hù)航飛行安全

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語(yǔ)。這些概
    的頭像 發(fā)表于 09-10 17:38 ?925次閱讀
    如何在機(jī)器視覺(jué)中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過(guò)模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級(jí)能力。以下從技術(shù)賦能、場(chǎng)景突破
    的頭像 發(fā)表于 08-20 14:56 ?1061次閱讀

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來(lái),隨著ChatGPT、Claude、文心一言等大語(yǔ)言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4223次閱讀
    自動(dòng)駕駛中Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    工控板SMT貼片加工:七大關(guān)鍵工藝要求詳解?

    品控體系,為工業(yè)控制、智能裝備等領(lǐng)域提供高可靠性工控板貼片加工服務(wù)。本文深度解析工控級(jí)SMT加工的七大關(guān)鍵工藝規(guī)范。 工控級(jí)SMT加工的七大關(guān)鍵工藝要求 一、工控板SMT加工的嚴(yán)苛性要求 工控板作為工業(yè)自動(dòng)化設(shè)備的核心控制單元,
    的頭像 發(fā)表于 08-06 09:18 ?1058次閱讀
    工控板SMT貼片加工:<b class='flag-5'>七大</b>關(guān)鍵工藝要求詳解?

    第九屆集創(chuàng)賽“法動(dòng)杯”燃爆七大賽區(qū)

    盛夏創(chuàng)新熱潮涌動(dòng),“法動(dòng)杯”燃爆集創(chuàng)賽七大賽區(qū)。第九屆全國(guó)大學(xué)生集成電路創(chuàng)新創(chuàng)業(yè)大賽(簡(jiǎn)稱“集創(chuàng)賽”)正如火如荼進(jìn)行中,集創(chuàng)賽七大分賽區(qū)決賽已全面啟動(dòng)。
    的頭像 發(fā)表于 07-23 16:45 ?1479次閱讀

    使用MATLAB進(jìn)行無(wú)監(jiān)督學(xué)習(xí)

    無(wú)監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無(wú)監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)中隱藏的模式和關(guān)系,無(wú)需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識(shí)。
    的頭像 發(fā)表于 05-16 14:48 ?1473次閱讀
    使用MATLAB進(jìn)行無(wú)監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>

    你知道電感的七大關(guān)鍵參數(shù)嗎?

    今天這篇文章介紹電感的七大關(guān)鍵參數(shù)。1、電感值電感值就是電感做好以后的固有特性,比如1uH, 10mH,1H,這樣不同類型的感值。在學(xué)習(xí)電感值之前,我們先看一下電阻公式: 其中p是導(dǎo)體的電阻率
    發(fā)表于 04-16 11:31

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過(guò)程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以深度理解數(shù)據(jù)中所要表示的規(guī)律。從原理上看,使用
    的頭像 發(fā)表于 04-02 18:21 ?1543次閱讀

    用樹(shù)莓派搞深度學(xué)習(xí)?TensorFlow啟動(dòng)!

    介紹本頁(yè)面將指導(dǎo)您在搭載64位Bullseye操作系統(tǒng)的RaspberryPi4上安裝TensorFlow。TensorFlow是一個(gè)專為深度學(xué)習(xí)開(kāi)發(fā)的大型軟件庫(kù),它消耗大量資源。您可以在
    的頭像 發(fā)表于 03-25 09:33 ?1235次閱讀
    用樹(shù)莓派搞<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>?TensorFlow啟動(dòng)!