91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NER中的深度學(xué)習(xí)技術(shù)

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:CS的陋室 ? 作者:CS的陋室 ? 2021-03-05 16:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

上周推薦了一篇NER的論文,這周算是把這篇綜述看完了,感覺(jué)自己的收獲挺大的(老是感覺(jué)自己看過(guò)寫(xiě)過(guò),但是又沒(méi)找到),給大家介紹一下。

A Survey on Deep Learning for Named Entity Recognition.

總評(píng)

這篇綜述讓我感受到比較完整的NER世界觀是啥樣的,問(wèn)題定義、問(wèn)題拆解、常用方法及其評(píng)價(jià)、模型評(píng)估、拓展等,由于是綜述,全面性滿(mǎn)滿(mǎn),具體的方法可以在參考文獻(xiàn)里面找,212篇文獻(xiàn)可謂是誠(chéng)意滿(mǎn)滿(mǎn)。

文章關(guān)鍵點(diǎn)筆記

1 introduction

命名實(shí)體識(shí)別的中的核心,命名實(shí)體(Named Entity)概念的出現(xiàn)其實(shí)并不久遠(yuǎn),1996年。時(shí)至今日,處理NER問(wèn)題的主要有四種:

基于規(guī)則的方法。

無(wú)監(jiān)督學(xué)習(xí)方法。

基于特征的機(jī)器學(xué)習(xí)方法。

深度學(xué)習(xí)方法。

我們其實(shí)可以看到,得益于機(jī)器學(xué)習(xí)方法,NER問(wèn)題被更好的解決。

2 background

本章主要是討論了NER的一些背景問(wèn)題,NER的問(wèn)題定義(尤其是NE的定義)、數(shù)據(jù)集和工具、模型評(píng)估、傳統(tǒng)方法之類(lèi)的。

NER問(wèn)題定義

首先是問(wèn)題定義,主要是命名實(shí)體的定義,我直接用文章的原句吧:

A named entity is a word or a phrase that clearly identies one item from a set of other items that have similar attributes.

那么NER,其實(shí)就是去識(shí)別這個(gè)命名實(shí)體。

NER的模型評(píng)估

作者把評(píng)估方法分為了兩塊,精準(zhǔn)匹配和軟匹配(我翻譯的,英文是relaxed-match)。

精確匹配有兩個(gè)層面,一個(gè)是每個(gè)位點(diǎn)的預(yù)測(cè)準(zhǔn)確情況(BIO或者BIEMO的情況),這個(gè)比較常見(jiàn)。

而軟匹配上,其實(shí)由于他的復(fù)雜性和基于問(wèn)題的特異性,沒(méi)有被廣泛使用。

傳統(tǒng)NER方法

所謂的“傳統(tǒng)”方法,作者認(rèn)為是除了DL之外的方法都算吧。

基于規(guī)則的方法會(huì)依賴(lài)問(wèn)題的背景,其實(shí)也有一些輸出,作者角度看,如果資源足夠時(shí),其實(shí)就能夠有很好的效果(這個(gè)和我的實(shí)踐來(lái)看是一致的),高準(zhǔn)確低召回低可遷移性是它的特點(diǎn)。

無(wú)監(jiān)督方法

無(wú)監(jiān)督方法也有一些,說(shuō)白了就是聚類(lèi),利用的是關(guān)鍵詞匯、種子詞匯去進(jìn)行擴(kuò)增,從而完成無(wú)監(jiān)督學(xué)習(xí)的任務(wù),需要根據(jù)問(wèn)題進(jìn)行策略的調(diào)整,可遷移性較低。

基于特征的機(jī)器學(xué)習(xí)方法

常用的機(jī)器學(xué)習(xí)方法其實(shí)就是那些,隱馬爾科夫、決策樹(shù)、最大熵、支持向量機(jī)和條件隨機(jī)場(chǎng)。

至于特征上,也給了大家一些提示,詞性、句子成分、大小寫(xiě)等,另外還可以引入一些外部的知識(shí)信息,例如維基百科的地點(diǎn)詞等。

3 NER中的深度學(xué)習(xí)技術(shù)

我們都知道,在nlp領(lǐng)域下,論準(zhǔn)招等各種效果,深度學(xué)習(xí)具有很高的地位,因此作者也花了非常大的筆墨來(lái)討論深度學(xué)習(xí),首先就談了深度學(xué)習(xí)的特點(diǎn):

非線(xiàn)性處理。

自動(dòng)化信息抽取,不用花費(fèi)精力尋找和維護(hù)特征。

直接端到端訓(xùn)練。

對(duì)于解決NER的深度學(xué)習(xí)方法,作者把整體架構(gòu)劃分為三個(gè)等級(jí):

分布式文本表示

上下文編碼

tag解碼

分布式文本表示

分布式文本表示,說(shuō)白了就是word2vector、glove之類(lèi)的預(yù)訓(xùn)練方法。具體定義不贅述了哈哈哈。

word級(jí)別,其實(shí)就比較常見(jiàn)word2vector、glove、fasttet、senna等,當(dāng)然也有一些簡(jiǎn)單預(yù)訓(xùn)練語(yǔ)言模型,例如結(jié)合CNN之類(lèi)的。

而char級(jí)別(中文就是字級(jí)別)對(duì)未登錄詞的識(shí)別能力很高,其構(gòu)建的主要方式主要有CNN-based和RNN-based。

當(dāng)然,還有一些混合方法,會(huì)加入一些外部信息(詞典信息、詞匯相似度信息),這些方法對(duì)效果提升有用,但是可遷移性下降了。另外,作者把bert的方法也歸于此處,主要原因是他在預(yù)訓(xùn)練的時(shí)候使用了大量外部語(yǔ)料信息。

上下文編碼架構(gòu)

上下文編碼是文本表示之后的操作,作者分為了4種情況,CNN、RNNs、遞歸神經(jīng)網(wǎng)絡(luò)和transformer,另外還單獨(dú)提到了神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型。

CNN和RNNs的情況其實(shí)比較常規(guī)了,不做太多解釋?zhuān)恼轮衅鋵?shí)更多的也是論文的解釋。

遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks)其實(shí)我也只是聽(tīng)過(guò),自己沒(méi)有深入地了解,后續(xù)會(huì)排期學(xué)習(xí)。簡(jiǎn)單的用作者的話(huà)評(píng)價(jià):

Recursive Neural Networks are non-linear adaptive mod- els that are able to learn deep structured information, by traversing a given structure in topological order.

也就是構(gòu)建了一種特定的拓?fù)浣Y(jié)構(gòu)來(lái)表達(dá)內(nèi)部的信息,這種信息大都和句子的語(yǔ)法結(jié)構(gòu)相關(guān)。

神經(jīng)語(yǔ)言模型是nlp里面最為基礎(chǔ)的內(nèi)容,NLP幾次前進(jìn)的里程碑都和神經(jīng)語(yǔ)言模型的大跨步有關(guān),word2vector、elmo、bert。

想提一個(gè)有意思的思路,他借助語(yǔ)言模型和NER多任務(wù)的模型來(lái)進(jìn)行訓(xùn)練,這種方式能讓模型學(xué)到更加針對(duì)領(lǐng)域的語(yǔ)言模型,同時(shí)也能滿(mǎn)足NER的需求,作者的解釋放這里:

Peters et al. [19] proposed TagLM, a language model augmented sequence tagger. This tagger considers both pre-trained word embeddings and bidirectional language model embeddings for every token in the input sequence for sequence labeling task. Figure 12 shows the architecture of LM-LSTM-CRF model [121], [122]. The language model and sequence tagging model share the same character-level layer in a multi-task learning manner. The vectors from character- level embeddings, pre-trained word embeddings, and lan- guage model representations, are concatenated and fed into the word-level LSTMs. Experimental results demonstrate that multi-task learning is an effective approach to guide the language model to learn task-specific knowledge.

transformer可以說(shuō)是距離我們最近的一次里程碑跨越的代表了,一次技術(shù)的突破需要時(shí)間落到更多任務(wù)的實(shí)踐中,NER也不例外,目前在transformer應(yīng)用于NER的研究上,已經(jīng)有不少人進(jìn)行嘗試,而且從效果來(lái)看,具有下面這些特點(diǎn):

上下文和位置信息的表征。

微調(diào)方法為模型的通用性提供了保證,同時(shí)對(duì)特定問(wèn)題也能進(jìn)行特異性訓(xùn)練。

tag解碼器

有關(guān)tag解碼器,其實(shí)就有點(diǎn)像機(jī)器學(xué)習(xí)方法了,上游做好特征工程,然后下游接解碼器預(yù)測(cè)每個(gè)位置的分類(lèi),常用的方法有:

MLP+softmax,簡(jiǎn)單,但是上下文信息捕獲能力很差。

CRF,NER上比較重要的基本方法。、

RNN,訓(xùn)練速度比CRF稍快,但是個(gè)人感覺(jué)效果不如CRF強(qiáng)。

pointer networks。RNN的一種升級(jí)版,用來(lái)提取其中的chunk,內(nèi)部其實(shí)有兩個(gè)神經(jīng)網(wǎng)絡(luò),一個(gè)用于分詞,一個(gè)用于標(biāo)記。

summary

作者花了很多的力氣去對(duì)比各個(gè)模型的效果,經(jīng)過(guò)作者的總結(jié),有如下信息:

文本表示效果對(duì)預(yù)測(cè)結(jié)果影響很大。

噪音數(shù)據(jù)對(duì)效果影響較大。

外部信息,包括預(yù)訓(xùn)練語(yǔ)言模型,效果雖好,作者特別指出了里面的問(wèn)題:

外部信息依賴(lài)計(jì)算性能和標(biāo)注性能。

大部分情況不利于可遷移能力。

從效果來(lái)看transformer比lstm系列效果更好,可以成為lstm的替換方法。

rnn系列的缺點(diǎn)在于貪婪法,首先強(qiáng)烈依賴(lài)于上一步的結(jié)果,同時(shí)對(duì)速度有影響。

后續(xù)作者對(duì)任務(wù)下的方法進(jìn)行總結(jié),給出一些方法選擇的建議:

For end users, what architecture to choose is data and domain task dependent. If data isabundant, training models withRNNs from scratch and fine-tuning contextualized languagemodels could be considered. If data is scarce, adoptingtransfer strategiesmight be a better choice. For newswires domain, there are many pre-trained off-the-shelf models available. For specific domains (e.g., medical and social media),fine-tuning general-purpose contextualized language modelswith domain-specific data is often an effective way.

可惜的是作者這里只考慮了準(zhǔn)招效果,而沒(méi)有考慮參數(shù)量、復(fù)雜度、內(nèi)存等其他因素,不過(guò)就準(zhǔn)招而言,確實(shí)有借鑒意義。

深度學(xué)習(xí)在NER中的應(yīng)用

這章更多的是談一些使用深度學(xué)習(xí)解決NER的思路,這塊涉及自己的盲點(diǎn)很多,但是這些東西都很值得學(xué)習(xí),此處先列出,后續(xù)慢慢學(xué)習(xí)。

深度多任務(wù)學(xué)習(xí)。

深度遷移學(xué)習(xí)。

深度主動(dòng)學(xué)習(xí)。

深度強(qiáng)化學(xué)習(xí)。

深度對(duì)抗學(xué)習(xí)。

Attention機(jī)制。

NER的挑戰(zhàn)和未來(lái)方向

看到類(lèi)似的句子,說(shuō)明綜述到尾聲了,總結(jié)了過(guò)去,肯定要展望未來(lái),在挑戰(zhàn)上,作者提出了兩個(gè)關(guān)鍵點(diǎn):

數(shù)據(jù)標(biāo)注問(wèn)題,NER相比文本分類(lèi),其實(shí)更加需要數(shù)據(jù),這個(gè)一直是一個(gè)老大難的問(wèn)題,如何獲取更多更準(zhǔn)的標(biāo)注樣本,是一個(gè)技術(shù)活。

非正式語(yǔ)言環(huán)境。在非正式的語(yǔ)境下,其實(shí)語(yǔ)法結(jié)構(gòu)并不是那么完整(例如微博、朋友圈、用戶(hù)query到等),這對(duì)準(zhǔn)確性和魯棒性要求就很高了。

而在方向上,有如下思路可供參考:

細(xì)粒度的NER和邊界問(wèn)題。NER有時(shí)候也被叫做提槽,槽位的精準(zhǔn)在現(xiàn)在問(wèn)題下,其實(shí)多在于對(duì)邊緣的準(zhǔn)確劃分。

實(shí)體鏈接。即對(duì)NER問(wèn)題有了更高級(jí)的需求,要求理解實(shí)體之間的關(guān)系,這個(gè)對(duì)知識(shí)圖譜的構(gòu)建非常重要。

資源匱乏下NER的訓(xùn)練。

NER的可延展性,由于NER大都依賴(lài)rnn這種遞歸式,貪婪式的模型,所以耗時(shí)普遍較長(zhǎng),長(zhǎng)句子的識(shí)別時(shí)間尤其可怕,因此這個(gè)問(wèn)題需要被關(guān)注。

遷移學(xué)習(xí)。說(shuō)白了就是看看能不能白嫖或者是少花錢(qián)的方式完成一個(gè)ner任務(wù)。

NER下可用的深度學(xué)習(xí)工具。

評(píng)價(jià)

這篇綜述其實(shí)談到了很多NER我之前沒(méi)有關(guān)注的點(diǎn),幾個(gè)重點(diǎn)我劃一下,后續(xù)我也會(huì)持續(xù)去看:

上下游編碼結(jié)構(gòu)和tagger兩個(gè)模塊的模型拓展。

多任務(wù)、主動(dòng)學(xué)習(xí)這兩塊有較大的挖掘空間。

另外我認(rèn)為作者還有幾個(gè)方向沒(méi)有談到但是大家應(yīng)該關(guān)注:

nlp下的數(shù)據(jù)增強(qiáng)問(wèn)題,可以從ner角度開(kāi)始拓展,主要因?yàn)閚er的標(biāo)注數(shù)據(jù)具有的信息,比比他簡(jiǎn)單的文本分類(lèi)問(wèn)題的數(shù)據(jù)多,也比比他復(fù)雜的機(jī)器翻譯、對(duì)話(huà)系統(tǒng)的數(shù)據(jù)信息更結(jié)構(gòu)化,因此用ner進(jìn)行數(shù)據(jù)增強(qiáng)具有很大價(jià)值。

蒸餾。我們都知道上述模型耗時(shí)長(zhǎng)、體積大,蒸餾是解決該問(wèn)題的一個(gè)重要方法,但是相比CV領(lǐng)域,nlp領(lǐng)域的蒸餾還有很大潛力。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3777

    瀏覽量

    52179
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8558

    瀏覽量

    137081
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5600

    瀏覽量

    124494

原文標(biāo)題:【綜述】2018年的一篇NER綜述筆記

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    人工智能與機(jī)器學(xué)習(xí)在這些行業(yè)的深度應(yīng)用

    自人工智能和機(jī)器學(xué)習(xí)問(wèn)世以來(lái),多個(gè)在線(xiàn)領(lǐng)域的數(shù)字化格局迎來(lái)了翻天覆地的變化。這些技術(shù)從誕生之初就為企業(yè)賦予了競(jìng)爭(zhēng)優(yōu)勢(shì),而在線(xiàn)行業(yè)正是受其影響最為顯著的領(lǐng)域。人工智能(AI)與機(jī)器學(xué)習(xí)(ML)的
    的頭像 發(fā)表于 02-04 14:44 ?579次閱讀

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T(mén)還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見(jiàn)錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?256次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>中</b>需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    穿孔機(jī)頂頭檢測(cè)儀 機(jī)器視覺(jué)深度學(xué)習(xí)

    LX01Z-DG626穿孔機(jī)頂頭檢測(cè)儀采用深度學(xué)習(xí)技術(shù),能夠?qū)崿F(xiàn)頂頭狀態(tài)的在線(xiàn)實(shí)時(shí)檢測(cè),頂頭丟失報(bào)警,頂頭異常狀態(tài)報(bào)警等功能,響應(yīng)迅速,異常狀態(tài)視頻回溯,檢測(cè)頂頭溫度,配備吹掃清潔系統(tǒng),維護(hù)周期長(zhǎng)
    發(fā)表于 12-22 14:33

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    行業(yè)市場(chǎng)具備深度學(xué)習(xí)能力的視覺(jué)系統(tǒng)占比已突破40%,催生大量復(fù)合型技術(shù)崗位需求: ? 崗位缺口:視覺(jué)算法工程師全國(guó)缺口15萬(wàn)+,缺陷檢測(cè)專(zhuān)項(xiàng)人才招聘響應(yīng)率僅32% ? 薪資水平:掌握LabVIEW+
    發(fā)表于 12-04 09:28

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    行業(yè)市場(chǎng)具備深度學(xué)習(xí)能力的視覺(jué)系統(tǒng)占比已突破40%,催生大量復(fù)合型技術(shù)崗位需求: ? 崗位缺口:視覺(jué)算法工程師全國(guó)缺口15萬(wàn)+,缺陷檢測(cè)專(zhuān)項(xiàng)人才招聘響應(yīng)率僅32% ? 薪資水平:掌握LabVIEW+
    發(fā)表于 12-03 13:50

    如何深度學(xué)習(xí)機(jī)器視覺(jué)的應(yīng)用場(chǎng)景

    深度學(xué)習(xí)視覺(jué)應(yīng)用場(chǎng)景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測(cè):處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類(lèi):對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類(lèi) 外觀質(zhì)量評(píng)估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?260次閱讀

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    人士而言往往難以理解,人們也常常誤以為需要扎實(shí)的編程技能才能真正掌握并合理使用這項(xiàng)技術(shù)。事實(shí)上,這種印象忽視了該技術(shù)為機(jī)器視覺(jué)(乃至生產(chǎn)自動(dòng)化)帶來(lái)的潛力,因?yàn)?b class='flag-5'>深度學(xué)習(xí)并非只屬于計(jì)算機(jī)
    的頭像 發(fā)表于 09-10 17:38 ?958次閱讀
    如何在機(jī)器視覺(jué)中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    、實(shí)施路徑三個(gè)維度展開(kāi)分析: 一、深度學(xué)習(xí)如何突破工業(yè)物聯(lián)網(wǎng)的技術(shù)瓶頸? 1. 非結(jié)構(gòu)化數(shù)據(jù)處理:解鎖“沉睡數(shù)據(jù)”價(jià)值 傳統(tǒng)困境 :工業(yè)物聯(lián)網(wǎng)70%以上的數(shù)據(jù)為非結(jié)構(gòu)化數(shù)據(jù)(如設(shè)備振
    的頭像 發(fā)表于 08-20 14:56 ?1091次閱讀

    自動(dòng)駕駛Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    持續(xù)討論。特別是在自動(dòng)駕駛領(lǐng)域,部分廠商開(kāi)始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學(xué)習(xí)是否已過(guò)時(shí)”的激烈爭(zhēng)論。然而,從技術(shù)原理、算力成本、安全需求與實(shí)際落地路徑等維度來(lái)看,Transforme
    的頭像 發(fā)表于 08-13 09:15 ?4268次閱讀
    自動(dòng)駕駛<b class='flag-5'>中</b>Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來(lái),隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門(mén)的研究領(lǐng)域之一。在語(yǔ)音識(shí)別、圖像識(shí)別、自然語(yǔ)言處理等領(lǐng)域,深度
    發(fā)表于 07-14 14:50 ?1270次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    深度學(xué)習(xí)賦能:正面吊車(chē)載箱號(hào)識(shí)別系統(tǒng)的核心技術(shù)

    在現(xiàn)代物流與智慧港口建設(shè),集裝箱的高效精準(zhǔn)識(shí)別是提升作業(yè)效率的關(guān)鍵環(huán)節(jié)?;贠CR+AI深度學(xué)習(xí)技術(shù)的正面吊車(chē)載箱號(hào)識(shí)別系統(tǒng),憑借99%以上的識(shí)別率和毫秒級(jí)響應(yīng)速度,正成為港口自動(dòng)化
    的頭像 發(fā)表于 05-07 10:10 ?616次閱讀

    嵌入式AI技術(shù)深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過(guò)程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以深度理解數(shù)據(jù)中所要表示的規(guī)律。從原理上看,使用
    的頭像 發(fā)表于 04-02 18:21 ?1567次閱讀