91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

樣本量極少可以訓(xùn)練機(jī)器學(xué)習(xí)模型嗎?

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:極市平臺(tái) ? 作者:鼓動(dòng)衣衫的晚風(fēng) ? 2021-06-23 15:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文首先介紹了用小樣本訓(xùn)練模型會(huì)導(dǎo)致的問(wèn)題,再介紹了Few-Shot Learning的基本原理即三大思路下的方法:增多訓(xùn)練數(shù)據(jù),縮小模型需要搜索的空間,優(yōu)化搜索最優(yōu)模型的過(guò)程。

1. 樣本量極少可以訓(xùn)練機(jī)器學(xué)習(xí)模型嗎?

在訓(xùn)練樣本極少的情況下(幾百個(gè)、幾十個(gè)甚至幾個(gè)樣本),現(xiàn)有的機(jī)器學(xué)習(xí)和深度學(xué)習(xí)模型普遍無(wú)法取得良好的樣本外表現(xiàn),用小樣本訓(xùn)練的模型很容易陷入對(duì)小樣本的過(guò)擬合以及對(duì)目標(biāo)任務(wù)的欠擬合。但基于小樣本的模型訓(xùn)練又在工業(yè)界有著廣泛的需求(單用戶人臉和聲紋識(shí)別、藥物研發(fā)、推薦冷啟動(dòng)、欺詐識(shí)別等樣本規(guī)模小或數(shù)據(jù)收集成本高的場(chǎng)景),F(xiàn)ew-Shot Learning(小樣本學(xué)習(xí))通過(guò)將有限的監(jiān)督信息(小樣本)與先驗(yàn)知識(shí)(無(wú)標(biāo)記或弱標(biāo)記樣本、其他數(shù)據(jù)集和標(biāo)簽、其他模型等)結(jié)合,使得模型可以有效的學(xué)習(xí)小樣本中的信息。

在介紹Few-Shot Learning的基本原理之前,首先需要知道用小樣本訓(xùn)練模型究竟會(huì)導(dǎo)致什么問(wèn)題。機(jī)器學(xué)習(xí)的目標(biāo)就是盡可能降低模型結(jié)果與真實(shí)結(jié)果的誤差,而這個(gè)誤差可以進(jìn)一步分解成兩部分:

approximation error:基于現(xiàn)有的特征和算法能訓(xùn)練的最優(yōu)模型h*能達(dá)到的表現(xiàn),跟理論上最優(yōu)模型h^的表現(xiàn)的差距

estimation error:實(shí)際訓(xùn)練的模型h_I的表現(xiàn)與基于現(xiàn)有的特征和算法能訓(xùn)練的最優(yōu)模型h*能達(dá)到的表現(xiàn)的差距;

在小樣本任務(wù)中,用小樣本訓(xùn)練的模型很容易陷入對(duì)小樣本的過(guò)擬合以及對(duì)目標(biāo)任務(wù)的欠擬合,導(dǎo)致實(shí)際訓(xùn)練的模型h_I的表現(xiàn)與基于現(xiàn)有的特征和算法能訓(xùn)練的最優(yōu)模型h*能達(dá)到的表現(xiàn)的差距無(wú)法通過(guò)訓(xùn)練和超參數(shù)調(diào)整有效的縮小,使模型的整體表現(xiàn)較差。

根據(jù)機(jī)器學(xué)習(xí)模型在小樣本上難以學(xué)習(xí)的原因,F(xiàn)ew-Shot Learning從三個(gè)角度解決問(wèn)題,(1)通過(guò)增多訓(xùn)練數(shù)據(jù)提升h_I(Data)、(2)縮小模型需要搜索的空間(Model)、以及(3)優(yōu)化搜索最優(yōu)模型的過(guò)程(Algorithm)。

2. Few-Shot Learning概述

下面將逐個(gè)介紹第一部分提到的Few-Shot Learning的三大思路下的方法。

2.1 增多訓(xùn)練數(shù)據(jù)

通過(guò)prior knowledge增多訓(xùn)練數(shù)據(jù) (Experience),方法主要分為3類:

(1)數(shù)據(jù)增強(qiáng)(Data Augmentation)類方法。較初級(jí)的數(shù)據(jù)增強(qiáng)方法是人工制定規(guī)則,包括對(duì)圖片樣本進(jìn)行旋轉(zhuǎn)、翻轉(zhuǎn)、裁剪、增加噪音等操作,但此類方法不足以有效提升模型的泛化能力,規(guī)則的制定也依賴領(lǐng)域知識(shí),通常難以做到在多個(gè)數(shù)據(jù)集之間通用;高階的數(shù)據(jù)增強(qiáng)方法利用其他數(shù)據(jù)集的信息生成更多目標(biāo)class的樣本,通過(guò)模型(多為encoder-decoder結(jié)構(gòu))學(xué)習(xí)樣本內(nèi)和樣本外的變化分布并生成新樣本,基于樣本外信息(有監(jiān)督)的模型可以將圖片映射為的不同的天氣、景深、角度等,基于樣本內(nèi)變化(無(wú)監(jiān)督)的模型則學(xué)習(xí)其他class的樣本內(nèi)部變化(如圖片的不同視角)并應(yīng)用于目標(biāo)的小樣本class上。數(shù)據(jù)增強(qiáng)類方法可與其他Few-Shot Learning方法同時(shí)使用,普遍用于計(jì)算機(jī)視覺場(chǎng)景,但部分高階方法有應(yīng)用于其他場(chǎng)景的潛力。關(guān)于數(shù)據(jù)增強(qiáng)類方法的更多介紹和reference見2020年清華和滴滴的paper"Learning from Very Few Samples: A Survey"。

(2)基于弱標(biāo)記樣本或無(wú)標(biāo)記樣本得到更多目標(biāo)class樣本,主要包括半監(jiān)督學(xué)習(xí)和主動(dòng)學(xué)習(xí)兩類。半監(jiān)督學(xué)習(xí)的典型例子是Positive-Unlabeled Learning,很多Two-step算法通過(guò)正樣本和無(wú)標(biāo)記樣本訓(xùn)練分類器,直接擴(kuò)大正樣本規(guī)模、或利用分類器權(quán)重讓無(wú)標(biāo)記樣本參與到正樣本的學(xué)習(xí)中;而主動(dòng)學(xué)習(xí)選擇對(duì)模型訓(xùn)練最“有用”的樣本進(jìn)行標(biāo)注。半監(jiān)督學(xué)習(xí)和主動(dòng)學(xué)習(xí)適合有大量無(wú)標(biāo)記數(shù)據(jù)、但樣本標(biāo)注成本較高的場(chǎng)景。

(3)基于目標(biāo)Class的小樣本數(shù)據(jù)訓(xùn)練GAN,直接生成目標(biāo)class的更多樣本。適用于僅有小樣本、無(wú)標(biāo)記樣本很難收集的場(chǎng)景。

2.2 縮小模型需要搜索的空間

通過(guò)prior knowledge縮小模型需要搜索的空間(hypothesis space),多為meta-learning類方法。

(1)Multi-task learning:

神經(jīng)網(wǎng)絡(luò)同時(shí)學(xué)習(xí)多個(gè)任務(wù),使一部分隱藏層關(guān)注跨任務(wù)的通用信息、一部分隱藏層關(guān)注特定任務(wù)的信息。在學(xué)習(xí)過(guò)程中,一個(gè)任務(wù)的模型參數(shù)被其他任務(wù)約束,即任務(wù)之間會(huì)有類似正則化的效果。分為直接在不同任務(wù)間共享部分隱藏層的參數(shù)的parameter sharing類方法,和懲罰不同任務(wù)的參數(shù)差異的parameter typing類方法。此類方法的缺點(diǎn)也很明顯,用于訓(xùn)練的多個(gè)任務(wù)(包括目標(biāo)的小樣本在內(nèi))若不夠相似(理想狀況下各個(gè)任務(wù)都屬于一個(gè)多分類任務(wù))則會(huì)影響最終學(xué)習(xí)效果,且同時(shí)訓(xùn)練多個(gè)任務(wù)的計(jì)算成本很高、速度很慢。詳細(xì)介紹和reference見2020年香港科技大學(xué)和第四范式的paper“Generalizing from a Few Examples: A Survey on Few-Shot Learning”。

(2)Embedding learning:

將樣本投影到更易區(qū)分不同class的低維空間,維度更低、特征表示更容易區(qū)分不同class意味著模型需要搜索的空間更小。用于投影的embedding function通常從prior knowledge中學(xué)習(xí),也可以利用目標(biāo)class的小樣本的信息。Metric Learning和Meta-Learning中的Learn-to-Measure類算法均屬于這一類別,通過(guò)學(xué)習(xí)embedding function (訓(xùn)練數(shù)據(jù)的f(x)和測(cè)試數(shù)據(jù)的g(x)),采用訓(xùn)練樣本和測(cè)試樣本的embedding的相似度作為測(cè)試樣本屬于相應(yīng)訓(xùn)練樣本的class的概率,相似度可以采用相似度指標(biāo)(Euclidean、Cosine等)或可學(xué)習(xí)的相似度模型(神經(jīng)網(wǎng)絡(luò))。此類算法的詳細(xì)介紹見2020年香港科技大學(xué)和第四范式的paper“Generalizing from a Few Examples: A Survey on Few-Shot Learning”的4.2和4.3.1。

(3)Learning with external memory

記憶網(wǎng)絡(luò),常用于NLP場(chǎng)景和問(wèn)答系統(tǒng),從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)key-value pair作為一個(gè)個(gè)記憶,與embedding learning相似需要學(xué)習(xí)一個(gè)embedding function f,但需要計(jì)算相似度的是樣本的embedding f(x)和記憶庫(kù)里的key,最相似的value作為該樣本的embedding(或取多個(gè)最相似的value的加權(quán)平均),隨后輸入一個(gè)簡(jiǎn)單的分類器(e.g. softmax)。將query樣本的embedding限制為記憶庫(kù)里的value極大的縮小了模型需要搜索的空間(hypothesis space),但為了學(xué)習(xí)和存儲(chǔ)記憶,此類方法通常需要較大的空間占用和計(jì)算成本。

(4)Generative Modeling

借助prior knowledge估計(jì)樣本概率分布p(x|y)和p(y),以latent variable的形式參與到小樣本任務(wù)的訓(xùn)練中,縮小模型需要搜索的空間(hypothesis space)。latent variable可以有三種表現(xiàn)形式,decomposable components(例如人臉識(shí)別場(chǎng)景中的鼻子、眼睛、嘴)、group-wise shared prior(小樣本任務(wù)可能與其他任務(wù)相似,那么其他任務(wù)的概率分布就可以作為小樣本任務(wù)的先驗(yàn)概率)、parameters of inference networks(基于大規(guī)模數(shù)據(jù)集訓(xùn)練推斷網(wǎng)絡(luò)并直接用于小樣本任務(wù),基于VAE和GAN的居多),詳細(xì)reference見2020年香港科技大學(xué)和第四范式的paper“Generalizing from a Few Examples: A Survey on Few-Shot Learning”的4.4.3。

2.3 優(yōu)化搜索最優(yōu)模型的過(guò)程

通過(guò)prior knowledge優(yōu)化在hypothesis space中搜索最優(yōu)模型的過(guò)程(即模型訓(xùn)練過(guò)程)。包括refine existing parameters(遷移學(xué)習(xí))、refine meta-learned parameters(Meta-Learning中的Learn to fine-tune和learn to parameterize均屬于這個(gè)類別,借助meta-learner幫助base learner更快的收斂)、learn the optimizer(訓(xùn)練meta-learner指導(dǎo)梯度下降的方向和步長(zhǎng))。此類方法可以極大加快搜索最優(yōu)模型的過(guò)程,但存在為了速度犧牲精度的成分、且受元學(xué)習(xí)領(lǐng)域常見的難題的影響較大(例如如何在不同粒度的任務(wù)間元學(xué)習(xí) e.g. 動(dòng)物物種和狗的種類,以及如何避免元學(xué)習(xí)時(shí)不同任務(wù)對(duì)參數(shù)的影響的相互中和)。

責(zé)任編輯:lq6

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:樣本量極少如何機(jī)器學(xué)習(xí)?最新Few-Shot Learning綜述

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    強(qiáng)化學(xué)習(xí)會(huì)讓自動(dòng)駕駛模型學(xué)習(xí)更快嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在談及自動(dòng)駕駛大模型訓(xùn)練時(shí),有的技術(shù)方案會(huì)采用模仿學(xué)習(xí),而有些會(huì)采用強(qiáng)化學(xué)習(xí)。同樣作為大模型
    的頭像 發(fā)表于 01-31 09:34 ?646次閱讀
    強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>會(huì)讓自動(dòng)駕駛<b class='flag-5'>模型</b><b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    ,并驗(yàn)證輸出結(jié)果,就能不斷提升專業(yè)技能,養(yǎng)成優(yōu)秀數(shù)據(jù)科學(xué)家的工作習(xí)慣。需避免的機(jī)器學(xué)習(xí)和深度學(xué)習(xí)數(shù)據(jù)錯(cuò)誤在訓(xùn)練數(shù)據(jù)驅(qū)動(dòng)的人工智能模型時(shí),我們
    的頭像 發(fā)表于 01-07 15:37 ?192次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    、GPU加速訓(xùn)練(可選) 雙軌教學(xué):傳統(tǒng)視覺算法+深度學(xué)習(xí)方案全覆蓋 輕量化部署:8.6M超輕OCR模型,適合嵌入式設(shè)備集成 無(wú)監(jiān)督學(xué)習(xí):無(wú)需缺陷
    發(fā)表于 12-03 13:50

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識(shí)別。一旦模型訓(xùn)練并保存,就
    發(fā)表于 10-22 07:03

    模板驅(qū)動(dòng) 無(wú)需訓(xùn)練數(shù)據(jù) SmartDP解決小樣本AI算法模型開發(fā)難題

    算法作為軟實(shí)力,其水平直接影響著目標(biāo)檢測(cè)識(shí)別的能力。兩年前,慧視光電推出了零基礎(chǔ)的基于yolo系列算法架構(gòu)的AI算法開發(fā)平臺(tái)SpeedDP,此平臺(tái)能夠通過(guò)數(shù)據(jù)驅(qū)動(dòng)模型訓(xùn)練,實(shí)現(xiàn)算法從0到1的開發(fā)訓(xùn)練
    的頭像 發(fā)表于 09-09 17:57 ?1404次閱讀
    模板驅(qū)動(dòng)  無(wú)需<b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)  SmartDP解決小<b class='flag-5'>樣本</b>AI算法<b class='flag-5'>模型</b>開發(fā)難題

    超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級(jí)芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    Neuton 是一家邊緣AI 公司,致力于讓機(jī)器 學(xué)習(xí)模型更易于使用。它創(chuàng)建的模型比競(jìng)爭(zhēng)對(duì)手的框架小10 倍,速度也快10 倍,甚至可以在最
    發(fā)表于 07-31 11:38

    【Sipeed MaixCAM Pro開發(fā)板試用體驗(yàn)】 + 04 + 機(jī)器學(xué)習(xí)YOLO體驗(yàn)

    、 機(jī)器學(xué)習(xí)YOLO體驗(yàn) 1.在線訓(xùn)練 Sipeed矽速科技擁有自研搭建的MaixHub平臺(tái),可以快速簡(jiǎn)單的完成yolo訓(xùn)練。 下面我將展
    發(fā)表于 07-24 21:35

    通過(guò)NVIDIA Cosmos模型增強(qiáng)機(jī)器人學(xué)習(xí)

    通用機(jī)器人的時(shí)代已經(jīng)到來(lái),這得益于機(jī)械電子技術(shù)和機(jī)器人 AI 基礎(chǔ)模型的進(jìn)步。但目前機(jī)器人技術(shù)的發(fā)展仍面臨一個(gè)關(guān)鍵挑戰(zhàn):機(jī)器人需要大量的
    的頭像 發(fā)表于 07-14 11:49 ?1089次閱讀
    通過(guò)NVIDIA Cosmos<b class='flag-5'>模型</b>增強(qiáng)<b class='flag-5'>機(jī)器人學(xué)習(xí)</b>

    模型推理顯存和計(jì)算估計(jì)方法研究

    估算剪枝后的模型所需的顯存大小。 三、計(jì)算估計(jì)方法 基于模型結(jié)構(gòu)的計(jì)算估計(jì) 根據(jù)深度學(xué)習(xí)模型
    發(fā)表于 07-03 19:43

    邊緣計(jì)算中的機(jī)器學(xué)習(xí):基于 Linux 系統(tǒng)的實(shí)時(shí)推理模型部署與工業(yè)集成!

    你好,旅行者!歡迎來(lái)到Medium的這一角落。在本文中,我們將把一個(gè)機(jī)器學(xué)習(xí)模型(神經(jīng)網(wǎng)絡(luò))部署到邊緣設(shè)備上,利用從ModbusTCP寄存器獲取的實(shí)時(shí)數(shù)據(jù)來(lái)預(yù)測(cè)一臺(tái)復(fù)古音頻放大器的當(dāng)前健康狀況。你將
    的頭像 發(fā)表于 06-11 17:22 ?1000次閱讀
    邊緣計(jì)算中的<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>:基于 Linux 系統(tǒng)的實(shí)時(shí)推理<b class='flag-5'>模型</b>部署與工業(yè)集成!

    嵌入式AI技術(shù)漫談:怎么為訓(xùn)練AI模型采集樣本數(shù)據(jù)

    多少數(shù)據(jù),才能形成合適的樣本集,進(jìn)而開始訓(xùn)練模型呢? 此時(shí),回答“按需提供”或者“先試試看”似乎會(huì)變成一句車轱轆話,看似回答了問(wèn)題,但客戶還是無(wú)從下手。 AI數(shù)據(jù)樣本的三個(gè)原則 這里,
    的頭像 發(fā)表于 06-11 16:30 ?1388次閱讀

    海思SD3403邊緣計(jì)算AI數(shù)據(jù)訓(xùn)練概述

    AI數(shù)據(jù)訓(xùn)練:基于用戶特定應(yīng)用場(chǎng)景,用戶采集照片或視頻,通過(guò)AI數(shù)據(jù)訓(xùn)練工程師**(用戶公司****員工)** ,進(jìn)行特征標(biāo)定后,將標(biāo)定好的訓(xùn)練樣本,通過(guò)AI訓(xùn)練服務(wù)器,進(jìn)行AI
    發(fā)表于 04-28 11:11

    數(shù)據(jù)標(biāo)注服務(wù)—奠定大模型訓(xùn)練的數(shù)據(jù)基石

    數(shù)據(jù)標(biāo)注是大模型訓(xùn)練過(guò)程中不可或缺的基礎(chǔ)環(huán)節(jié),其質(zhì)量直接影響著模型的性能表現(xiàn)。在大模型訓(xùn)練中,數(shù)據(jù)標(biāo)注承擔(dān)著將原始數(shù)據(jù)轉(zhuǎn)化為
    的頭像 發(fā)表于 03-21 10:30 ?3297次閱讀

    標(biāo)貝數(shù)據(jù)標(biāo)注服務(wù):奠定大模型訓(xùn)練的數(shù)據(jù)基石

    數(shù)據(jù)標(biāo)注是大模型訓(xùn)練過(guò)程中不可或缺的基礎(chǔ)環(huán)節(jié),其質(zhì)量直接影響著模型的性能表現(xiàn)。在大模型訓(xùn)練中,數(shù)據(jù)標(biāo)注承擔(dān)著將原始數(shù)據(jù)轉(zhuǎn)化為
    的頭像 發(fā)表于 03-21 10:27 ?1112次閱讀
    標(biāo)貝數(shù)據(jù)標(biāo)注服務(wù):奠定大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>的數(shù)據(jù)基石

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功怎么處理?

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功咋辦,試了好幾個(gè)模型壓縮了也不行,ram占用過(guò)大,有無(wú)解決方案?
    發(fā)表于 03-11 07:18