91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

增量學(xué)習(xí)的概念

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:NewBeeNLP ? 作者:NewBeeNLP ? 2021-03-05 15:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1. 增量學(xué)習(xí)的概念

1.1 什么是增量學(xué)習(xí)

人類有終身不斷獲取、調(diào)整和轉(zhuǎn)移知識(shí)的能力,雖然在我們的一生中,我們確實(shí)傾向于逐漸忘記之前學(xué)習(xí)過(guò)的知識(shí),但只有在極少的情況下,對(duì)新知識(shí)的學(xué)習(xí)會(huì)災(zāi)難性地影響已經(jīng)學(xué)到的知識(shí),這樣的學(xué)習(xí)能力被稱為增量學(xué)習(xí)的能力。

具體來(lái)講,「增量學(xué)習(xí)的能力就是能夠不斷地處理現(xiàn)實(shí)世界中連續(xù)的信息流,在吸收新知識(shí)的同時(shí)保留甚至整合、優(yōu)化舊知識(shí)的能力。」

增量學(xué)習(xí)(Incremental Learning)已經(jīng)有20多年的研究歷史,但增量學(xué)習(xí)更多地起源于認(rèn)知神經(jīng)科學(xué)對(duì)記憶和遺忘機(jī)制的研究,因此不少論文的idea都啟發(fā)于認(rèn)知科學(xué)的發(fā)展成果,本文不會(huì)探討增量學(xué)習(xí)的生物啟發(fā),關(guān)于面向生物學(xué)和認(rèn)知科學(xué)的增量學(xué)習(xí)綜述可見(jiàn) Continual lifelong learning with neural networks: A review[1]。

1.2 為什么要增量學(xué)習(xí)

機(jī)器學(xué)習(xí)領(lǐng)域,增量學(xué)習(xí)致力于解決模型訓(xùn)練的一個(gè)普遍缺陷:「災(zāi)難性遺忘(catastrophic forgetting)」,也就是說(shuō),一般的機(jī)器學(xué)習(xí)模型(尤其是基于反向傳播的深度學(xué)習(xí)方法)在新任務(wù)上訓(xùn)練時(shí),在舊任務(wù)上的表現(xiàn)通常會(huì)顯著下降。

造成災(zāi)難性遺忘的一個(gè)主要原因是「?jìng)鹘y(tǒng)模型假設(shè)數(shù)據(jù)分布是固定或平穩(wěn)的,訓(xùn)練樣本是獨(dú)立同分布的」,所以模型可以一遍又一遍地看到所有任務(wù)相同的數(shù)據(jù),但當(dāng)數(shù)據(jù)變?yōu)檫B續(xù)的數(shù)據(jù)流時(shí),訓(xùn)練數(shù)據(jù)的分布就是非平穩(wěn)的,模型從非平穩(wěn)的數(shù)據(jù)分布中持續(xù)不斷地獲取知識(shí)時(shí),新知識(shí)會(huì)干擾舊知識(shí),從而導(dǎo)致模型性能的快速下降,甚至完全覆蓋或遺忘以前學(xué)習(xí)到的舊知識(shí)。

為了克服災(zāi)難性遺忘,我們希望模型一方面必須表現(xiàn)出從新數(shù)據(jù)中整合新知識(shí)和提煉已有知識(shí)的能力(可塑性),另一方面又必須防止新輸入對(duì)已有知識(shí)的顯著干擾(穩(wěn)定性)。這兩個(gè)互相沖突的需求構(gòu)成了所謂的「穩(wěn)定性-可塑性困境(stability-plasticity dilemma)」。

解決災(zāi)難性遺忘最簡(jiǎn)單粗暴的方案就是使用所有已知的數(shù)據(jù)重新訓(xùn)練網(wǎng)絡(luò)參數(shù),以適應(yīng)數(shù)據(jù)分布隨時(shí)間的變化。盡管從頭訓(xùn)練模型的確完全解決了災(zāi)難性遺忘問(wèn)題,但這種方法效率非常低,極大地阻礙了模型實(shí)時(shí)地學(xué)習(xí)新數(shù)據(jù)。而增量學(xué)習(xí)的主要目標(biāo)就是在計(jì)算和存儲(chǔ)資源有限的條件下,在穩(wěn)定性-可塑性困境中尋找效用最大的平衡點(diǎn)。

1.3 增量學(xué)習(xí)的特點(diǎn)

增量學(xué)習(xí)和持續(xù)學(xué)習(xí)(Continual Learning)、終身學(xué)習(xí)(Lifelong Learning)的概念大致是等價(jià)的,它們都是在連續(xù)的數(shù)據(jù)流中訓(xùn)練模型,隨著時(shí)間的推移,更多的數(shù)據(jù)逐漸可用,同時(shí)舊數(shù)據(jù)可能由于存儲(chǔ)限制或隱私保護(hù)等原因而逐漸不可用,并且學(xué)習(xí)任務(wù)的類型和數(shù)量沒(méi)有預(yù)定義(例如分類任務(wù)中的類別數(shù))。

但增量學(xué)習(xí)目前還沒(méi)有一個(gè)特別清晰的定義,因此比較容易與在線學(xué)習(xí),遷移學(xué)習(xí)和多任務(wù)學(xué)習(xí)等概念混淆,「尤其要注意增量學(xué)習(xí)和在線學(xué)習(xí)的區(qū)別,在線學(xué)習(xí)通常要求每個(gè)樣本只能使用一次,且數(shù)據(jù)全都來(lái)自于同一個(gè)任務(wù),而增量學(xué)習(xí)是多任務(wù)的,但它允許在進(jìn)入下一個(gè)任務(wù)之前多次處理當(dāng)前任務(wù)的數(shù)據(jù)」。上圖表現(xiàn)了增量學(xué)習(xí)和其他學(xué)習(xí)范式的區(qū)別,一般來(lái)說(shuō),增量學(xué)習(xí)有如下幾個(gè)特點(diǎn):

學(xué)習(xí)新知識(shí)的同時(shí)能夠保留以前學(xué)習(xí)到的大部分知識(shí),也就是模型在舊任務(wù)和新任務(wù)上均能表現(xiàn)良好。

計(jì)算能力與內(nèi)存應(yīng)該隨著類別數(shù)的增加固定或者緩慢增長(zhǎng),最理想的情況是一旦完成某一任務(wù)的學(xué)習(xí),該任務(wù)的觀測(cè)樣本便被全部丟棄。

模型可以從新任務(wù)和新數(shù)據(jù)中持續(xù)學(xué)習(xí)新知識(shí),當(dāng)新任務(wù)在不同時(shí)間出現(xiàn),它都是可訓(xùn)練的。

由于增量學(xué)習(xí)問(wèn)題的復(fù)雜性和挑戰(zhàn)的多樣性,人們通常只討論特定設(shè)置下的增量學(xué)習(xí)。以一個(gè)圖像分類模型為例,我們希望模型具有增量學(xué)習(xí)新的圖像和新的類別的能力,但前者更多地與遷移學(xué)習(xí)有關(guān),因此任務(wù)增量學(xué)習(xí)(Task-incremental Learning)和難度更高一點(diǎn)的類增量學(xué)習(xí)(Class-incremental Learning)是深度學(xué)習(xí)社區(qū)當(dāng)前主要考慮的增量學(xué)習(xí)范式。

「本文主要討論近幾年關(guān)注度最高的類增量學(xué)習(xí)范式」,更廣泛更詳細(xì)的增量學(xué)習(xí)介紹可參考專著《Lifelong Machine Learning》[2]。

2. 增量學(xué)習(xí)的實(shí)現(xiàn)方式

增量學(xué)習(xí)是一個(gè)連續(xù)不斷的學(xué)習(xí)過(guò)程,在這個(gè)過(guò)程中,我們假設(shè)模型已經(jīng)學(xué)習(xí)了前 個(gè)任務(wù):,當(dāng)面對(duì)任務(wù) 和對(duì)應(yīng)的數(shù)據(jù) 時(shí),我們希望可以利用從舊任務(wù)中學(xué)習(xí)到的先驗(yàn)知識(shí)幫助 的學(xué)習(xí),然后更新模型所學(xué)習(xí)到的知識(shí)。這個(gè)過(guò)程要求我們?cè)诋?dāng)前任務(wù) 中尋找參數(shù) 最小化下面的損失函數(shù):

其中舊數(shù)據(jù) 是部分可見(jiàn)或完全不可見(jiàn)的。

增量學(xué)習(xí)方法的種類有很多種劃分方式,本文將其劃分為以下三種范式:

正則化(regularization)

回放(replay)

參數(shù)隔離(parameter isolation)

其中基于正則化和回放的增量學(xué)習(xí)范式受到的關(guān)注更多,也更接近增量學(xué)習(xí)的真實(shí)目標(biāo),參數(shù)隔離范式需要引入較多的參數(shù)和計(jì)算量,因此通常只能用于較簡(jiǎn)單的任務(wù)增量學(xué)習(xí)。關(guān)于其他劃分方式和不同類別的增量學(xué)習(xí)的優(yōu)缺點(diǎn)對(duì)比可見(jiàn)A Comprehensive Study of Class Incremental Learning Algorithms for Visual Tasks[3],下面僅介紹基于正則化和回放的增量學(xué)習(xí)的經(jīng)典方法以及相關(guān)進(jìn)展。

2.1 基于正則化的增量學(xué)習(xí)

基于正則化的增量學(xué)習(xí)的主要思想是「通過(guò)給新任務(wù)的損失函數(shù)施加約束的方法來(lái)保護(hù)舊知識(shí)不被新知識(shí)覆蓋」,這類方法通常不需要用舊數(shù)據(jù)來(lái)讓模型復(fù)習(xí)已學(xué)習(xí)的任務(wù),因此是最優(yōu)雅的一類增量學(xué)習(xí)方法。Learning without Forgetting (ECCV 2016)[4]提出的LwF算法是基于深度學(xué)習(xí)的增量學(xué)習(xí)的里程碑之作,在介紹LwF算法之前,我們先了解一些最簡(jiǎn)單的增量學(xué)習(xí)方法。

上圖展示了一個(gè)具有多頭網(wǎng)絡(luò)結(jié)構(gòu)的模型學(xué)習(xí)新任務(wù)的不同策略,其中(a)為已經(jīng)訓(xùn)練好的基于CNN的原始模型, 表示不同任務(wù)共享的CNN參數(shù), 表示與原始任務(wù)相關(guān)的MLP參數(shù),當(dāng)加入一個(gè)新的分類任務(wù)時(shí),我們可以增加一個(gè)隨機(jī)初始化的MLP參數(shù) ?;?來(lái)學(xué)習(xí) 的方法包括如下幾類:

微調(diào)(Fine-tuning):微調(diào)沒(méi)有舊任務(wù)參數(shù)和樣本的指導(dǎo),因此模型在舊任務(wù)上的表現(xiàn)幾乎一定會(huì)變差,也就是發(fā)生災(zāi)難性遺忘。

聯(lián)合訓(xùn)練(Joint Training):聯(lián)合訓(xùn)練相當(dāng)于在所有已知數(shù)據(jù)上重新訓(xùn)練模型,效果最好,因此通常被認(rèn)為是「增量學(xué)習(xí)的性能上界」,但訓(xùn)練成本太高。

特征抽取(Feature Extraction):特征抽取只訓(xùn)練 ,共享參數(shù) 沒(méi)有得到更新,雖然不影響模型在舊任務(wù)上的表現(xiàn),但不能有效捕獲新任務(wù)獨(dú)有的特征表示,在新任務(wù)上的表現(xiàn)通常不如人意。

LwF算法是介于聯(lián)合訓(xùn)練和微調(diào)訓(xùn)練之間的訓(xùn)練方式,LwF的特點(diǎn)是它不需要使用舊任務(wù)的數(shù)據(jù)也能夠更新 。LwF算法的主要思想來(lái)自于knowledge distillation[5],也就是使新模型在新任務(wù)上的預(yù)測(cè)和舊模型在新任務(wù)上的預(yù)測(cè)相近。

具體來(lái)說(shuō),LwF算法先得到舊模型在新任務(wù)上的預(yù)測(cè)值,在損失函數(shù)中引入新模型輸出的蒸餾損失,然后用微調(diào)的方法在新任務(wù)上訓(xùn)練模型,從而避免新任務(wù)的訓(xùn)練過(guò)分調(diào)整舊模型的參數(shù)而導(dǎo)致新模型在舊任務(wù)上性能的下降。算法流程如下圖所示,其中 用于權(quán)衡模型的穩(wěn)定性和可塑性。

但是,這種方法的缺點(diǎn)是高度依賴于新舊任務(wù)之間的相關(guān)性,當(dāng)任務(wù)差異太大時(shí)會(huì)出現(xiàn)任務(wù)混淆的現(xiàn)象(inter-task confusion),并且一個(gè)任務(wù)的訓(xùn)練時(shí)間會(huì)隨著學(xué)習(xí)任務(wù)的數(shù)量線性增長(zhǎng),同時(shí)引入的正則項(xiàng)常常不能有效地約束模型在新任務(wù)上的優(yōu)化過(guò)程。

不少研究者圍繞著LwF算法的思想提出了很多改進(jìn)策略,比較有名的包括Encoder Based Lifelong Learning (ICCV 2017)[6]提出的基于低維特征映射的EBLL算法,以及Overcoming catastrophic forgetting in neural networks (PNAS 2017)[7]提出的基于貝葉斯框架的EWC算法,EWC算法實(shí)際上對(duì)應(yīng)了一個(gè)通用的「參數(shù)約束」方法,它引入了一個(gè)額外的和參數(shù)有關(guān)的正則損失:

該損失會(huì)根據(jù)不同參數(shù)的重要性來(lái)鼓勵(lì)新任務(wù)訓(xùn)練得到的新模型參數(shù)盡量靠近舊模型參數(shù)。后續(xù)對(duì)EWC作出改進(jìn)了論文也很多,比如Rotate your Networks: Better Weight Consolidation and Less Catastrophic Forgetting (ICPR 2018)[8]。

概括起來(lái),基于正則化的增量學(xué)習(xí)方法通過(guò)引入額外損失的方式來(lái)修正梯度,保護(hù)模型學(xué)習(xí)到的舊知識(shí),提供了一種緩解特定條件下的災(zāi)難性遺忘的方法。不過(guò),雖然目前的深度學(xué)習(xí)模型都是過(guò)參數(shù)化的,但模型容量終究是有限的,我們通常還是需要在舊任務(wù)和新任務(wù)的性能表現(xiàn)上作出權(quán)衡。近幾年,不少研究者也提出了各種類型的正則化手段,有興趣的話可以參考下面的論文:

Learning without Memorizing (CVPR 2019)[9]

Learning a Unified Classifier Incrementally via Rebalancing (CVPR 2019)[10]

Class-incremental Learning via Deep Model Consolidation (WACV 2020)[11]

2.2 基于回放的增量學(xué)習(xí)

從字面意思上來(lái)看,基于回放的增量學(xué)習(xí)的基本思想就是"溫故而知新",在訓(xùn)練新任務(wù)時(shí),一部分具有代表性的舊數(shù)據(jù)會(huì)被保留并用于模型復(fù)習(xí)曾經(jīng)學(xué)到的舊知識(shí),因此「要保留舊任務(wù)的哪部分?jǐn)?shù)據(jù),以及如何利用舊數(shù)據(jù)與新數(shù)據(jù)一起訓(xùn)練模型」,就是這類方法需要考慮的主要問(wèn)題。

iCaRL: Incremental Classifier and Representation Learning (CVPR 2017)[12]是最經(jīng)典的基于回放的增量學(xué)習(xí)模型,iCaRL的思想實(shí)際上和LwF比較相似,它同樣引入了蒸餾損失來(lái)更新模型參數(shù),但又放松了完全不能使用舊數(shù)據(jù)的限制,下面是iCaRL設(shè)計(jì)的損失函數(shù):

LwF在訓(xùn)練新數(shù)據(jù)時(shí)完全沒(méi)用到舊數(shù)據(jù),而iCaRL在訓(xùn)練新數(shù)據(jù)時(shí)為每個(gè)舊任務(wù)保留了一部分有代表性的舊數(shù)據(jù)(iCaRL假設(shè)越靠近類別特征均值的樣本越有代表性),因此iCaRL能夠更好地記憶模型在舊任務(wù)上學(xué)習(xí)到的數(shù)據(jù)特征。

另外Experience Replay for Continual Learning (NIPS 2019)[13]指出這類模型可以動(dòng)態(tài)調(diào)整舊數(shù)據(jù)的保留數(shù)量,從而避免了LwF算法隨著任務(wù)數(shù)量的增大,計(jì)算成本線性增長(zhǎng)的缺點(diǎn)?;趇CaRL算法的一些有影響力的改進(jìn)算法包括End-to-End Incremental Learning (ECCV 2018)[14]和Large Scale Incremental Learning (CVPR 2019)[15],這些模型的損失函數(shù)均借鑒了知識(shí)蒸餾技術(shù),從不同的角度來(lái)緩解災(zāi)難性遺忘問(wèn)題,不過(guò)災(zāi)難性遺忘的問(wèn)題還遠(yuǎn)沒(méi)有被滿意地解決。

iCaRL的增量學(xué)習(xí)方法會(huì)更新舊任務(wù)的參數(shù) ,因此很可能會(huì)導(dǎo)致模型對(duì)保留下來(lái)的舊數(shù)據(jù)產(chǎn)生過(guò)擬合,Gradient Episodic Memory for Continual Learning (NIPS 2017)[16]針對(duì)該問(wèn)題提出了梯度片段記憶算法(GEM),GEM只更新新任務(wù)的參數(shù)而不干擾舊任務(wù)的參數(shù),GEM以不等式約束的方式修正新任務(wù)的梯度更新方向,從而希望模型在不增大舊任務(wù)的損失的同時(shí)盡量最小化新任務(wù)的損失值。

GEM方向的后續(xù)改進(jìn)還有Efficient Lifelong Learning with A-GEM (ICLR 2019)[17]和Gradient based sample selection for online continual learning (NIPS 2019)[18]。

另外,也有一些工作將VAE和GAN的思想引入了增量學(xué)習(xí),比如Variational Continual Learning (ICLR 2018)[19]指出了增量學(xué)習(xí)的貝葉斯性質(zhì),將在線變分推理和蒙特卡洛采樣引入了增量學(xué)習(xí),Continual Learning with Deep Generative Replay (NIPS 2017)[20]通過(guò)訓(xùn)練GAN來(lái)生成舊數(shù)據(jù),從而避免了基于回放的方法潛在的數(shù)據(jù)隱私問(wèn)題,這本質(zhì)上相當(dāng)于用額外的參數(shù)間接存儲(chǔ)舊數(shù)據(jù),但是生成模型本身還沒(méi)達(dá)到很高的水平,這類方法的效果也不盡人意。

總體來(lái)說(shuō),基于回放的增量學(xué)習(xí)的主要缺點(diǎn)是需要額外的計(jì)算資源和存儲(chǔ)空間用于回憶舊知識(shí),當(dāng)任務(wù)種類不斷增多時(shí),要么訓(xùn)練成本會(huì)變高,要么代表樣本的代表性會(huì)減弱,同時(shí)在實(shí)際生產(chǎn)環(huán)境中,這種方法還可能存在「數(shù)據(jù)隱私泄露」的問(wèn)題。

3. 增量學(xué)習(xí)的應(yīng)用

增量學(xué)習(xí)的優(yōu)點(diǎn)是可以隨時(shí)訓(xùn)練新數(shù)據(jù),不需要保留大量訓(xùn)練數(shù)據(jù),因此存儲(chǔ)和計(jì)算開(kāi)銷都比較小,同時(shí)還能夠有效避免用戶的隱私泄露問(wèn)題,這在「移動(dòng)邊緣計(jì)算的場(chǎng)景」下是非常有價(jià)值有意義的?!傅壳暗脑隽繉W(xué)習(xí)依舊是一個(gè)很開(kāi)放的研究問(wèn)題,很大程度上還處于理論探索階段,在很多方面學(xué)界都沒(méi)有達(dá)成統(tǒng)一的共識(shí),不少論文給出的結(jié)論常常會(huì)相互沖突,因此增量學(xué)習(xí)還沒(méi)有在細(xì)分領(lǐng)域中得到大規(guī)模的應(yīng)用和落地?!?/p>

3.1 計(jì)算機(jī)視覺(jué)

大部分增量學(xué)習(xí)研究都是面向圖像分類任務(wù)的,近幾年也有不少論文將增強(qiáng)學(xué)習(xí)推廣到了更復(fù)雜目標(biāo)檢測(cè)和語(yǔ)義分割任務(wù)上,下面列舉了一些有代表性的工作。

圖像分類

A comprehensive, application-oriented study of catastrophic forgetting in DNNs (ICLR 2019)[21]

A Comprehensive Study of Class Incremental Learning Algorithms for Visual Tasks[22]

目標(biāo)檢測(cè)

Incremental Few-Shot Object Detection (CVPR 2020)[23]

Incremental Learning of Object Detectors without Catastrophic Forgetting (ICCV 2017)[24]

語(yǔ)義分割

Modeling the Background for Incremental Learning in Semantic Segmentation (CVPR 2020)[25]

Incremental Learning Techniques for Semantic Segmentation (ICCV workshop 2019)[26]

Incremental Learning for Semantic Segmentation of Large-Scale Remote Sensing Data[27]

3.2 自然語(yǔ)言處理

目前增量學(xué)習(xí)的研究主要還是面向計(jì)算機(jī)視覺(jué),在自然語(yǔ)言處理領(lǐng)域還沒(méi)有得到太多關(guān)注。一個(gè)主要原因是目前自然語(yǔ)言處理社區(qū)的注意力主要集中在以BERT為代表的自監(jiān)督表示學(xué)習(xí)上,在大規(guī)模預(yù)訓(xùn)練模型的推廣下,增量學(xué)習(xí)的應(yīng)用價(jià)值就不是太明顯了。

LAMOL: LAnguage MOdeling for Lifelong Language Learning (ICRL 2020)[28]

Episodic Memory in Lifelong Language Learning (NIPS 2019)[29]

Continual Learning for Sentence Representations Using Conceptors (NAACL 2019)[30]

Neural Topic Modeling with Continual Lifelong Learning (ICML 2020)[31]

Incremental Natural Language Processing: Challenges, Strategies, and Evaluation (COLING 2018)[32]

3.3 機(jī)器人

機(jī)器人是增量學(xué)習(xí)天然的應(yīng)用場(chǎng)景,因?yàn)闄C(jī)器人必須學(xué)會(huì)通過(guò)連續(xù)的觀察來(lái)適應(yīng)環(huán)境并與之互動(dòng),增量學(xué)習(xí)正好能夠很好地刻畫真實(shí)世界的環(huán)境,不過(guò)機(jī)器人領(lǐng)域本身有很多更重要的問(wèn)題需要解決,因此增量學(xué)習(xí)的應(yīng)用也不太多。

Continual Learning for Robotics: Definition, Framework, Learning Strategies, Opportunities and Challenges[33]

Efficient Adaptation for End-to-End Vision-Based Robotic Manipulation (ICML workshop 2020)[34]

4. 增量學(xué)習(xí)面臨的問(wèn)題和挑戰(zhàn)

4.1 定量評(píng)估指標(biāo)

增量學(xué)習(xí)的一些常見(jiàn)評(píng)估指標(biāo)包括「準(zhǔn)確率、記憶能力和遷移能力」等,其中記憶能力和遷移能力是衡量模型可塑性和穩(wěn)定性的指標(biāo),但這些指標(biāo)具體的公式定義卻是有爭(zhēng)議的。雖然人們已經(jīng)提出了各種各樣的增量學(xué)習(xí)方法,但是在基準(zhǔn)數(shù)據(jù)集的選取和評(píng)估算法有效性的指標(biāo)上還沒(méi)有達(dá)成廣泛的共識(shí)。

其中一點(diǎn)是增量學(xué)習(xí)通常需要引入額外的超參數(shù)來(lái)平衡模型的穩(wěn)定性和可塑性,這些超參數(shù)通常在驗(yàn)證集上被優(yōu)化,「但這本質(zhì)上違反了增量學(xué)習(xí)不能獲取未來(lái)數(shù)據(jù)的因果律,從而會(huì)導(dǎo)致人們作出過(guò)于樂(lè)觀的結(jié)論,在真實(shí)的生產(chǎn)環(huán)境中常常無(wú)法重現(xiàn)實(shí)驗(yàn)結(jié)果?!?/p>

針對(duì)超參數(shù)選取的問(wèn)題,A continual learning survey: Defying forgetting in classification tasks (2020)[35]提出了一種通用的增量學(xué)習(xí)超參數(shù)搜索框架,并設(shè)計(jì)了一系列相對(duì)公平的指標(biāo)來(lái)比較增量學(xué)習(xí)算法,匯報(bào)了一些SOTA增量學(xué)習(xí)算法的表現(xiàn)。

在此基礎(chǔ)上,Class-incremental learning: survey and performance evaluation (2020)[36]在多個(gè)數(shù)據(jù)集上對(duì)最新的一些增量學(xué)習(xí)方法進(jìn)行了綜合對(duì)比,作者發(fā)現(xiàn)在基于正則化的增量學(xué)習(xí)中,最早提出的LwF算法的表現(xiàn)是相當(dāng)穩(wěn)健的,許多后續(xù)改進(jìn)的方法在一些條件下反而不如LwF算法,另外基于數(shù)據(jù)約束的方法(LwF)實(shí)際上通常比基于參數(shù)約束的方法(EWC)表現(xiàn)得更好,然而目前人們的研究注意力是偏向后者的。下面是另外一些討論和提出增量學(xué)習(xí)評(píng)估指標(biāo)和模型對(duì)比的論文,這里不再一一介紹:

A comprehensive, application-oriented study of catastrophic forgetting in DNNs (ICLR 2019)[37]

Don’t forget, there is more than forgetting: new metrics for Continual Learning (ICML workshop 2020)[38]

Towards robust evaluations of continual learning[39]

4.2 真正的增量學(xué)習(xí)

增量學(xué)習(xí)本身是一個(gè)很開(kāi)放的概念,目前人們研究的基于深度學(xué)習(xí)的增量學(xué)習(xí)大多限制在「有監(jiān)督分類、任務(wù)式增量和多頭網(wǎng)絡(luò)結(jié)構(gòu)的框架」下,這種特定領(lǐng)域的訓(xùn)練方案通常不能直接應(yīng)用于高度動(dòng)態(tài)化和非結(jié)構(gòu)化的真實(shí)環(huán)境中,Towards Robust Evaluations of Continual Learning[40]指出「多頭設(shè)定下的增量學(xué)習(xí)隱藏了增量學(xué)習(xí)問(wèn)題真正的難度」。另外,雖然目前人們主要研究的是有監(jiān)督學(xué)習(xí),但探索更接近真實(shí)環(huán)境的無(wú)監(jiān)督增量學(xué)習(xí),以及其他類型的增量方式也是非常有意義的。

目前的增量學(xué)習(xí)方法通常「隱式地要求任務(wù)的性質(zhì)差異不能太大」,當(dāng)任務(wù)的性質(zhì)和難度差異太大時(shí),大部分增量學(xué)習(xí)方法的性能都會(huì)嚴(yán)重下降,甚至低于簡(jiǎn)單的基線模型。另外,有不少研究表明「目前還沒(méi)有任何一種增量學(xué)習(xí)方法在任何條件下都能表現(xiàn)良好」,大部分增量學(xué)習(xí)方法「對(duì)模型結(jié)構(gòu),數(shù)據(jù)性質(zhì)、超參設(shè)定都比較敏感」,因此探索在所有任務(wù)設(shè)定中表現(xiàn)更穩(wěn)健的增量學(xué)習(xí)方法也是很有意義的。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像分類
    +關(guān)注

    關(guān)注

    0

    文章

    96

    瀏覽量

    12496
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8554

    瀏覽量

    136984

原文標(biāo)題:增量學(xué)習(xí)(Incremental Learning)小綜述

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    自動(dòng)駕駛中常提的模仿學(xué)習(xí)是什么?

    當(dāng)談及自動(dòng)駕駛模型學(xué)習(xí)時(shí),經(jīng)常會(huì)提到模仿學(xué)習(xí)概念。所謂模仿學(xué)習(xí),就是模型先看別人怎么做,然后學(xué)著去做。自動(dòng)駕駛中的模仿學(xué)習(xí),就是把人類司機(jī)
    的頭像 發(fā)表于 01-16 16:41 ?2003次閱讀

    C語(yǔ)言增量式PID的通用算法

    C語(yǔ)言增量式PID通用算法控制算法中PID使用的非常廣泛,但是在網(wǎng)上找代碼的時(shí)候發(fā)現(xiàn)好多代碼都不夠通用,需要自己改好多東西,而且當(dāng)一個(gè)項(xiàng)目需要使用多個(gè)PID控制器時(shí)也頗為麻煩,這里設(shè)計(jì)一個(gè)通用的增量
    發(fā)表于 01-14 08:28

    探索Broadcom AEAT - 901B系列增量式磁編碼器:特性、參數(shù)與應(yīng)用

    探索Broadcom AEAT - 901B系列增量式磁編碼器:特性、參數(shù)與應(yīng)用 在電子工程師的日常設(shè)計(jì)工作中,編碼器猶如一雙雙“電子眼睛”,為設(shè)備的運(yùn)動(dòng)控制和位置檢測(cè)提供關(guān)鍵信息。今天,我們就來(lái)
    的頭像 發(fā)表于 12-30 14:05 ?346次閱讀

    探索AEAT - 901B系列增量式磁編碼器:特性、應(yīng)用與設(shè)計(jì)要點(diǎn)

    探索AEAT - 901B系列增量式磁編碼器:特性、應(yīng)用與設(shè)計(jì)要點(diǎn) 在電子工程師的日常設(shè)計(jì)工作中,編碼器是實(shí)現(xiàn)精確運(yùn)動(dòng)控制和角度檢測(cè)不可或缺的關(guān)鍵組件。今天,我們就來(lái)深入探討一下Broadcom
    的頭像 發(fā)表于 12-30 11:50 ?464次閱讀

    學(xué)習(xí)物聯(lián)網(wǎng)怎么入門?

    隨著物聯(lián)網(wǎng)技術(shù)的不斷發(fā)展,越來(lái)越多的人開(kāi)始關(guān)注學(xué)習(xí)這一領(lǐng)域。但是對(duì)于初學(xué)者來(lái)說(shuō),物聯(lián)網(wǎng)似乎是一個(gè)龐雜的概念,學(xué)習(xí)起來(lái)很困難。因此,從哪里開(kāi)始學(xué)習(xí)物聯(lián)網(wǎng)成為了一個(gè)比較普遍的問(wèn)題。  
    發(fā)表于 10-14 10:34

    增量式編碼器工作原理是什么?

    增量式編碼器工作原理是什么?增量式編碼器是一種通過(guò)輸出脈沖信號(hào)來(lái)反映旋轉(zhuǎn)位置變化的傳感器,廣泛應(yīng)用于電機(jī)測(cè)速、位置控制等領(lǐng)域。其工作原理可從機(jī)械結(jié)構(gòu)、信號(hào)產(chǎn)生、信號(hào)處理三個(gè)層面展開(kāi),增量式編碼器
    的頭像 發(fā)表于 09-29 11:00 ?2181次閱讀
    <b class='flag-5'>增量</b>式編碼器工作原理是什么?

    Bourns發(fā)布全新增量式微型編碼器

    Bourns 推出 PEC04 系列 4 mm 增量式微型編碼器、PEC05 PEC05 系列 5 mm 增量式微型編碼器,以及 PEC06 型號(hào) 6 mm 增量式微型編碼器。Bourns 全新微型編碼器可提供位置與速度信息,為
    的頭像 發(fā)表于 09-22 16:05 ?1313次閱讀

    【「Yocto項(xiàng)目實(shí)戰(zhàn)教程:高效定制嵌入式Linux系統(tǒng)」閱讀體驗(yàn)】+基礎(chǔ)概念學(xué)習(xí)理解

    是 Yocto 項(xiàng)目的核心部分之一,書中對(duì)元數(shù)據(jù)的概念、文件、語(yǔ)法以及菜譜和層的相關(guān)內(nèi)容進(jìn)行了詳細(xì)闡述。通過(guò)學(xué)習(xí)這部分內(nèi)容,我了解到元數(shù)據(jù)在 Yocto 項(xiàng)目中的重要性,它定義了構(gòu)建系統(tǒng)的各個(gè)方面,包括
    發(fā)表于 08-04 22:29

    增量型旋轉(zhuǎn)編碼器:工業(yè)智能化的“精密羅盤”

    在工業(yè)自動(dòng)化浪潮席卷全球的今天,每一個(gè)精密動(dòng)作的背后都離不開(kāi)傳感器的精準(zhǔn)反饋。作為工業(yè)控制領(lǐng)域的“隱形冠軍”,增量型旋轉(zhuǎn)編碼器憑借其高性價(jià)比、高可靠性和靈活適配性,正成為智能制造、機(jī)器人、新能源汽車
    的頭像 發(fā)表于 07-30 08:33 ?650次閱讀
    <b class='flag-5'>增量</b>型旋轉(zhuǎn)編碼器:工業(yè)智能化的“精密羅盤”

    ARM入門學(xué)習(xí)方法分享

    。 以下是一些入門學(xué)習(xí)方法的分享: 一、 理解基本概念:首先,了解ARM是什么以及它的基本概念是很重要的。ARM(Advanced RISC Machines)指的是一種精簡(jiǎn)指令集計(jì)算機(jī)(RISC
    發(fā)表于 07-23 10:21

    增量編碼器部分經(jīng)典應(yīng)用案例?,一起看看吧!

    增量編碼器在醫(yī)療器械中的實(shí)際應(yīng)用案例: 在 CT 掃描設(shè)備旋轉(zhuǎn)臺(tái)驅(qū)動(dòng)系統(tǒng)中,增量編碼器發(fā)揮著關(guān)鍵作用。CT 掃描要求旋轉(zhuǎn)臺(tái)以極高精度與穩(wěn)定性旋轉(zhuǎn),確保 X 射線源與探測(cè)器同步、精準(zhǔn)運(yùn)動(dòng)
    的頭像 發(fā)表于 07-21 11:45 ?690次閱讀
    <b class='flag-5'>增量</b>編碼器部分經(jīng)典應(yīng)用案例?,一起看看吧!

    增量型編碼器與絕對(duì)值型編碼器怎么選擇?

    在選擇增量型編碼器與絕對(duì)值型編碼器時(shí),需要考慮多個(gè)因素,包括應(yīng)用需求、成本、精度、可靠性以及環(huán)境適應(yīng)性等。以下是對(duì)兩種編碼器的詳細(xì)比較及選擇建議: 一、增量型編碼器 1. 優(yōu)點(diǎn): ? ?● 結(jié)構(gòu)簡(jiǎn)單
    的頭像 發(fā)表于 07-10 10:34 ?1402次閱讀

    用DevEco Studio增量補(bǔ)丁修復(fù)功能,讓鴻蒙應(yīng)用的調(diào)試效率大增

    DevEco Studio中得到了很好的解答,而增量補(bǔ)丁修復(fù)便是其中的核心特性之一。今天,我們要深入探討鴻蒙應(yīng)用增量補(bǔ)丁修復(fù)及其兩個(gè)能夠大幅加速開(kāi)發(fā)進(jìn)度的強(qiáng)大功能——Hot Reload和Apply
    發(fā)表于 04-14 17:35

    用DevEco Studio增量補(bǔ)丁修復(fù)功能,讓鴻蒙應(yīng)用的調(diào)試效率大增

    DevEco Studio中得到了很好的解答,而增量補(bǔ)丁修復(fù)便是其中的核心特性之一。今天,我們要深入探討鴻蒙應(yīng)用增量補(bǔ)丁修復(fù)及其兩個(gè)能夠大幅加速開(kāi)發(fā)進(jìn)度的強(qiáng)大功能——Hot Reload和Apply
    發(fā)表于 04-14 14:47

    構(gòu)建增量配電網(wǎng)源網(wǎng)荷儲(chǔ)體系,打造能源智慧新生態(tài)

    增量配電網(wǎng)類源網(wǎng)荷儲(chǔ)一體化項(xiàng)目是一種將電源、電網(wǎng)、負(fù)荷和儲(chǔ)能進(jìn)行整體規(guī)劃和協(xié)同運(yùn)行的能源項(xiàng)目 概念 ? ? ? 增量配電網(wǎng)是在傳統(tǒng)配電網(wǎng)基礎(chǔ)上,為滿足新增負(fù)荷需求或提高供電可靠性等而建設(shè)的配電網(wǎng)
    的頭像 發(fā)表于 03-26 14:17 ?2054次閱讀
    構(gòu)建<b class='flag-5'>增量</b>配電網(wǎng)源網(wǎng)荷儲(chǔ)體系,打造能源智慧新生態(tài)