91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

模型集成是一種提升模型能力的常用方法

新機(jī)器視覺 ? 來源:AI公園 ? 作者:AI公園 ? 2021-01-27 11:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀

模型集成是一種提升模型能力的常用方法,但通常也會帶來推理時間的增加,在物體檢測上效果如何,可以看看。

8c5baf2e-6042-11eb-8b86-12bb97331649.png

介紹

集成機(jī)器學(xué)習(xí)模型是一種常見的提升模型能力的方式,并已在多個場景中使用,因?yàn)樗鼈兘Y(jié)合了多個模型的決策,以提高整體性能,但當(dāng)涉及到基于DNN(深度神經(jīng)網(wǎng)絡(luò))的目標(biāo)檢測模型時,它并不僅僅是合并結(jié)果那么簡單。

集成的需求

為了在任何模型中獲得良好的結(jié)果,都需要滿足某些標(biāo)準(zhǔn)(數(shù)據(jù)、超參數(shù))。但在真實(shí)場景中,你可能會得到糟糕的訓(xùn)練數(shù)據(jù),或者很難找到合適的超參數(shù)。在這些情況下,綜合多個性能較差的模型可以幫助你獲得所需的結(jié)果。在某種意義上,集成學(xué)習(xí)可以被認(rèn)為是一種通過執(zhí)行大量額外計(jì)算來彌補(bǔ)學(xué)習(xí)算法不足的方法。另一方面,另一種選擇是在一個非集成系統(tǒng)上做更多的學(xué)習(xí)。對于計(jì)算、存儲或通信資源的相同增加,集成系統(tǒng)使用兩種或兩種以上的方法可能會比使用單一方法增加資源的方法更有效地提高整體精度。

看起來挺好,有沒有缺點(diǎn)呢?

更難調(diào)試或理解預(yù)測,因?yàn)轭A(yù)測框是根據(jù)多個模型繪制的。

推理時間根據(jù)模型和使用的模型數(shù)量而增加。

嘗試不同的模型以獲得合適的模型集合是一件耗時的事情。

不同的模型集成

OR方法:如果一個框是由至少一個模型生成的,就會考慮它。

AND方法:如果所有模型產(chǎn)生相同的框,則認(rèn)為是一個框(如果IOU >0.5)。

一致性方法:如果大多數(shù)模型產(chǎn)生相同的框,則認(rèn)為是一個框,即如果有m個模型,(m/2 +1)個模型產(chǎn)生相同的框,則認(rèn)為這個框有效。

加權(quán)融合:這是一種替代NMS的新方法,并指出了其不足之處。

8f114b52-6042-11eb-8b86-12bb97331649.png

不同的集成方法

在上面的例子中,OR方法的預(yù)測得到了所有需要的對象框,但也得到了一個假陽性結(jié)果,一致性的方法漏掉了馬,AND方法同時漏掉了馬和狗。

驗(yàn)證

為了計(jì)算不同的集成方法,我們將跟蹤以下參數(shù):

True positive:預(yù)測框與gt匹配

False Positives:預(yù)測框是錯誤的

False Negatives:沒有預(yù)測,但是存在gt。

Precision:度量你的預(yù)測有多準(zhǔn)確。也就是說,你的預(yù)測正確的百分比[TP/ (TP + FP)]

Recall:度量gt被預(yù)測的百分比[TP/ (TP + FN)]

Average Precision:precision-recall圖的曲線下面積

使用的模型

為了理解集成是如何起作用的,我們提供了用于實(shí)驗(yàn)的獨(dú)立模型的結(jié)果。

1. YoloV3:

903377bc-6042-11eb-8b86-12bb97331649.png

2. Faster R-CNN — ResNeXt 101 [X101-FPN]:

90fec3a4-6042-11eb-8b86-12bb97331649.png

集成實(shí)驗(yàn)

1. OR — [YoloV3, X101-FPN]

91b45714-6042-11eb-8b86-12bb97331649.png

如果你仔細(xì)觀察,F(xiàn)Ps的數(shù)量增加了,這反過來降低了精度。與此同時,TPs數(shù)量的增加反過來又增加了召回。這是使用OR方法時可以觀察到的一般趨勢。

2. AND — [YoloV3, X101-FPN]

91f8a054-6042-11eb-8b86-12bb97331649.png

與我們使用OR方法觀察到的情況相反,在AND方法中,我們最終獲得了較高的精度和較低的召回率,因?yàn)閹缀跛械募訇栃远急粍h除了,因?yàn)閅oloV3和X101的大多數(shù)FPs是不同的。

檢測框加權(quán)融合

在NMS方法中,如果框的IoU大于某個閾值,則認(rèn)為框?qū)儆趩蝹€物體。因此,框的過濾過程取決于這個單一IoU閾值的選擇,這影響了模型的性能。然而,設(shè)置這個閾值很棘手:如果有多個物體并排存在,那么其中一個就會被刪除。NMS丟棄了冗余框,因此不能有效地從不同的模型中產(chǎn)生平均的局部預(yù)測。

9281237a-6042-11eb-8b86-12bb97331649.png

NMS和WBF之間的主要區(qū)別是,WBF利用所有的框,而不是丟棄它們。在上面的例子中,紅框是ground truth,藍(lán)框是多個模型做出的預(yù)測。請注意,NMS是如何刪除冗余框的,但WBF通過考慮所有預(yù)測框創(chuàng)建了一個全新的框(融合框)。

3. Weighted Boxes Fusion — [Yolov3, X101-FPN]

92b348f0-6042-11eb-8b86-12bb97331649.png

YoloV3和X101-FPN的權(quán)重比分別為2:1。我們也試著增加有利于X101-FPN的比重(因?yàn)樗男阅芨?,但在性能上沒有看到任何顯著的差異。從我們讀過的加權(quán)融合論文中,作者注意到了AP的增加,但如你所見,WBF YoloV3和X101-FPN并不比OR方法好很多。我們注意到的是,大部分的實(shí)驗(yàn)涉及至少3個或更多模型。

4. Weighted Boxes Fusion — [Yolov3, X101, R101, R50]

93703e10-6042-11eb-8b86-12bb97331649.png

在最后的實(shí)驗(yàn)中,我們使用了YoloV3以及我們在Detectron2中訓(xùn)練的3個模型[ResNeXt101-FPN, ResNet101-FPN, ResNet50-FPN]。顯然,召回率有一個跳躍(約為傳統(tǒng)方法的0.3),但AP的跳躍并不大。另外,需要注意的是,當(dāng)你向WF方法添加更多模型時,誤報的數(shù)量會激增。

總結(jié)

當(dāng)使用相互補(bǔ)充的模型時,集成是提高性能的一種很好的方法,但它也會以速度為代價來完成推理。根據(jù)需求,可以決定有多少個模型,采用哪種方法,等等。但從我們進(jìn)行的實(shí)驗(yàn)來看,性能提升的數(shù)量似乎與一起運(yùn)行這些模型所需的資源和推斷時間不成比例。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:目標(biāo)檢測多模型集成方法總結(jié)

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的般化建議

    :Dropout層隨機(jī)跳過神經(jīng)網(wǎng)絡(luò)模型中某些神經(jīng)元之間的連接,通過隨機(jī)制造缺陷進(jìn)行訓(xùn)練提升整個神經(jīng)網(wǎng)絡(luò)的魯棒性。 6)指定合理的學(xué)習(xí)率策略:旦神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率飽和,那么學(xué)習(xí)率應(yīng)當(dāng)適當(dāng)?shù)臏p少,使得
    發(fā)表于 10-28 08:02

    什么是AI模型的推理能力

    NVIDIA 的數(shù)據(jù)工廠團(tuán)隊(duì)為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎(chǔ),該模型近日在 Hugging Face 的物理推理模型排行榜中位列榜首。
    的頭像 發(fā)表于 09-23 15:19 ?1279次閱讀

    小白學(xué)大模型:國外主流大模型匯總

    )領(lǐng)域。論文的核心是提出了一種名為Transformer的全新模型架構(gòu),它完全舍棄了以往序列模型(如循環(huán)神經(jīng)網(wǎng)絡(luò)RNNs和卷積神經(jīng)網(wǎng)絡(luò)CNNs)中常用的循環(huán)和卷積結(jié)構(gòu)
    的頭像 發(fā)表于 08-27 14:06 ?975次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:國外主流大<b class='flag-5'>模型</b>匯總

    模型工具的 “京東答案”

    隨著大模型技術(shù)的迅猛發(fā)展,AI工具已成為重要的輔助生產(chǎn)力工具和工作伙伴。它能夠顯著提升工作效率、幫助解決業(yè)務(wù)痛點(diǎn),甚至能通過知識延展與智能協(xié)同,幫助團(tuán)隊(duì)突破傳統(tǒng)認(rèn)知邊界。掌握大模型工具的應(yīng)用
    的頭像 發(fā)表于 08-25 16:09 ?581次閱讀

    模型捉蟲行家MV:致力全流程模型動態(tài)測試

    隨著基于模型設(shè)計(jì)(MBD)開發(fā)量的增長,其對應(yīng)的測試需求也顯著提升。此前,在《您的模型診斷專家MI:助力把好模型質(zhì)量關(guān)》文中詳述了
    的頭像 發(fā)表于 07-09 16:37 ?885次閱讀
    <b class='flag-5'>模型</b>捉蟲行家MV:致力全流程<b class='flag-5'>模型</b>動態(tài)測試

    模型推理顯存和計(jì)算量估計(jì)方法研究

    (如全連接層、卷積層等)確定所需的顯存大?。?(3)將各層顯存大小相加,得到模型總的顯存需求。 基于神經(jīng)網(wǎng)絡(luò)剪枝的顯存估計(jì) 神經(jīng)網(wǎng)絡(luò)剪枝是一種減少模型參數(shù)數(shù)量的技術(shù),可以降低顯存需求。通過剪枝,可以
    發(fā)表于 07-03 19:43

    從FA模型切換到Stage模型時:module的切換說明

    mainAbility。mainElement標(biāo)簽名稱變更,Stage模型不在使用“.”符號。 package標(biāo)識HAP的包結(jié)構(gòu)名稱,在應(yīng)用內(nèi)保證唯性。/Stage模型使用name來保證應(yīng)用唯
    發(fā)表于 06-05 08:16

    FA模型訪問Stage模型DataShareExtensionAbility說明

    解決方案,讓開發(fā)者平滑過渡到API 9(含)之后的版本。 基本原理 一種兼容方法是DataAbilityHelper根據(jù)傳入的URI的前綴是DataAbility還是DataShare來決定是否調(diào)
    發(fā)表于 06-04 07:53

    Stage模型綁定FA模型ServiceAbility的方法

    Stage模型綁定FA模型ServiceAbility 本小節(jié)介紹Stage模型的兩應(yīng)用組件如何綁定FA模型ServiceAbility
    發(fā)表于 06-04 06:54

    Stage模型啟動FA模型PageAbility方法

    Stage模型啟動FA模型PageAbility 本小節(jié)介紹Stage模型的兩應(yīng)用組件如何啟動FA模型的PageAbility組件。 U
    發(fā)表于 06-04 06:36

    如何使用Docker部署大模型

    隨著深度學(xué)習(xí)和大模型的快速發(fā)展,如何高效地部署這些模型成為了個重要的挑戰(zhàn)。Docker 作為一種輕量級的容器化技術(shù),能夠?qū)?b class='flag-5'>模型及其依賴環(huán)境
    的頭像 發(fā)表于 05-24 16:39 ?1131次閱讀

    KaihongOS操作系統(tǒng)FA模型與Stage模型介紹

    FA模型與Stage模型介紹 KaihongOS操作系統(tǒng)中,F(xiàn)A模型(Feature Ability)和Stage模型是兩不同的應(yīng)用
    發(fā)表于 04-24 07:27

    百度發(fā)布文心大模型4.5和文心大模型X1

    文心大模型4.5是百度自主研發(fā)的新代原生多模態(tài)基礎(chǔ)大模型,通過多個模態(tài)聯(lián)合建模實(shí)現(xiàn)協(xié)同優(yōu)化,多模態(tài)理解能力優(yōu)秀;具備更精進(jìn)的語言能力,理解
    的頭像 發(fā)表于 03-18 16:29 ?918次閱讀

    一種基于基礎(chǔ)模型對齊的自監(jiān)督三維空間理解方法

    三維空間理解是推動自動駕駛、具身智能等領(lǐng)域中智能系統(tǒng)實(shí)現(xiàn)環(huán)境感知、交互的核心任務(wù),其中3D語義占據(jù)預(yù)測 (Semantic Occupancy Prediction) 對三維場景進(jìn)行精準(zhǔn)的體素級建模。然而,當(dāng)前主流方法嚴(yán)重依賴大規(guī)模標(biāo)注數(shù)據(jù),制約了模型的可擴(kuò)展性和泛化
    的頭像 發(fā)表于 03-18 15:01 ?982次閱讀
    <b class='flag-5'>一種</b>基于基礎(chǔ)<b class='flag-5'>模型</b>對齊的自監(jiān)督三維空間理解<b class='flag-5'>方法</b>

    ?VLM(視覺語言模型)?詳細(xì)解析

    視覺語言模型(Visual Language Model, VLM)是一種結(jié)合視覺(圖像/視頻)和語言(文本)處理能力的多模態(tài)人工智能模型,能夠理解并生成與視覺內(nèi)容相關(guān)的自然語言。以下
    的頭像 發(fā)表于 03-17 15:32 ?8881次閱讀
    ?VLM(視覺語言<b class='flag-5'>模型</b>)?詳細(xì)解析