一個經(jīng)歷了 39 場 Kaggle 比賽的團隊在 reddit 上發(fā)帖表示,他們整理了一份結構化的圖像分割技巧列表,涵蓋數(shù)據(jù)增強、建模、損失函數(shù)、訓練技巧等多個方面,不失為一份可以參考的圖像分割技巧資料。
圖像分割是圖像處理和計算機視覺的熱點之一,是根據(jù)圖像內(nèi)容對指定區(qū)域進行標記的計算機視覺任務。它基于某些標準將輸入圖像劃分為多個相同的類別,簡言之就是「這張圖片里有什么,其在圖片中的位置是什么?」以便提取人們感興趣的區(qū)域。圖像分割是圖像分析和圖像特征提取及識別的基礎。
圖像分割也是 Kaggle 中的一類常見賽題,比如衛(wèi)星圖像分割與識別、氣胸疾病圖像分割等。除了密切的團隊配合、給力的 GPU 配置等條件,技巧在這類比賽中也發(fā)揮了很大的作用。但這些技巧去哪里找呢?Medium、大牛博客、參賽經(jīng)驗帖中都散落著各種技巧分享,但這些資源往往比較零散,于是就有人想到,為什么不把它們集中到一起呢? Derrick Mwiti 就帶頭做了這么一件事,他和他所在的團隊將過去 39 場 Kaggle 比賽中討論過的圖像分割技巧、資料都匯總到了一起,希望可以幫到在圖像分割任務中遇到困難的同學。 這份列表分為十大板塊,包括外部數(shù)據(jù)、預處理、數(shù)據(jù)增強、建模、硬件配置、損失函數(shù)、訓練技巧、評估和交叉驗證、集成方法以及后處理。

每個版塊的具體內(nèi)容以條目的形式呈現(xiàn),每個條目又都嵌入了一些鏈接,點開可以看到一些優(yōu)秀的 Kaggle 解決方案分享、Medium 博客教程、高贊的 GitHub 項目等,讀者可以根據(jù)自己的具體問題和需要進行查找。 本文選取了其中一部分內(nèi)容進行介紹,具體細節(jié)及鏈接請參見原文。 接下來,我們來看每個步驟都有哪些技巧吧。 預處理 這一部分包含眾多常見的有效圖像預處理方法,例如:
使用高斯差分方法進行斑點檢測;
使用基于圖像塊的輸入進行訓練,以減少訓練時間;
加載數(shù)據(jù)時,用 cudf 替換 Pandas;
確保所有圖像保持相同的方向;
使用 OpenCV 對所有常規(guī)圖像進行預處理;
采用自主學習并手動添加注釋;
將所有圖像調(diào)整成相同的分辨率,以便將相同的模型用于不同厚度的掃描等。

數(shù)據(jù)增強 數(shù)據(jù)增強能夠使網(wǎng)絡具有更復雜的表征能力,從而減小網(wǎng)絡性能在驗證集和訓練集以及最終測試集上的差距,讓網(wǎng)絡更好地學習遷移數(shù)據(jù)集上的數(shù)據(jù)分布。這部分介紹了一些常用的數(shù)據(jù)增強方法:
用 albumentations 包進行數(shù)據(jù)增強;
使用 90 度隨機旋轉;
使用水平、垂直翻轉或這兩個方向都做翻轉;
嘗試進行復雜的幾何變換,包括彈性變換、透視變換、分段仿射變換、枕形失真;
應用隨機 HSV;
使用損失較小的增強數(shù)據(jù)進行泛化,以防止有用圖像信息丟失;
應用通道 shuffle;
根據(jù)類別頻率進行數(shù)據(jù)擴充;
應用高斯噪聲等。
建模網(wǎng)絡架構 這一部分介紹了一些可用在圖像分割上的常用網(wǎng)絡框架,例如:
使用基于 U-net 的架構;
用 inception-ResNet v2 架構得到具備不同感受野的訓練特征;
經(jīng)過對抗訓練的 Siamese 網(wǎng)絡;
以密集(FC)層作為最后一層的 ResNet50、Xception、Inception ResNet v2 x 5;
使用全局最大池化層,無論輸入尺寸如何,該層都將返回固定長度的輸出;
使用堆疊的膨脹卷積;
VoxelNet;
用 concat 和 conv1x1 替換 LinkNet 跳躍連接中的加號;
廣義平均池化;
用 3D 卷積網(wǎng)絡在圖像上滑動;
使用在 Imagenet 數(shù)據(jù)集上預訓練的 ResNet152 作為特征提取器等。
以及下列經(jīng)典網(wǎng)絡框架:

損失函數(shù) 損失函數(shù)常用來估計模型預測結果與真值之間的差距。選擇合適的損失函數(shù),對模型效果很重要。 這部分介紹了一系列損失函數(shù)和使用場景,例如:
dice 系數(shù):能夠很好地處理不平衡數(shù)據(jù);
加權邊界損失:減少預測分割與真值之間的距離;
MultiLabelSoftMarginLoss:基于最大熵優(yōu)化多標簽一對多損失的標準;
具備 logit 損失的平衡交叉熵(Balanced cross entropy,BCE):以特定系數(shù)權衡正例和負例;
……
此外,作者還介紹了 Arc margin 損失、BCE 和 dice 系數(shù)的組合等等,更多詳情參見原文。

訓練技巧 這部分介紹了常用的模型訓練技巧,如:
嘗試不同的學習率;
嘗試不同批大小;
使用帶有動量項的 SDG,并且手動設置學習率衰減;
數(shù)據(jù)增強過多會降低準確率;
使用裁剪后的圖像訓練,并在完整的圖像上做預測;
在學習速率調(diào)整上使用 Keras 中的 ReduceLROnPlateau() 方法;
凍結除了最后一層以外所有的網(wǎng)絡層,并使用 Stage1 中的 1000 張圖片進行模型微調(diào);
開發(fā)一個能使標簽更加均勻的采樣器;
使用類別感知采樣(class aware sampling)等。

評估和交叉驗證 這部分介紹了 k 折交叉驗證、對抗驗證和權衡等方法,以及在調(diào)整模型最后一層時使用交叉驗證方法以有效避免過擬合。

集成方法 許多機器學習競賽(包括 Kaggle)中最優(yōu)秀的解決方案所采用的集成方法都建立在一個這樣的假設上:將多個模型組合在一起通??梢援a(chǎn)生更強大的模型。 這部分介紹了多種集成方法,如多數(shù)投票法、XGBoost、LightGBM、CatBoost 等方法,以及集成 ResNet50、InceptionV3 和 InceptionResNetV2 的方法。

后處理 這部分介紹了多種后處理方法:
測試時增強(Test Time Augmentation,TTA):向模型多次展示經(jīng)過不同隨機變換的圖像,取預測平均值;
均衡使用測試預測概率,而不是僅使用預測類;
將幾何平均數(shù)應用于預測;
在推理過程中將圖塊重疊,使每個邊緣像素至少覆蓋 3 次,因為 UNET 在邊緣區(qū)域范圍的預測往往較差;
非極大抑制和邊界框收縮;
分水嶺后處理:在實例分割問題中分離對象。
最后需要注意的是,這份列表給出的某些技巧可能有一定的適用范圍,具體能不能用還要視數(shù)據(jù)而定。

-
gpu
+關注
關注
28文章
5194瀏覽量
135432 -
圖像分割
+關注
關注
4文章
182瀏覽量
18775 -
計算機視覺
+關注
關注
9文章
1715瀏覽量
47625
原文標題:圖像分割的「奇技淫巧」
文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
圖像采集卡:連接設備與數(shù)據(jù)的圖像樞紐
SAM(通用圖像分割基礎模型)丨基于BM1684X模型部署指南
傳音TEX AI團隊斬獲ICCV 2025大型視頻目標分割挑戰(zhàn)賽雙料亞軍
使用Otsu閾值算法將灰度圖像二值化
手機板 layout 走線跨分割問題
MATLAB 助力香港中文大學解決生物醫(yī)學圖像處理挑戰(zhàn)
基于黃金分割搜索法的IPMSM最大轉矩電流比控制
如何將32個步進伺服驅(qū)動器塞進小型板材分割機中?
【正點原子STM32MP257開發(fā)板試用】基于 DeepLab 模型的圖像分割
凡億Allegro Skill布線功能-檢查跨分割
圖像分割技巧資料
評論