91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進(jìn)行語(yǔ)義分割的方法詳解

MATLAB ? 來(lái)源:djl ? 2019-09-12 11:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

這篇文章展示了一個(gè)具體的文檔示例,演示如何使用深度學(xué)習(xí)和 Computer Vision System Toolbox 訓(xùn)練語(yǔ)義分割網(wǎng)絡(luò)。

語(yǔ)義分割網(wǎng)絡(luò)對(duì)圖像中的每個(gè)像素進(jìn)行分類(lèi),從而生成按類(lèi)分割的圖像。語(yǔ)義分割的應(yīng)用包括用于自動(dòng)駕駛的道路分割和醫(yī)學(xué)診斷中的癌細(xì)胞分割。

如需了解更多文檔示例和詳細(xì)信息,建議查閱技術(shù)文檔:https://cn.mathworks.com/help

為了說(shuō)明訓(xùn)練過(guò)程,本示例將訓(xùn)練 SegNet,一種用于圖像語(yǔ)義分割的卷積神經(jīng)網(wǎng)絡(luò) (CNN)。用于語(yǔ)義分割的其他類(lèi)型網(wǎng)絡(luò)包括全卷積網(wǎng)絡(luò) (FCN) 和 U-Net。以下所示訓(xùn)練過(guò)程也可應(yīng)用于這些網(wǎng)絡(luò)。

本示例使用來(lái)自劍橋大學(xué)的CamVid 數(shù)據(jù)集展開(kāi)訓(xùn)練。此數(shù)據(jù)集是包含駕駛時(shí)所獲得的街道級(jí)視圖的圖像集合。該數(shù)據(jù)集為 32 種語(yǔ)義類(lèi)提供了像素級(jí)標(biāo)簽,包括車(chē)輛、行人和道路。

建立

本示例創(chuàng)建了 SegNet 網(wǎng)絡(luò),其權(quán)重從 VGG-16 網(wǎng)絡(luò)初始化。要獲取 VGG-16,請(qǐng)安裝Neural Network Toolbox Model for VGG-16 Network:

安裝完成后,運(yùn)行以下代碼以驗(yàn)證是否安裝正確。

vgg16();

此外,請(qǐng)下載預(yù)訓(xùn)練版 SegNet。預(yù)訓(xùn)練模型可支持您運(yùn)行整個(gè)示例,而無(wú)需等待訓(xùn)練完成。

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進(jìn)行語(yǔ)義分割的方法詳解

強(qiáng)烈建議采用計(jì)算能力為 3.0 或更高級(jí)別,支持 CUDA 的 NVIDIA GPU 來(lái)運(yùn)行本示例。使用 GPU 需要 Parallel Computing Toolbox。

下載 CamVid 數(shù)據(jù)集

從以下 URL 中下載 CamVid 數(shù)據(jù)集。

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進(jìn)行語(yǔ)義分割的方法詳解

注意:數(shù)據(jù)下載時(shí)間取決于您的 Internet 連接情況。在下載完成之前,上面使用的命令會(huì)阻止訪問(wèn) MATLAB?;蛘?,您可以使用 Web 瀏覽器先將數(shù)據(jù)集下載到本地磁盤(pán)。要使用從 Web 中下載的文件,請(qǐng)將上述 outputFolder 變量更改為下載文件的位置。

加載 CamVid 圖像

用于加載 CamVid 圖像。借助 imageDatastore,可以高效地加載磁盤(pán)上的大量圖像數(shù)據(jù)。

imgDir = fullfile(outputFolder,'images','701_StillsRaw_full');imds = imageDatastore(imgDir);

顯示其中一個(gè)圖像。

I = readimage(imds,1);I = histeq(I);imshow(I)

加載 CamVid 像素標(biāo)簽圖像

使用imageDatastore加載 CamVid 像素標(biāo)簽圖像。pixelLabelDatastore 將像素標(biāo)簽數(shù)據(jù)和標(biāo)簽 ID 封裝到類(lèi)名映射中。

按照 SegNet 原創(chuàng)論文(Badrinarayanan、Vijay、Alex Kendall 和 Roberto Cipolla:《SegNet:用于圖像分割的一種深度卷積編碼器-解碼器架構(gòu)》(SegNet: A Deep Convolutional Encoder-Decoder Architecture for ImageSegmentation)。arXiv 預(yù)印本:1511.00561,201)中采用的步驟進(jìn)行操作,將 CamVid 中的 32 個(gè)原始類(lèi)分組為 11 個(gè)類(lèi)。指定這些類(lèi)。

classes = [ "Sky" "Building" "Pole" "Road" "Pavement" "Tree" "SignSymbol" "Fence" "Car" "Pedestrian" "Bicyclist" ];

要將 32 個(gè)類(lèi)減少為 11 個(gè),請(qǐng)將原始數(shù)據(jù)集中的多個(gè)類(lèi)組合在一起。例如,“Car” 是 “Car” 、 “SUVPickupTruck” 、 “Truck_Bus” 、 “Train” 和 “OtherMoving” 的組合。使用支持函數(shù) camvidPixelLabelIDs 返回已分組的標(biāo)簽 ID,該函數(shù)會(huì)在本示例的末尾列出。

labelIDs = camvidPixelLabelIDs();

使用這些類(lèi)和標(biāo)簽 ID 創(chuàng)建 pixelLabelDatastore。

labelDir = fullfile(outputFolder,'labels');pxds = pixelLabelDatastore(labelDir,classes,labelIDs);

讀取并在一幅圖像上疊加顯示像素標(biāo)簽圖像。

C = readimage(pxds,1);cmap = camvidColorMap;B = labeloverlay(I,C,'ColorMap',cmap);imshow(B)pixelLabelColorbar(cmap,classes);

沒(méi)有顏色疊加的區(qū)域沒(méi)有像素標(biāo)簽,在訓(xùn)練期間不會(huì)使用這些區(qū)域。

分析數(shù)據(jù)集統(tǒng)計(jì)信息

要查看 CamVid 數(shù)據(jù)集中類(lèi)標(biāo)簽的分布情況,請(qǐng)使用countEachLabel。此函數(shù)會(huì)按類(lèi)標(biāo)簽計(jì)算像素?cái)?shù)。

tbl = countEachLabel(pxds)

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進(jìn)行語(yǔ)義分割的方法詳解

按類(lèi)可視化像素計(jì)數(shù)。

frequency = tbl.PixelCount/sum(tbl.PixelCount);bar(1:numel(classes),frequency)xticks(1:numel(classes)) xticklabels(tbl.Name)xtickangle(45)ylabel('Frequency')

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進(jìn)行語(yǔ)義分割的方法詳解

理想情況下,所有類(lèi)都有相同數(shù)量的觀察結(jié)果。但是,CamVid 中的這些類(lèi)比例失衡,這是街道場(chǎng)景汽車(chē)數(shù)據(jù)集中的常見(jiàn)問(wèn)題。由于天空、建筑物和道路覆蓋了圖像中的更多區(qū)域,因此相比行人和騎自行車(chē)者像素,這些場(chǎng)景擁有更多的天空、建筑物和道路像素。如果處理不當(dāng),這種失衡可能影響學(xué)習(xí)過(guò)程,因?yàn)閷W(xué)習(xí)過(guò)程偏向主導(dǎo)類(lèi)。在本示例中,您稍后將使用類(lèi)權(quán)重來(lái)處理此問(wèn)題。

調(diào)整 CamVid 數(shù)據(jù)的大小

CamVid 數(shù)據(jù)集中的圖像大小為 720 x 960。要減少訓(xùn)練時(shí)間和內(nèi)存使用量,請(qǐng)將圖像和像素標(biāo)記圖像的大小調(diào)整為 360 x 480。resizeCamVidImages 和 resizeCamVidPixelLabels 是本示例末尾所列出的支持函數(shù)。

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進(jìn)行語(yǔ)義分割的方法詳解

準(zhǔn)備訓(xùn)練集和測(cè)試集

使用數(shù)據(jù)集中 60% 的圖像訓(xùn)練 SegNet。其余圖像用于測(cè)試。以下代碼會(huì)將圖像和像素標(biāo)記數(shù)據(jù)隨機(jī)分成訓(xùn)練集和測(cè)試集。

[imdsTrain,imdsTest,pxdsTrain,pxdsTest] = partitionCamVidData(imds,pxds);

60/40 拆分會(huì)生產(chǎn)以下數(shù)量的訓(xùn)練圖像和測(cè)試圖像:

numTrainingImages = numel(imdsTrain.Files)

numTrainingImages = 421

numTestingImages = numel(imdsTest.Files)

numTestingImages = 280

創(chuàng)建網(wǎng)絡(luò)

使用segnetLayers創(chuàng)建利用 VGG-16 權(quán)重初始化的 SegNet 網(wǎng)絡(luò)。segnetLayers 會(huì)自動(dòng)執(zhí)行傳輸 VGG-16 中的權(quán)重所需的網(wǎng)絡(luò)操作,并添加語(yǔ)義分割所需其他網(wǎng)絡(luò)層。

imageSize = [360 480 3];numClasses = numel(classes);lgraph = segnetLayers(imageSize,numClasses,'vgg16');

根據(jù)數(shù)據(jù)集中圖像的大小選擇圖像大小。根據(jù) CamVid 中的類(lèi)選擇類(lèi)的數(shù)量。

使用類(lèi)權(quán)重平衡類(lèi)

如前所示,CamVid 中的這些類(lèi)比例失衡。要改進(jìn)訓(xùn)練情況,可以使用類(lèi)權(quán)重來(lái)平衡這些類(lèi)。使用之前通過(guò)countEachLayer計(jì)算的像素標(biāo)簽計(jì)數(shù),并計(jì)算中值頻率類(lèi)權(quán)重。

imageFreq = tbl.PixelCount ./ tbl.ImagePixelCount;classWeights = median(imageFreq) ./ imageFreq

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進(jìn)行語(yǔ)義分割的方法詳解

使用pixelClassificationLayer指定類(lèi)權(quán)重。

pxLayer = pixelClassificationLayer('Name','labels','ClassNames',tbl.Name,'ClassWeights',classWeights)

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進(jìn)行語(yǔ)義分割的方法詳解

通過(guò)刪除當(dāng)前 pixelClassificationLayer 并添加新層,使用新的 pixelClassificationLayer 更新 SegNet 網(wǎng)絡(luò)。當(dāng)前 pixelClassificationLayer 名為“pixelLabels”。使用removeLayers刪除該層,使用addLayers添加新層,然后使用connectLayers將新層連接到網(wǎng)絡(luò)的其余部分。

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進(jìn)行語(yǔ)義分割的方法詳解

選擇訓(xùn)練選項(xiàng)

用于訓(xùn)練的優(yōu)化算法是引入動(dòng)量的隨機(jī)梯度下降 (SGDM) 算法。使用trainingOptions指定用于 SGDM 的超參數(shù)。

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進(jìn)行語(yǔ)義分割的方法詳解

大小為 4 的 minimatch 用于減少訓(xùn)練時(shí)的內(nèi)存使用量。您可以根據(jù)系統(tǒng)中的 GPU 內(nèi)存量增加或減少此值。

數(shù)據(jù)擴(kuò)充

在訓(xùn)練期間使用數(shù)據(jù)擴(kuò)充向網(wǎng)絡(luò)提供更多示例,以便提高網(wǎng)絡(luò)的準(zhǔn)確性。此處,隨機(jī)左/右反射以及 +/- 10 像素的隨機(jī) X/Y 平移用于數(shù)據(jù)擴(kuò)充。用于指定這些數(shù)據(jù)擴(kuò)充參數(shù)。

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進(jìn)行語(yǔ)義分割的方法詳解

imageDataAugmenter 支持其他幾種類(lèi)型的數(shù)據(jù)擴(kuò)充。選擇它們需要經(jīng)驗(yàn)分析,并且這是另一個(gè)層次的超參數(shù)調(diào)整。

開(kāi)始訓(xùn)練

使用pixelLabelImageDatastore組合訓(xùn)練數(shù)據(jù)和數(shù)據(jù)擴(kuò)充選擇。pixelLabelImageDatastore 會(huì)讀取批量訓(xùn)練數(shù)據(jù),應(yīng)用數(shù)據(jù)擴(kuò)充,并將已擴(kuò)充的數(shù)據(jù)發(fā)送至訓(xùn)練算法。

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進(jìn)行語(yǔ)義分割的方法詳解

如果 doTraining 標(biāo)志為 true,則會(huì)開(kāi)始訓(xùn)練。否則,會(huì)加載預(yù)訓(xùn)練網(wǎng)絡(luò)。注意:NVIDIA Titan X 上的訓(xùn)練大約需要 5 個(gè)小時(shí),根據(jù)您的 GPU 硬件具體情況,可能會(huì)需要更長(zhǎng)的時(shí)間。

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進(jìn)行語(yǔ)義分割的方法詳解

在圖像上測(cè)試網(wǎng)絡(luò)

作為快速完整性檢查,將在測(cè)試圖像上運(yùn)行已訓(xùn)練的網(wǎng)絡(luò)。

I = read(imdsTest);C = semanticseg(I, net);

顯示結(jié)果。

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進(jìn)行語(yǔ)義分割的方法詳解

將 C 中的結(jié)果與 pxdsTest 中的預(yù)期真值進(jìn)行比較。綠色和洋紅色區(qū)域突出顯示了分割結(jié)果與預(yù)期真值不同的區(qū)域。

expectedResult = read(pxdsTest);actual = uint8(C);expected = uint8(expectedResult);imshowpair(actual, expected)

從視覺(jué)上看,道路、天空、建筑物等類(lèi)的語(yǔ)義分割結(jié)果重疊情況良好。然而,行人和車(chē)輛等較小的對(duì)象則不那么準(zhǔn)確。可以使用交叉聯(lián)合 (IoU) 指標(biāo)(又稱(chēng) Jaccard 系數(shù))來(lái)測(cè)量每個(gè)類(lèi)的重疊量。使用jaccard函數(shù)測(cè)量 IoU。

iou = jaccard(C, expectedResult);table(classes,iou)

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進(jìn)行語(yǔ)義分割的方法詳解

IoU 指標(biāo)可確認(rèn)視覺(jué)效果。道路、天空和建筑物類(lèi)具有較高的 IoU 分?jǐn)?shù),而行人和車(chē)輛等類(lèi)的分?jǐn)?shù)較低。其他常見(jiàn)的分割指標(biāo)包括Dice 系數(shù)和Boundary-F1輪廓匹配分?jǐn)?shù)。

評(píng)估已訓(xùn)練的網(wǎng)絡(luò)

要測(cè)量多個(gè)測(cè)試圖像的準(zhǔn)確性,請(qǐng)?jiān)谡麄€(gè)測(cè)試集中運(yùn)行semanticseg。

pxdsResults = semanticseg(imdsTest,net,'MiniBatchSize',4,'WriteLocation',tempdir,'Verbose',false);

semanticseg 會(huì)將測(cè)試集的結(jié)果作為 pixelLabelDatastore 對(duì)象返回。imdsTest 中每個(gè)測(cè)試圖像的實(shí)際像素標(biāo)簽數(shù)據(jù)會(huì)在“WriteLocation”參數(shù)指定的位置寫(xiě)入磁盤(pán)。使用evaluateSemanticSegmentation測(cè)量測(cè)試集結(jié)果的語(yǔ)義分割指標(biāo)。

metrics = evaluateSemanticSegmentation(pxdsResults,pxdsTest,'Verbose',false);

evaluateSemanticSegmentation返回整個(gè)數(shù)據(jù)集、各個(gè)類(lèi)以及每個(gè)測(cè)試圖像的各種指標(biāo)。要查看數(shù)據(jù)集級(jí)別指標(biāo),請(qǐng)檢查 metrics.DataSetMetrics。

metrics.DataSetMetrics

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進(jìn)行語(yǔ)義分割的方法詳解

數(shù)據(jù)集指標(biāo)可提供網(wǎng)絡(luò)性能的高級(jí)概述。要查看每個(gè)類(lèi)對(duì)整體性能的影響,請(qǐng)使用 metrics.ClassMetrics 檢查每個(gè)類(lèi)的指標(biāo)。

metrics.ClassMetrics

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進(jìn)行語(yǔ)義分割的方法詳解

盡管數(shù)據(jù)集整體性能非常高,但類(lèi)指標(biāo)顯示,諸如 Pedestrian、Bicyclist 和 Car 等代表性不足的類(lèi)分割效果不如Road、Sky 和 Building 等類(lèi)。附加數(shù)據(jù)多一些代表性不足類(lèi)樣本可能會(huì)提升分割效果。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    14

    文章

    8265

    瀏覽量

    94775
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124398
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    穿孔機(jī)頂頭檢測(cè)儀 機(jī)器視覺(jué)深度學(xué)習(xí)

    LX01Z-DG626穿孔機(jī)頂頭檢測(cè)儀采用深度學(xué)習(xí)技術(shù),能夠?qū)崿F(xiàn)頂頭狀態(tài)的在線實(shí)時(shí)檢測(cè),頂頭丟失報(bào)警,頂頭異常狀態(tài)報(bào)警等功能,響應(yīng)迅速,異常狀態(tài)視頻回溯,檢測(cè)頂頭溫度,配備吹掃清潔系統(tǒng),維護(hù)周期長(zhǎng)
    發(fā)表于 12-22 14:33

    【NPU實(shí)戰(zhàn)】在迅為RK3588上玩轉(zhuǎn)YOLOv8:目標(biāo)檢測(cè)與語(yǔ)義分割一站式部署指南

    【NPU實(shí)戰(zhàn)】在迅為RK3588上玩轉(zhuǎn)YOLOv8:目標(biāo)檢測(cè)與語(yǔ)義分割一站式部署指南
    的頭像 發(fā)表于 12-12 14:30 ?6153次閱讀
    【NPU實(shí)戰(zhàn)】在迅為RK3588上玩轉(zhuǎn)YOLOv8:目標(biāo)檢測(cè)與<b class='flag-5'>語(yǔ)義</b><b class='flag-5'>分割</b>一站式部署指南

    如何深度學(xué)習(xí)機(jī)器視覺(jué)的應(yīng)用場(chǎng)景

    深度學(xué)習(xí)視覺(jué)應(yīng)用場(chǎng)景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測(cè):處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類(lèi):對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類(lèi) 外觀質(zhì)量評(píng)估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)
    的頭像 發(fā)表于 11-27 10:19 ?221次閱讀

    微店關(guān)鍵詞搜索接口核心突破:動(dòng)態(tài)權(quán)重算法與語(yǔ)義引擎的實(shí)戰(zhàn)落地

    本文詳解微店搜索接口從基礎(chǔ)匹配到智能推薦的技術(shù)進(jìn)階路徑,涵蓋動(dòng)態(tài)權(quán)重、語(yǔ)義理解與行為閉環(huán)三大創(chuàng)新,助力商家提升搜索轉(zhuǎn)化率、商品曝光與用戶(hù)留存,實(shí)現(xiàn)技術(shù)驅(qū)動(dòng)的業(yè)績(jī)?cè)鲩L(zhǎng)。
    的頭像 發(fā)表于 10-15 14:38 ?439次閱讀

    手機(jī)板 layout 走線跨分割問(wèn)題

    學(xué)習(xí)layout時(shí),都在說(shuō)信號(hào)線不可跨分割,但是在工作中為了成本不能跨分割似乎也非絕對(duì)。 在后續(xù)工作中,跨分割的基礎(chǔ)都是相鄰層有一面完整的GND參考,跨
    發(fā)表于 09-16 14:56

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類(lèi)別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“
    的頭像 發(fā)表于 09-10 17:38 ?901次閱讀
    如何在機(jī)器視覺(jué)中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    、實(shí)施路徑三個(gè)維度展開(kāi)分析: 一、深度學(xué)習(xí)如何突破工業(yè)物聯(lián)網(wǎng)的技術(shù)瓶頸? 1. 非結(jié)構(gòu)化數(shù)據(jù)處理:解鎖“沉睡數(shù)據(jù)”價(jià)值 傳統(tǒng)困境 :工業(yè)物聯(lián)網(wǎng)中70%以上的數(shù)據(jù)為非結(jié)構(gòu)化數(shù)據(jù)(如設(shè)備振動(dòng)波形、紅外圖像、日志文本),傳統(tǒng)方法難以
    的頭像 發(fā)表于 08-20 14:56 ?1028次閱讀

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來(lái),隨著ChatGPT、Claude、文心一言等大語(yǔ)言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4185次閱讀
    自動(dòng)駕駛中Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    ARM入門(mén)學(xué)習(xí)方法分享

    。 以下是一些入門(mén)學(xué)習(xí)方法的分享: 一、 理解基本概念:首先,了解ARM是什么以及它的基本概念是很重要的。ARM(Advanced RISC Machines)指的是一種精簡(jiǎn)指令集計(jì)算機(jī)(RISC
    發(fā)表于 07-23 10:21

    北京迅為itop-3588開(kāi)發(fā)板NPU例程測(cè)試deeplabv3 語(yǔ)義分割

    北京迅為itop-3588開(kāi)發(fā)板NPU例程測(cè)試deeplabv3 語(yǔ)義分割
    的頭像 發(fā)表于 07-22 15:51 ?992次閱讀
    北京迅為itop-3588開(kāi)發(fā)板NPU例程測(cè)試deeplabv3 <b class='flag-5'>語(yǔ)義</b><b class='flag-5'>分割</b>

    大模型推理顯存和計(jì)算量估計(jì)方法研究

    方法。 一、引言 大模型推理是指在已知輸入數(shù)據(jù)的情況下,通過(guò)深度學(xué)習(xí)模型進(jìn)行預(yù)測(cè)或分類(lèi)的過(guò)程。然而,大模型的推理過(guò)程對(duì)顯存和計(jì)算資源的需求較高,這給實(shí)際應(yīng)用帶來(lái)了以下挑戰(zhàn): 顯存不足:
    發(fā)表于 07-03 19:43

    【正點(diǎn)原子STM32MP257開(kāi)發(fā)板試用】基于 DeepLab 模型的圖像分割

    是谷歌團(tuán)隊(duì)提出的一種用于語(yǔ)義分割深度學(xué)習(xí)模型,屬于 DeepLab 系列模型的第三代版本。它在圖像語(yǔ)義
    發(fā)表于 06-21 21:11

    使用MATLAB進(jìn)行無(wú)監(jiān)督學(xué)習(xí)

    無(wú)監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無(wú)監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)中隱藏的模式和關(guān)系,無(wú)需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識(shí)。
    的頭像 發(fā)表于 05-16 14:48 ?1447次閱讀
    使用<b class='flag-5'>MATLAB</b><b class='flag-5'>進(jìn)行</b>無(wú)監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過(guò)程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以深度理解數(shù)據(jù)中所要表示的規(guī)律。從原理上看,使用
    的頭像 發(fā)表于 04-02 18:21 ?1517次閱讀

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類(lèi)、obb

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類(lèi)、obb、pose深度學(xué)習(xí),支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28