91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

解決計(jì)算機(jī)視覺深度學(xué)習(xí)應(yīng)用的性能瓶頸問題

DPVg_AI_era ? 來源:未知 ? 作者:胡薇 ? 2018-06-26 11:24 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在CVPR 2018大會(huì)上,英偉達(dá)開源了數(shù)據(jù)增強(qiáng)和數(shù)據(jù)解碼的兩個(gè)新的庫:

NVIDIA DALI:一個(gè)GPU加速的數(shù)據(jù)增強(qiáng)和圖像加載庫,用于優(yōu)化深度學(xué)習(xí)框架的數(shù)據(jù)pipeline

NVIDIA nvJPEG:一個(gè)高性能的GPU加速的圖像解碼庫

由深度學(xué)習(xí)驅(qū)動(dòng)的計(jì)算機(jī)視覺應(yīng)用程序包括復(fù)雜的、多階段的預(yù)處理數(shù)據(jù)pipeline,包括計(jì)算密集型的步驟,例如從磁盤加載和提取數(shù)據(jù)、解碼、裁剪和調(diào)整大小、顏色和空間變換以及格式轉(zhuǎn)換。

通過使用GPU加速數(shù)據(jù)增強(qiáng),NVIDIA DALI解決了當(dāng)今計(jì)算機(jī)視覺深度學(xué)習(xí)應(yīng)用程序中的性能瓶頸問題,這些應(yīng)用程序包括復(fù)雜的多階段數(shù)據(jù)增強(qiáng)步驟。借助DALI,深度學(xué)習(xí)研究人員可以通過MXNet、TensorFlow和PyTorch在AWS P3 8 GPU實(shí)例或Volta GPU的DGX-1系統(tǒng)上提高圖像分類模型(比如ResNet-50)的訓(xùn)練性能。由于可以跨框架實(shí)現(xiàn)高性能的數(shù)據(jù)加載和增強(qiáng),框架用戶將能夠減少代碼重復(fù)。

DALI依賴于新的NVIDIA nvJPEG庫進(jìn)行高性能的GPU加速解碼。

DALI的優(yōu)勢(shì)包括:

能與MxNet,TensorFlow和PyTorch的框架直接集成

具有支持多種數(shù)據(jù)格式(如JPEG,原始格式,LMDB,RecordIO和TFRecord)的便攜式訓(xùn)練工作流

具有可配置圖形和自定義操作符的自定義數(shù)據(jù)pipeline

使用nvJPEG進(jìn)行高性能的單圖像解碼和批量JPEG解碼

nvJPEG是一個(gè)用于JPEG解碼的高性能GPU加速庫。nvJPEG支持同時(shí)使用CPU和GPU對(duì)單個(gè)圖像和批量圖像進(jìn)行解碼、顏色空間轉(zhuǎn)換、多相位解碼,以及混合解碼。與只使用CPU解碼相比,使用nvJPEG進(jìn)行解碼的應(yīng)用程序具有更高的吞吐量和更低的延遲。

nvJPEG為計(jì)算機(jī)視覺應(yīng)用中常用的JPEG格式提供低延遲解碼器,如圖像分類、物體檢測(cè)和圖像分割等應(yīng)用。對(duì)于深度學(xué)習(xí)訓(xùn)練應(yīng)用,nvJPEG可以加速數(shù)據(jù)加載和預(yù)處理,如平移、縮小,放大,翻轉(zhuǎn)等。對(duì)于需要低延遲深度學(xué)習(xí)推理的應(yīng)用,nvJPEG可用于實(shí)時(shí)地進(jìn)行JPEG解碼和調(diào)整大小。

nvJPEG的優(yōu)勢(shì)包括:

使用CPU和GPU進(jìn)行混合解碼

可以進(jìn)行單個(gè)圖像解碼和批量圖像解碼

色彩空間可以轉(zhuǎn)換為RGB,BGR,RGBI,BGRI和YUV

單相位解碼和多相位解碼

DALI已經(jīng)開源,可以從GitHub獲?。?/p>

https://github.com/NVIDIA/dali

nvJPEG預(yù)發(fā)行版也已經(jīng)可以免費(fèi)下載,用于收集反饋和測(cè)試,今年晚些時(shí)候會(huì)作為CUDA工具包的一部分提供。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 計(jì)算機(jī)視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1715

    瀏覽量

    47663
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    23

    文章

    4102

    瀏覽量

    99355

原文標(biāo)題:英偉達(dá)開源數(shù)據(jù)增強(qiáng)和數(shù)據(jù)解碼庫,解決計(jì)算機(jī)視覺性能瓶頸

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    請(qǐng)問計(jì)算機(jī)視覺深度學(xué)習(xí)要看什么書?

    計(jì)算機(jī)視覺深度學(xué)習(xí),看這本書就夠了
    發(fā)表于 05-21 12:43

    深度學(xué)習(xí)計(jì)算機(jī)視覺領(lǐng)域圖像應(yīng)用總結(jié) 精選資料下載

    簡(jiǎn)單的回顧的話,2006年Geoffrey Hinton的論文點(diǎn)燃了“這把火”,現(xiàn)在已經(jīng)有不少人開始潑“冷水”了,主要是AI泡沫太大,而且深度學(xué)習(xí)不是包治百病的藥方。計(jì)算機(jī)視覺不是
    發(fā)表于 07-28 08:22

    超全!深度學(xué)習(xí)計(jì)算機(jī)視覺領(lǐng)域應(yīng)用一覽(附鏈接)精選資料分享

    這是一份深度學(xué)習(xí)計(jì)算機(jī)視覺領(lǐng)域的超全應(yīng)用預(yù)覽~簡(jiǎn)單回顧的話,2006年Geof...
    發(fā)表于 07-28 07:35

    深度學(xué)習(xí)與傳統(tǒng)計(jì)算機(jī)視覺簡(jiǎn)介

    文章目錄1 簡(jiǎn)介1.1 深度學(xué)習(xí)與傳統(tǒng)計(jì)算機(jī)視覺1.2 性能考量1.3 社區(qū)支持2 結(jié)論3 參考在計(jì)算機(jī)
    發(fā)表于 12-23 06:17

    深度學(xué)習(xí)是否會(huì)取代傳統(tǒng)的計(jì)算機(jī)視覺?

    理解傳統(tǒng)的計(jì)算機(jī)視覺實(shí)際上真的有助于你更好的使用深度學(xué)習(xí)。例如,計(jì)算機(jī)視覺中最常見的神經(jīng)網(wǎng)絡(luò)是卷
    的頭像 發(fā)表于 04-02 10:37 ?6784次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>是否會(huì)取代傳統(tǒng)的<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>?

    深度學(xué)習(xí)不能取代計(jì)算機(jī)視覺技術(shù)背后的真正原因

    深度學(xué)習(xí)只是一種 計(jì)算機(jī)視覺 工具,而不是包治百病的良藥,不要因?yàn)榱餍芯鸵晃兜厥褂盟?。傳統(tǒng)的計(jì)算機(jī)視覺
    的頭像 發(fā)表于 04-05 11:37 ?5395次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>不能取代<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>技術(shù)背后的真正原因

    技術(shù) | 深度學(xué)習(xí)計(jì)算機(jī)視覺領(lǐng)域的瓶頸已至

    霍金的弟子,約翰霍普金斯大學(xué)教授Alan Yuille提出“深度學(xué)習(xí)計(jì)算機(jī)視覺領(lǐng)域的瓶頸已至。
    的頭像 發(fā)表于 07-05 10:07 ?3211次閱讀

    深度學(xué)習(xí)計(jì)算機(jī)視覺上的四大應(yīng)用

    計(jì)算機(jī)視覺中比較成功的深度學(xué)習(xí)的應(yīng)用,包括人臉識(shí)別,圖像問答,物體檢測(cè),物體跟蹤。
    的頭像 發(fā)表于 08-24 16:16 ?5843次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>上的四大應(yīng)用

    計(jì)算機(jī)視覺應(yīng)用中3大瓶頸問題及解決方案

    /jig.190446 計(jì)算機(jī)視覺在智能制造工業(yè)檢測(cè)中發(fā)揮著檢測(cè)識(shí)別和定位分析的重要作用,為提高工業(yè)檢測(cè)的檢測(cè)速率和準(zhǔn)確率以及智能自動(dòng)化程度做出了巨大的貢獻(xiàn)。然而計(jì)算機(jī)視覺在應(yīng)用過程中
    的頭像 發(fā)表于 10-23 10:59 ?1.1w次閱讀
    <b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>應(yīng)用中3大<b class='flag-5'>瓶頸</b>問題及解決方案

    通過遷移學(xué)習(xí)決計(jì)算機(jī)視覺問題

    來源:公眾號(hào)AI公園 作者:OrhanG. Yal?n 編譯:ronghuaiyang 導(dǎo)讀 使用SOTA的預(yù)訓(xùn)練模型來通過遷移學(xué)習(xí)解決現(xiàn)實(shí)的計(jì)算機(jī)視覺問題。 如果你試過構(gòu)建高精度的機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 10-31 10:54 ?2969次閱讀
    通過遷移<b class='flag-5'>學(xué)習(xí)</b>解<b class='flag-5'>決計(jì)算機(jī)</b><b class='flag-5'>視覺</b>問題

    深度學(xué)習(xí)和傳統(tǒng)計(jì)算機(jī)視覺技術(shù)在新興領(lǐng)域的比較

    是不是深度學(xué)習(xí)就可以解決所有問題呢?是不是它就比傳統(tǒng)計(jì)算機(jī)視覺方法好呢?但是深度學(xué)習(xí)無法解決所有
    的頭像 發(fā)表于 11-28 11:01 ?2641次閱讀

    淺談深度學(xué)習(xí)計(jì)算機(jī)視覺領(lǐng)域的三大瓶頸

    深度學(xué)習(xí)能夠?qū)崿F(xiàn)的前提是大量經(jīng)過標(biāo)注的數(shù)據(jù),這使得計(jì)算機(jī)視覺領(lǐng)域的研究人員傾向于在數(shù)據(jù)資源豐富的領(lǐng)域搞研究,而不是去重要的領(lǐng)域搞研究。
    發(fā)表于 06-11 10:22 ?852次閱讀
    淺談<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>領(lǐng)域的三大<b class='flag-5'>瓶頸</b>

    計(jì)算機(jī)視覺中的九種深度學(xué)習(xí)技術(shù)

    計(jì)算機(jī)視覺中仍有許多具有挑戰(zhàn)性的問題需要解決。然而,深度學(xué)習(xí)方法正在針對(duì)某些特定問題取得最新成果。 在最基本的問題上,最有趣的不僅僅是深度
    發(fā)表于 08-21 09:56 ?1257次閱讀
    <b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>中的九種<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>技術(shù)

    反思深度學(xué)習(xí)與傳統(tǒng)計(jì)算機(jī)視覺的關(guān)系

    某種程度上,深度學(xué)習(xí)最大的優(yōu)勢(shì)就是自動(dòng)創(chuàng)建沒有人會(huì)想到的特性能力。如今,深度學(xué)習(xí)在眾多領(lǐng)域都有一席之地,尤其是在
    的頭像 發(fā)表于 09-12 08:29 ?1080次閱讀
    反思<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>與傳統(tǒng)<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>的關(guān)系

    深度學(xué)習(xí)計(jì)算機(jī)視覺領(lǐng)域的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其中的核心技術(shù)之一,已經(jīng)在計(jì)算機(jī)視覺領(lǐng)域取得了顯著的成果。計(jì)算機(jī)
    的頭像 發(fā)表于 07-01 11:38 ?2617次閱讀