91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

八種主流深度學(xué)習(xí)框架的介紹

龍騰亞太 ? 來源:龍騰亞太 ? 作者:龍騰亞太 ? 2022-04-26 18:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀:近幾年隨著深度學(xué)習(xí)算法的發(fā)展,出現(xiàn)了許多深度學(xué)習(xí)框架。這些框架各有所長,各具特色。常用的開源框架有TensorFlow、Keras、Caffe、PyTorch、Theano、CNTK、MXNet、PaddlePaddle、Deeplearning4j、ONNX等。

框架名稱:TensorFlow

主要維護(hù)方:Google

支持的語言:C++/Python/Java/R 等

框架名稱:Keras

主要維護(hù)方:Google

支持的語言:Python/R

框架名稱:Caffe

主要維護(hù)方:BVLC

支持的語言:C++/Python/Matlab

框架名稱:PyTorch

主要維護(hù)方:Facebook

支持的語言:C/C++/Python

框架名稱:Theano

主要維護(hù)方:UdeM

支持的語言:Python

框架名稱:CNTK

主要維護(hù)方:Microsoft

支持的語言:C++/Python/C#/.NET/Java/R

框架名稱:MXNet

主要維護(hù)方:DMLC

支持的語言:C++/Python/R等

框架名稱:PaddlePaddle

主要維護(hù)方:Baidu

支持的語言:C++/Python

框架名稱:Deeplearning4j

主要維護(hù)方:Eclipse

支持的語言:Java/Scala等

框架名稱:ONNX

主要維護(hù)方:Microsoft/ Facebook

支持的語言:Python/R

下面開始對(duì)各框架進(jìn)行概述,讓讀者對(duì)各個(gè)框架有個(gè)簡單的認(rèn)知,具體的安裝及使用方法不在本文贅述。

01 TensorFlow

谷歌的TensorFlow可以說是當(dāng)今最受歡迎的開源深度學(xué)習(xí)框架,可用于各類深度學(xué)習(xí)相關(guān)的任務(wù)中。TensorFlow = Tensor + Flow,Tensor就是張量,代表N維數(shù)組;Flow即流,代表基于數(shù)據(jù)流圖的計(jì)算。

TensorFlow是目前深度學(xué)習(xí)的主流框架,其主要特性如下所述。

TensorFlow支持Python、JavaScript、C ++、Java、Go、C#、Julia和R等多種編程語言。

TensorFlow不僅擁有強(qiáng)大的計(jì)算集群,還可以在iOSAndroid等移動(dòng)平臺(tái)上運(yùn)行模型。

TensorFlow編程入門難度較大。初學(xué)者需要仔細(xì)考慮神經(jīng)網(wǎng)絡(luò)的架構(gòu),正確評(píng)估輸入和輸出數(shù)據(jù)的維度和數(shù)量。

TensorFlow使用靜態(tài)計(jì)算圖進(jìn)行操作。也就是說,我們需要先定義圖形,然后運(yùn)行計(jì)算,如果我們需要對(duì)架構(gòu)進(jìn)行更改,則需要重新訓(xùn)練模型。選擇這樣的方法是為了提高效率,但是許多現(xiàn)代神經(jīng)網(wǎng)絡(luò)工具已經(jīng)能夠在學(xué)習(xí)過程中改進(jìn),并且不會(huì)顯著降低學(xué)習(xí)速度。在這方面,TensorFlow的主要競爭對(duì)手是PyTorch。

RStudio提供了R與TensorFlow的API接口,RStudio官網(wǎng)及GitHub上也提供了TensorFlow擴(kuò)展包的學(xué)習(xí)資料

02 Keras

Keras是一個(gè)對(duì)小白用戶非常友好且簡單的深度學(xué)習(xí)框架。如果想快速入門深度學(xué)習(xí), Keras將是不錯(cuò)的選擇。

Keras是TensorFlow高級(jí)集成API,可以非常方便地和TensorFlow進(jìn)行融合。Keras在高層可以調(diào)用TensorFlow、CNTK、Theano,還有更多優(yōu)秀的庫也在被陸續(xù)支持中。Keras的特點(diǎn)是能夠快速搭建模型,是高效地進(jìn)行科學(xué)研究的關(guān)鍵。

Keras的基本特性如下:

高度模塊化,搭建網(wǎng)絡(luò)非常簡潔;

API簡單,具有統(tǒng)一的風(fēng)格;

易擴(kuò)展,易于添加新模塊,只需要仿照現(xiàn)有模塊編寫新的類或函數(shù)即可。

RStudio提供了R與Keras的API接口,RStudio的官網(wǎng)及GitHub上也提供了Keras擴(kuò)展包的學(xué)習(xí)資料。

03 Caffe

Caffe是由AI科學(xué)家賈揚(yáng)清在加州大學(xué)伯克利分校讀博期間主導(dǎo)開發(fā)的,是以C++/CUDA代碼為主的早期深度學(xué)習(xí)框架之一,比TensorFlow、MXNet、PyTorch等都要早。Caffe需要進(jìn)行編譯安裝,支持命令行、Python和Matlab接口,單機(jī)多卡、多機(jī)多卡等都可以很方便使用。

Caffe的基本特性如下。

以C++/CUDA/Python代碼為主,速度快,性能高。

工廠設(shè)計(jì)模式,代碼結(jié)構(gòu)清晰,可讀性和可拓展性強(qiáng)。

支持命令行、Python和Matlab接口,使用方便。

CPUGPU之間切換方便,多GPU訓(xùn)練方便。

工具豐富,社區(qū)活躍。

同時(shí),Caffe的缺點(diǎn)也比較明顯,主要包括如下幾點(diǎn)。

源代碼修改門檻較高,需要實(shí)現(xiàn)正向/反向傳播。

不支持自動(dòng)求導(dǎo)。

不支持模型級(jí)并行,只支持?jǐn)?shù)據(jù)級(jí)并行。

不適合非圖像任務(wù)。

雖然Caffe已經(jīng)提供了Matlab和Python接口,但目前不支持R語言。caffeR為Caffe提供了一系列封裝功能,允許用戶在R語言上運(yùn)行Caffe,包括數(shù)據(jù)預(yù)處理和網(wǎng)絡(luò)設(shè)置,以及監(jiān)控和評(píng)估訓(xùn)練過程。該包還沒有CRAN版本,感興趣的讀者可以在GitHub找到caffeR包的安裝及使用的相關(guān)內(nèi)容。

04 PyTorch

PyTorch是Facebook團(tuán)隊(duì)于2017年1月發(fā)布的一個(gè)深度學(xué)習(xí)框架,雖然晚于TensorFlow、Keras等框架,但自發(fā)布之日起,其受到的關(guān)注度就在不斷上升,目前在GitHub上的熱度已經(jīng)超過Theano、Caffe、MXNet等框架。

PyTroch主要提供以下兩種核心功能:

支持GPU加速的張量計(jì)算;

方便優(yōu)化模型的自動(dòng)微分機(jī)制。

PyTorch的主要優(yōu)點(diǎn)如下。

簡潔易懂:PyTorch的API設(shè)計(jì)相當(dāng)簡潔一致,基本上是tensor、autograd、nn三級(jí)封裝,學(xué)習(xí)起來非常容易。

便于調(diào)試:PyTorch采用動(dòng)態(tài)圖,可以像普通Python代碼一樣進(jìn)行調(diào)試。不同于TensorFlow,PyTorch的報(bào)錯(cuò)說明通常很容易看懂。

強(qiáng)大高效:PyTorch提供了非常豐富的模型組件,可以快速實(shí)現(xiàn)想法。

05 Theano

Theano誕生于2008年,由蒙特利爾大學(xué)的LISA實(shí)驗(yàn)室開發(fā)并維護(hù),是一個(gè)高性能的符號(hào)計(jì)算及深度學(xué)習(xí)框架。它完全基于Python,專門用于對(duì)數(shù)學(xué)表達(dá)式的定義、求值與優(yōu)化。得益于對(duì)GU的透明使用,Theano尤其適用于包含高維度數(shù)組的數(shù)學(xué)表達(dá)式,并且計(jì)算效率比較高。

因Theano出現(xiàn)的時(shí)間較早,后來涌現(xiàn)出一批基于Theano的深度學(xué)習(xí)庫,并完成了對(duì)Theano的上層封裝以及功能擴(kuò)展。在這些派生庫中,比較著名的就是本書要學(xué)習(xí)的Keras。Keras將一些基本的組件封裝成模塊,使得用戶在編寫、調(diào)試以及閱讀網(wǎng)絡(luò)代碼時(shí)更加清晰。

06 CNTK

CNTK(Microsoft Cognitive Toolkit)是微軟開源的深度學(xué)習(xí)工具包,它通過有向圖將神經(jīng)網(wǎng)絡(luò)描述為一系列計(jì)算步驟。在有向圖中,葉節(jié)點(diǎn)表示輸入值或網(wǎng)絡(luò)參數(shù),其他節(jié)點(diǎn)表示其輸入上的矩陣運(yùn)算。

CNTK允許用戶非常輕松地實(shí)現(xiàn)和組合流行的模型,包括前饋神經(jīng)網(wǎng)絡(luò)(DNN)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN、LSTM)。與目前大部分框架一樣,CNTK實(shí)現(xiàn)了自動(dòng)求導(dǎo),利用隨機(jī)梯度下降方法進(jìn)行優(yōu)化。

CNTK的基本特性如下。

CNTK性能較好,按照其官方的說法,它比其他的開源框架性能都要好。

適合做語音任務(wù),CNTK本就是微軟語音團(tuán)隊(duì)開源的,自然更適合做語音任務(wù),便于在使用RNN等模型以及時(shí)空尺度時(shí)進(jìn)行卷積。

微軟開發(fā)的CNTK-R包提供了R與CNTK的API接口。

07 MXNet

MXNet框架允許混合符號(hào)和命令式編程,以最大限度地提高效率和生產(chǎn)力。MXNet的核心是一個(gè)動(dòng)態(tài)依賴調(diào)度程序,可以動(dòng)態(tài)地自動(dòng)并行化符號(hào)和命令操作。其圖形優(yōu)化層使符號(hào)執(zhí)行更快,內(nèi)存效率更高。

MXNet的基本特性如下。

靈活的編程模型:支持命令式和符號(hào)式編程模型。

多語言支持:支持C++、Python、R、Julia、JavaScript、Scala、Go、Perl等。事實(shí)上,它是唯一支持所有R函數(shù)的構(gòu)架。

本地分布式訓(xùn)練:支持在多CPU/GPU設(shè)備上的分布式訓(xùn)練,使其可充分利用云計(jì)算的規(guī)模優(yōu)勢。

性能優(yōu)化:使用一個(gè)優(yōu)化的C++后端引擎實(shí)現(xiàn)并行I/O和計(jì)算,無論使用哪種語言都能達(dá)到最佳性能。

云端友好:可直接與S3、HDFS和Azure兼容。

08 ONNX

ONNX(Open Neural Network eXchange,開放神經(jīng)網(wǎng)絡(luò)交換)項(xiàng)目由微軟、亞馬遜、Facebook和IBM等公司共同開發(fā),旨在尋找呈現(xiàn)開放格式的深度學(xué)習(xí)模型。ONNX簡化了在人工智能不同工作方式之間傳遞模型的過程,具有各種深度學(xué)習(xí)框架的優(yōu)點(diǎn)。

ONNX的基本特性如下。

ONNX使模型能夠在一個(gè)框架中進(jìn)行訓(xùn)練并轉(zhuǎn)移到另一個(gè)框架中進(jìn)行預(yù)測。

ONNX模型目前在Caffe2、CNTK、MXNet和PyTorch中得到支持,并且還有與其他常見框架和庫的連接器。

onnx-r包提供了R與ONNX的API接口。

關(guān)于作者:謝佳標(biāo),資深AI技術(shù)專家和數(shù)據(jù)挖掘?qū)<遥瑩碛谐^14年的技術(shù)研發(fā)和管理經(jīng)驗(yàn)。精通Python和Keras等深度學(xué)習(xí)框架,在數(shù)據(jù)挖掘和人工智能技術(shù)領(lǐng)域有非常深厚的積累。連續(xù)6年(2017~2022年)被微軟評(píng)為數(shù)據(jù)科學(xué)和AI方向MVP。資深R語言技術(shù)專家,“中國現(xiàn)場統(tǒng)計(jì)研究會(huì)大數(shù)據(jù)統(tǒng)計(jì)分會(huì)”第一屆理事。歷屆中國R語言和數(shù)據(jù)科學(xué)大會(huì)特邀演講嘉賓,受邀在國內(nèi)多所高校舉行以數(shù)據(jù)主題的公益講座。

審核編輯:符乾江

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?183次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動(dòng)化領(lǐng)域主流開發(fā)環(huán)境,LabVIEW與深度學(xué)習(xí)的集成
    發(fā)表于 12-04 09:28

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動(dòng)化領(lǐng)域主流開發(fā)環(huán)境,LabVIEW與深度學(xué)習(xí)的集成
    發(fā)表于 12-03 13:50

    如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評(píng)估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?218次閱讀

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語。這些概
    的頭像 發(fā)表于 09-10 17:38 ?897次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級(jí)能力。以下從技術(shù)賦能、場景突破
    的頭像 發(fā)表于 08-20 14:56 ?1021次閱讀

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4181次閱讀
    自動(dòng)駕駛中Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    大模型時(shí)代的深度學(xué)習(xí)框架

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 在 CNN時(shí)代 ,AI模型的參數(shù)規(guī)模都在百萬級(jí)別,僅需在單張消費(fèi)類顯卡上即可完成訓(xùn)練。例如,以業(yè)界知名的CNN模型: ResNet50 為例,模型參數(shù)量是約為 25.63M,在ImageNet1K數(shù)據(jù)集上,使用單張消費(fèi)類顯卡 RTX-4090只需大約35~40個(gè)小時(shí) ,即可完成ResNet50模型的預(yù)訓(xùn)練。在 大模型時(shí)代 ,由于大模型參數(shù)規(guī)模龐大,無法跟CNN時(shí)代的小模型一樣在單張顯卡上完成訓(xùn)練,需要構(gòu)建多張AI加速卡的集群才能完成AI大模型的預(yù)訓(xùn)練
    的頭像 發(fā)表于 04-25 11:43 ?832次閱讀
    大模型時(shí)代的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>框架</b>

    實(shí)時(shí)多線程VSLAM框架vS-Graphs介紹

    針對(duì)現(xiàn)有VSLAM系統(tǒng)語義表達(dá)不足、地圖可解釋性差的問題,本文提出vS-Graphs,一實(shí)時(shí)多線程VSLAM框架。該方案顯著提升了重建地圖的語義豐富度、可解釋性及定位精度。實(shí)驗(yàn)表明
    的頭像 發(fā)表于 04-19 14:07 ?998次閱讀
    一<b class='flag-5'>種</b>實(shí)時(shí)多線程VSLAM<b class='flag-5'>框架</b>vS-Graphs<b class='flag-5'>介紹</b>

    百度飛槳框架3.0正式版發(fā)布

    大模型訓(xùn)練成本高?推理效率低?硬件適配難? 4月1日,百度發(fā)布 飛槳框架3.0正式版 !五大特性專為大模型設(shè)計(jì)。 作為大模型時(shí)代的Infra“基礎(chǔ)設(shè)施”,深度學(xué)習(xí)框架的重要性愈發(fā)凸顯,
    的頭像 發(fā)表于 04-02 19:03 ?1185次閱讀
    百度飛槳<b class='flag-5'>框架</b>3.0正式版發(fā)布

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)框架,可以深度理解數(shù)
    的頭像 發(fā)表于 04-02 18:21 ?1512次閱讀

    STM32如何移植Audio框架?

    最近在學(xué)習(xí)音頻解碼,想用一下Audio框架。 1、這個(gè)該如何移植到自己創(chuàng)建的BSP并對(duì)接到device框架中?看了官方移植文檔沒有對(duì)沒有對(duì)該部分的描述。 2、我只想實(shí)現(xiàn)一個(gè)簡單的播放功能,只用一個(gè)DAC芯片(比如CS4344)是
    發(fā)表于 04-01 08:08

    用樹莓派搞深度學(xué)習(xí)?TensorFlow啟動(dòng)!

    介紹本頁面將指導(dǎo)您在搭載64位Bullseye操作系統(tǒng)的RaspberryPi4上安裝TensorFlow。TensorFlow是一個(gè)專為深度學(xué)習(xí)開發(fā)的大型軟件庫,它消耗大量資源。您可以在
    的頭像 發(fā)表于 03-25 09:33 ?1198次閱讀
    用樹莓派搞<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>?TensorFlow啟動(dòng)!

    如何排除深度學(xué)習(xí)工作臺(tái)上量化OpenVINO?的特定層?

    無法確定如何排除要在深度學(xué)習(xí)工作臺(tái)上量化OpenVINO?特定層
    發(fā)表于 03-06 07:31

    靈汐科技開源類腦深度學(xué)習(xí)應(yīng)用開發(fā)平臺(tái)BIDL

    富案例等問題,一直制約著其廣泛應(yīng)用。為了突破這一瓶頸,靈汐科技聯(lián)合腦啟社區(qū)正式宣布開源類腦深度學(xué)習(xí)應(yīng)用開發(fā)平臺(tái)BIDL(Brain-inspired Deep Learning)。
    的頭像 發(fā)表于 03-05 09:13 ?1809次閱讀
    靈汐科技開源類腦<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>應(yīng)用開發(fā)平臺(tái)BIDL