91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

你最看好哪個深度學(xué)習(xí)框架呢?

jmiy_worldofai ? 來源:未知 ? 作者:胡薇 ? 2018-09-21 17:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

開源的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)正步入成熟,而現(xiàn)在有許多框架具備為個性化方案提供先進的機器學(xué)習(xí)人工智能的能力。那么如何決定哪個開源框架最適合你呢?本文試圖通過對比度學(xué)習(xí)各大框架的優(yōu)缺點,從而為各位讀者提供一個參考。

現(xiàn)在的許多機器學(xué)習(xí)框架都可以在圖像識別、手寫識別、視頻識別、語音識別、目標識別和自然語言處理等許多領(lǐng)域大展身手,但卻并沒有一個完美的深度神經(jīng)網(wǎng)絡(luò)能解決你的所有業(yè)務(wù)問題。所以,本文希望下面的圖表和講解能夠提供直觀方法,幫助讀者解決業(yè)務(wù)問題。

下圖總結(jié)了在 GitHub 中最受歡迎的開源深度學(xué)習(xí)框架排名,該排名是基于各大框架在 GitHub 里的收藏數(shù),這個數(shù)據(jù)由 Mitch De Felice 在 2017 年 5 月初完成。

TensorFlow

地址:https://www.tensorflow.org/

TensorFlow 最開始是由谷歌一個稱之為 DistBelief V2 的庫發(fā)展而來,它是一個公司內(nèi)部的深度神經(jīng)網(wǎng)絡(luò)庫,隸屬于谷歌大腦項目。有一些人認為 TensorFlow 是由 Theano 徹底重構(gòu)而來。

谷歌開源 TensorFlow 后,立即吸引了一大批開發(fā)愛好者。TensorFlow 可以提供一系列的能力,例如圖像識別、手寫識別、語音識別、預(yù)測以及自然語言處理等。2015 年 11 月 9 號,TensorFlow 在 Apache 2.0 協(xié)議下開源發(fā)布。

TensorFlow 1.0 版本已于 2017 年 2 月 15 日發(fā)布,這個版本是之前 8 個版本的優(yōu)化改進版,其致力于解決 Tensorflow 之前遇到的一系列問題以及完善一些核心能力。TensorFlow 獲得成功的因素有:

TensorFlow 提供了如下工具:TensorFlow Serving:可以保持相同的服務(wù)器架構(gòu)和 API,使得部署新算法和實驗變 得簡 單。TensorFlow Serving 提供了與 TensorFlow 模型開箱即用的整合,但同時還能很 容易擴展到其它類型的模型和數(shù)據(jù)。

TensorFlow 編程接口支持 PythonC++。隨著 1.0 版本的公布,Java、Go、R 和 Haskell API 的 alpha 版本也將被支持。此外,TensorFlow 還可在谷歌云和亞馬孫云中運行。

隨著 0.12 版本的發(fā)行,TensorFlow 將支持 Windows 7、 Windows 10 和 Server 2016。由于 TensorFlow 使用 C++ Eigen 庫,所以庫可在 ARM 架構(gòu)上編譯和優(yōu)化。這也就意味著你可以在各種服務(wù)器和移動設(shè)備上部署你的訓(xùn)練模型,而無需執(zhí)行單獨的模型解碼器或者加載 Python 解釋器。

TensorFlow 支持細粒度的網(wǎng)格層,而且允許用戶在無需用低級語言實現(xiàn)的情況下構(gòu)建新的復(fù)雜的層類型。子圖執(zhí)行操作允許你在圖的任意邊緣引入和檢索任意數(shù)據(jù)的結(jié)果。這對調(diào)試復(fù)雜的計算圖模型很有幫助。

分布式 TensorFlow(Distributed TensorFlow)被加進了 0.8 版本,它允許模型并行,這意味著模型的不同部分可在不同的并行設(shè)備上被訓(xùn)練。

自 2016 年 3 月,斯坦福大學(xué)、伯克利大學(xué)、多倫多大學(xué)和 Udacity 都將這個框架作為一個免費的大規(guī)模在線開放課程進行教授。

TensorFlow 的缺點如下:

TensorFlow 的每個計算流都必須構(gòu)造為一個靜態(tài)圖,且缺乏符號性循環(huán)(symbolic loops),這會帶來一些計算困難。

沒有對視頻識別很有用的三維卷積(3-D convolution)。

盡管 TensorFlow 現(xiàn)在比起始版本(v0.5)快了 58 倍,但在執(zhí)行性能方面依然落后于競爭對手。

Caffe

地址:http://caffe.berkeleyvision.org/

Caffe 是賈揚清的杰作,目前他在 Facebook AI 平臺擔任首席工程師。Caffe 可能是自 2013 年底以來第一款主流的工業(yè)級深度學(xué)習(xí)工具包。正因為 Caffe 優(yōu)秀的卷積模型,它已經(jīng)成為計算機視覺界最流行的工具包之一,并在 2014 年的 ImageNet 挑戰(zhàn)賽中一舉奪魁。Caffe 遵循 BSD 2-Clause 協(xié)議。

Caffe 的快速使其完美應(yīng)用于實驗研究和商業(yè)部署。Caffe 可在英偉達單個 K40 GPU 上每天處理 6000 萬張圖像。這大概是 1 毫秒預(yù)測一張圖片,4 毫秒學(xué)習(xí)一張圖片的速度,而且最新的版本處理速度會更快。

Caffe 基于 C++,因此可在多種設(shè)備上編譯。它跨平臺運行,并包含 Windows 端口。Caffe 支持 C++、Matlab 和 Python 編程接口。Caffe 擁有一個龐大的用戶社區(qū),人們在其中為被稱為「Model Zoo(https://github.com/BVLC/caffe/wiki/Model-Zoo)」的深度網(wǎng)絡(luò)庫做貢獻。AlexNet 和 GoogleNet 就是社群用戶構(gòu)建的兩個流行網(wǎng)絡(luò)。

雖然 Caffe 在視頻識別領(lǐng)域是一個流行的深度學(xué)習(xí)網(wǎng)絡(luò),但是 Caffe 卻不能像 TensorFlow、CNTK 和 Theano 那樣支持細粒度網(wǎng)絡(luò)層。構(gòu)建復(fù)雜的層類型必須以低級語言完成。由于其遺留架構(gòu),Caffe 對循環(huán)網(wǎng)絡(luò)和語言建模的支持總體上很薄弱。

Caffe2

地址:https://caffe2.ai/

目前,賈揚清和他在 Facebook 的團隊正在開發(fā)新一代框架 Caffe2。今年 4 月 18 日,F(xiàn)acebook 開源了 Caffe2。Caffe 2 與 Caffe 的區(qū)別是什么?Caffe2 更注重模塊化,在移動端、大規(guī)模部署上表現(xiàn)卓越。如同 TensorFlow,Caffe2 使用 C++ Eigen 庫,支持 ARM 架構(gòu)。

用一個實用腳本,Caffe 上的模型可輕易地被轉(zhuǎn)變到 Caffe2 上。Caffe 設(shè)計的選擇使得它處理視覺類型的難題時很完美。Caffe2 延續(xù)了它對視覺類問題的支持,且增加了對自然語言處理、手寫識別、時序預(yù)測有幫助的 RNN 和 LSTM 支持。

期待不久之后能看到 Caffe 2 超越 Caffe,就像它宣稱的那樣在深度學(xué)習(xí)社區(qū)流行。

在英偉達推出 Volta 架構(gòu)的第一塊加速卡 Tesla V100 后,Caffe 的開發(fā)者第一時間展示了 Tesla V100 在 Caffe2 上運行 ResNet-50 的評測。數(shù)據(jù)顯示在新框架和新硬件的配合下,模型每秒鐘可以處理 4100 張圖片。

鏈接:

https://caffe2.ai/blog/2017/05/10/caffe2-adds-FP16-training-support.html

CNTK

鏈接:https://github.com/Microsoft/CNTK/wiki

微軟的 CNTK(Microsoft Cognitive Toolkit)最初是面向語音識別的框架。CNTK 支持 RNN 和 CNN 類型的網(wǎng)絡(luò)模型,從而在處理圖像、手寫字體和語音識別問題上,它是很好的選擇。使用 Python 或 C++ 編程接口,CNTK 支持 64 位的 Linux 和 Windows 系統(tǒng),在 MIT 許可證下發(fā)布。

與 TensorFlow 和 Theano 同樣,CNTK 使用向量運算符的符號圖(symbolic graph)網(wǎng)絡(luò),支持如矩陣加 / 乘或卷積等向量操作。此外,像 TensorFlow 和 Theano 一樣,CNTK 有豐富的細粒度的網(wǎng)絡(luò)層構(gòu)建。構(gòu)建塊(操作)的細粒度使用戶不需要使用低層次的語言(如 Caffe)就能創(chuàng)建新的復(fù)雜的層類型。

CNTK 也像 Caffe 一樣基于 C++ 架構(gòu),支持跨平臺的 CPU/GPU 部署。CNTK 在 Azure GPU Lab 上顯示出最高效的分布式計算性能。目前,CNTK 不支持 ARM 架構(gòu),這限制了其在移動設(shè)備上的功能。

MXNet

鏈接:http://mxnet.io/

MXNet(發(fā)音為 mix-net)起源于卡內(nèi)基梅隆大學(xué)和華盛頓大學(xué)的實驗室。MXNet 是一個全功能、可編程和可擴展的深度學(xué)習(xí)框架,支持最先進的深度學(xué)習(xí)模型。MXNet 支持混合編程模型(命令式和聲明式編程)和多種編程語言的代碼(包括 Python、C++、R、Scala、Julia、Matlab 和 JavaScript)。2017 年 1 月 30 日,MXNet 被列入 Apache Incubator 開源項目。

MXNet 支持深度學(xué)習(xí)架構(gòu),如卷積神經(jīng)網(wǎng)絡(luò)(CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和其包含的長短時間記憶網(wǎng)絡(luò)(LTSM)。該框架為圖像、手寫文字和語音的識別和預(yù)測以及自然語言處理提供了出色的工具。有些人稱 MXNet 是世界上最好的圖像分類器。

MXNet 具有可擴展的強大技術(shù)能力,如 GPU 并行和內(nèi)存鏡像、快速編程器開發(fā)和可移植性。此外,MXNet 與 Apache Hadoop YARN(一種通用分布式應(yīng)用程序管理框架)集成,使 MXNet 成為 TensorFlow 有力的競爭對手。

MXNet 不僅僅只是深度網(wǎng)絡(luò)框架,它的區(qū)別在于支持生成對抗網(wǎng)絡(luò)(GAN)模型。該模型啟發(fā)自實驗經(jīng)濟學(xué)方法的納什均衡。

Torch

鏈接:http://torch.ch/

Torch 由 Facebook 的 Ronan Collobert 和 Soumith Chintala,Twitter 的 Clement Farabet(現(xiàn)任職于英偉達),以及 Google DeepMind 的 Koray Kavukcuoglu 共同開發(fā)。很多科技巨頭(如 Facebook、Twitter 和英偉達)都使用定制版的 Torch 用于人工智能研究,這大大促進了 Torch 的開發(fā)。Torch 是 BSD 3 協(xié)議下的開源項目。然而,隨著 Facebook 對 Caffe 2 的研究,以及其對移動設(shè)備的支持,Caffe 2 正成為主要的深度學(xué)習(xí)框架。

Torch 的編程語言為 Lua。Lua 不是主流語言,在開發(fā)人員沒有熟練掌握 Lua 之前,使用 Torch 很難提高開發(fā)的整體生產(chǎn)力。

Torch 缺乏 TensorFlow 的分布式應(yīng)用程序管理框架,也缺乏 MXNet 和 Deeplearning4J 對 YARN 的支持。缺乏多種編程語言的 API 也限制了開發(fā)人員。

PyTorch

地址:http://pytorch.org/

PyTorch 由 Adam Paszke、Sam Gross 與 Soumith Chintala 等人牽頭開發(fā),其成員來自 Facebook FAIR 和其他多家實驗室。它是一種 Python 優(yōu)先的深度學(xué)習(xí)框架,在今年 1 月被開源,提供了兩種高層面的功能:

使用強大的 GPU 加速的 Tensor 計算(類似 numpy)。構(gòu)建于基于 tape 的 autograd 系統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)

該框架結(jié)合了 Torch7 高效靈活的 GPU 加速后端庫與直觀的 Python 前端,它的特點是快速成形、代碼可讀和支持最廣泛的深度學(xué)習(xí)模型。如有需要,你可以復(fù)用你最喜歡的 Python 軟件包(如 numpy、scipy 和 Cython)來擴展 PyTorch。該框架因為其靈活性和速度,在推出以后迅速得到了開發(fā)者和研究人員的青睞。隨著 GitHub 上越來越多代碼的出現(xiàn),PyTorch 作為新框架缺乏資源的問題已經(jīng)得以緩解。

Deeplearning4J

地址:https://deeplearning4j.org/

Deeplearning4J(DL4J)是用 Java 和 Scala 編寫的 Apache 2.0 協(xié)議下的開源、分布式神經(jīng)網(wǎng)絡(luò)庫。DL4J 最初由 SkyMind 公司的 Adam Gibson 開發(fā),是唯一集成了 Hadoop 和 Spark 的商業(yè)級深度學(xué)習(xí)網(wǎng)絡(luò),并通過 Hadoop 和 Spark 協(xié)調(diào)多個主機線程。DL4J 使用 Map-Reduce 來訓(xùn)練網(wǎng)絡(luò),同時依賴其它庫來執(zhí)行大型矩陣操作。

DL4J 框架支持任意芯片數(shù)的 GPU 并行運行(對訓(xùn)練過程至關(guān)重要),并支持 YARN(Hadoop 的分布式應(yīng)用程序管理框架)。DL4J 支持多種深度網(wǎng)絡(luò)架構(gòu):RBM、DBN、卷積神經(jīng)網(wǎng)絡(luò)(CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、RNTN 和長短時間記憶網(wǎng)絡(luò)(LTSM)。DL4J 還對矢量化庫 Canova 提供支持。

DL4J 使用 Java 語言實現(xiàn),本質(zhì)上比 Python 快。在用多個 GPU 解決非平凡圖像(non-trivial image)識別任務(wù)時,它的速度與 Caffe 一樣快。該框架在圖像識別、欺詐檢測和自然語言處理方面的表現(xiàn)出眾。

Theano

地址:http://deeplearning.net/software/theano/

Theano 由蒙特利爾大學(xué)算法學(xué)習(xí)人工智能實驗室(MILA)維護。以 Theano 的創(chuàng)始人 Yoshua Bengio 為首,該實驗室是深度學(xué)習(xí)研究領(lǐng)域的重要貢獻者,擁有約 30 至 40 名學(xué)生和教師。Theano 支持快速開發(fā)高效的機器學(xué)習(xí)算法,在 BSD 協(xié)議下發(fā)布。

Theano 的架構(gòu)如同一個黑箱;整個代碼庫和接口使用 Python,其中 C/CUDA 代碼被打包成 Python 字符串。這使得開發(fā)人員很難導(dǎo)航(navigate)、調(diào)試和重構(gòu)。

Theano 開創(chuàng)了將符號圖用于神經(jīng)網(wǎng)絡(luò)編程的趨勢。Theano 的符號式 API 支持循環(huán)控制(即 scan),這使得實現(xiàn) RNN 容易且高效。

Theano 缺乏分布式應(yīng)用程序管理框架,只支持一種編程開發(fā)語言。Theano 是很好的學(xué)術(shù)研究工具,在單個 CPU 上運行的效率比 TensorFlow 更有效。然而,在開發(fā)和支持大型分布式應(yīng)用程序時,使用 Theano 可能會遇到挑戰(zhàn)。

開源 vs. 非開源

隨著深度學(xué)習(xí)的不斷發(fā)展,我們必將看到 TensorFlow、Caffe 2 和 MXNet 之間的不斷競爭。另一方面,軟件供應(yīng)商也會開發(fā)具有先進人工智能功能的產(chǎn)品,從數(shù)據(jù)中獲取最大收益。風險:你將購買非開源的人工智能產(chǎn)品還是使用開源框架?有了開源工具,確定最適合的深度學(xué)習(xí)框架也是兩難問題。在非開源產(chǎn)品中,你是否準備了退出策略?人工智能的收益會隨著工具的學(xué)習(xí)能力的進步而上升,所以看待這些問題都需要用長遠的觀點。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50094

    瀏覽量

    265293
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5598

    瀏覽量

    124396

原文標題:從 TensorFlow 到 PyTorch:九大深度學(xué)習(xí)框架哪款最適合你?

文章出處:【微信號:worldofai,微信公眾號:worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    法拉電容串聯(lián)和并聯(lián)哪個好一點?

    當你考慮給汽車電瓶并聯(lián)法拉電容(超級電容)時,可能會疑惑:串聯(lián)與并聯(lián)哪個更好?這不僅關(guān)乎性能提升,還涉及到安全和成本
    的頭像 發(fā)表于 02-04 09:17 ?198次閱讀
    法拉電容串聯(lián)和并聯(lián)<b class='flag-5'>哪個</b>好一點<b class='flag-5'>呢</b>?

    強化學(xué)習(xí)會讓自動駕駛模型學(xué)習(xí)更快嗎?

    是一種讓機器通過“試錯”學(xué)會決策的辦法。與監(jiān)督學(xué)習(xí)不同,監(jiān)督學(xué)習(xí)是有人提供示范答案,讓模型去模仿;而強化學(xué)習(xí)不會把每一步的“正確答案”都告訴,而是把環(huán)境、動作和結(jié)果連起來,讓機器自己
    的頭像 發(fā)表于 01-31 09:34 ?641次閱讀
    強化<b class='flag-5'>學(xué)習(xí)</b>會讓自動駕駛模型<b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    ESP32和STM32哪個更容易學(xué)?

    很多人會問,ESP32和STM32到底哪個更容易學(xué)?其實這個問題有點像問自行車和汽車哪個更好開——取決于你想去哪兒,以及享受的是過程還是結(jié)果。 ESP32更像是一個為搭好舞臺的智
    的頭像 發(fā)表于 01-15 15:53 ?245次閱讀
    ESP32和STM32<b class='flag-5'>哪個</b>更容易學(xué)?

    機器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個常見錯誤與局限性

    無論是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時間,機器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時刻關(guān)注并銘記的常見錯誤。如果對這些錯誤置之不理,日后可能會引發(fā)諸多麻煩!只要我們密切關(guān)注
    的頭像 發(fā)表于 01-07 15:37 ?185次閱讀
    機器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個常見錯誤與局限性

    這種很像深度學(xué)習(xí)的電路架構(gòu)圖是怎么畫的?

    如圖,這種圖解釋電路的模塊很清晰,請問燒友們在哪可以繪制這樣的模塊電路圖,哪個平臺這種素材比較多
    發(fā)表于 12-12 09:26

    【團購】獨家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實戰(zhàn)課(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動化領(lǐng)域主流開發(fā)環(huán)境,LabVIEW與深度學(xué)習(xí)的集成
    發(fā)表于 12-04 09:28

    【團購】獨家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實戰(zhàn)課程(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動化領(lǐng)域主流開發(fā)環(huán)境,LabVIEW與深度學(xué)習(xí)的集成
    發(fā)表于 12-03 13:50

    如何深度學(xué)習(xí)機器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標準化缺陷模式 非標產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進行智能分類 外觀質(zhì)量評估:基于學(xué)習(xí)的外觀質(zhì)量標準判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?220次閱讀

    覺得哪個軟件寫verilog體驗最好?有什么優(yōu)勢?

    覺得哪個軟件寫verilog體驗最好?有什么優(yōu)勢?請在評論區(qū)留言跟大家分享一下吧。
    發(fā)表于 11-10 07:47

    如何在機器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標檢測可定位已訓(xùn)練的目標類別,并通過矩形框(邊界框)對其進行標識。 在討論人工智能(AI)或深度學(xué)習(xí)時,經(jīng)常會出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標注”等術(shù)語。這些概
    的頭像 發(fā)表于 09-10 17:38 ?900次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡(luò)的層級結(jié)構(gòu),能夠自動從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級能力。以下從技術(shù)賦能、場景突破
    的頭像 發(fā)表于 08-20 14:56 ?1022次閱讀

    自動駕駛中Transformer大模型會取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4184次閱讀
    自動駕駛中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    百度飛槳框架3.0正式版發(fā)布

    大模型訓(xùn)練成本高?推理效率低?硬件適配難? 4月1日,百度發(fā)布 飛槳框架3.0正式版 !五大特性專為大模型設(shè)計。 作為大模型時代的Infra“基礎(chǔ)設(shè)施”,深度學(xué)習(xí)框架的重要性愈發(fā)凸顯,
    的頭像 發(fā)表于 04-02 19:03 ?1187次閱讀
    百度飛槳<b class='flag-5'>框架</b>3.0正式版發(fā)布

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實現(xiàn)機器學(xué)習(xí),網(wǎng)絡(luò)的每個層都將對輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)框架,可以深度理解數(shù)
    的頭像 發(fā)表于 04-02 18:21 ?1516次閱讀

    如何排除深度學(xué)習(xí)工作臺上量化OpenVINO?的特定層?

    無法確定如何排除要在深度學(xué)習(xí)工作臺上量化OpenVINO?特定層
    發(fā)表于 03-06 07:31