91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

TensorFlow:面向公眾的機(jī)器學(xué)習(xí)庫(kù)

DPVg_AI_era ? 來(lái)源:未知 ? 作者:李倩 ? 2018-11-12 10:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

TensorFlow今天3歲了。2015年的11月9日,谷歌開源TensorFlow,迅速成為最受歡迎的機(jī)器學(xué)習(xí)開源框架,構(gòu)建起龐大的開發(fā)者生態(tài)。一路走來(lái),TensorFlow收獲眾多輝煌,也有批評(píng),遭遇強(qiáng)手勁敵,目前仍舊穩(wěn)居處于開源框架王者之位。TensorFlow 2.0也已在研發(fā)中。謹(jǐn)以本文祝TensorFlow生日快樂,為TensorFlow發(fā)展做出貢獻(xiàn)的開發(fā)者也辛苦了!

TensorFlow今天3歲了!

作為全球最受歡迎的機(jī)器學(xué)習(xí)開源框架,TensorFlow 發(fā)展的3年見證了機(jī)器學(xué)習(xí)和人工智能領(lǐng)域的快速發(fā)展和變化,與人類的孩子一樣,不斷學(xué)習(xí),遭到批評(píng),遇到對(duì)手,走向更大跟廣闊的環(huán)境。

接下來(lái),新智元帶你簡(jiǎn)單回顧過(guò)去3年TensorFlow 的發(fā)展,以及關(guān)于TensorFlow的一些你或許不知道的小知識(shí)。

TensorFlow:面向公眾的機(jī)器學(xué)習(xí)庫(kù)

TensorFlow其實(shí)是谷歌自豪的研究級(jí)機(jī)器學(xué)習(xí)基礎(chǔ)設(shè)施、第一代專有機(jī)器學(xué)習(xí)系統(tǒng)DistBelief 的繼承者,該系統(tǒng)負(fù)責(zé)DeepDream這一成就。

DeepDream生成的威廉王子一家畫像

2009年,Hinton領(lǐng)導(dǎo)的研究小組大大減少使用DistBelief的神經(jīng)網(wǎng)絡(luò)的錯(cuò)誤數(shù)量,通過(guò)Hinton在廣義反向傳播的科學(xué)突破。最值得注意的是,Hinton的突破直接使Google語(yǔ)音識(shí)別軟件中的錯(cuò)誤減少至少25%。

而后,谷歌指派計(jì)算機(jī)科學(xué)家,如Geoffrey Hinton和Jeff Dean,簡(jiǎn)化和重構(gòu)DistBelief的代碼庫(kù),使其變成一個(gè)更快、更健壯的應(yīng)用級(jí)別代碼庫(kù),形成了TensorFlow。

TensorFlow的計(jì)算使用有狀態(tài)的數(shù)據(jù)流圖表示。TensorFlow的名字來(lái)源于神經(jīng)網(wǎng)絡(luò)對(duì)多維數(shù)組執(zhí)行的操作,這些多維數(shù)組被稱為張量。

通過(guò)將TensorFlow的代碼開源,谷歌為世界各地的公司和計(jì)算機(jī)科學(xué)家打開了在自己的產(chǎn)品和研究中實(shí)施尖端機(jī)器學(xué)習(xí)算法的大門。

初期爆發(fā)式發(fā)展被批壟斷生態(tài),用戶說(shuō)放下TensorFlow立地成佛?

雖然在短時(shí)間內(nèi)迅速成長(zhǎng)為Github最受歡迎的深度學(xué)習(xí)開源項(xiàng)目,并在全球范圍內(nèi)建立起了廣泛的開發(fā)者社區(qū),但一路走來(lái),TensorFlow 也并非沒有遭遇批評(píng)和對(duì)手。

2016年6月,Jeff Dean稱在GitHub有1500個(gè)庫(kù)提到了TensorFlow,其中只有5個(gè)來(lái)自谷歌。截止2017年3月,TensorFlow 得到14000+次commit,超過(guò)5500標(biāo)題中出現(xiàn)過(guò)TensorFlow的Github project以及在Stack Overflow上有包括5000+個(gè)已被回答的問題,平均每周80+的issue提交。

初期爆發(fā)式的發(fā)展形成一家獨(dú)大的態(tài)勢(shì),引起了業(yè)內(nèi)人士對(duì)TensorFlow 所構(gòu)成的潛在生態(tài)危害的擔(dān)憂,這種趨勢(shì)在2016年開始出現(xiàn),比如地平線創(chuàng)始人余凱博士曾在微信朋友圈呼吁:

算是一個(gè)鄭重的聲明吧:一直以來(lái)我非常欽佩谷歌的Jeff Dean在MapReduce和谷歌大腦(TensorFlow)等項(xiàng)目上的杰出成就。但是,我必須指出,放任TensorFlow成為世界上占統(tǒng)治地位的人工智能開發(fā)平臺(tái)對(duì)世界是危險(xiǎn)的。盡管這個(gè)平臺(tái)目前是開源的,但是隨著時(shí)間的推移,人工智能變得越來(lái)越強(qiáng)大,這個(gè)系統(tǒng)會(huì)變得極端復(fù)雜到失去透明性,而且會(huì)很可怕的變成全世界數(shù)據(jù),計(jì)算,硬件,編譯器等的標(biāo)準(zhǔn)制定者。這樣會(huì)導(dǎo)致一個(gè)不健康的生態(tài),阻礙年輕人掌握技術(shù)的自由,讓個(gè)人,公司甚至國(guó)家在人工智能領(lǐng)域的自主發(fā)展,最終被一家商業(yè)公司所控制。這不是危言聳聽??上КF(xiàn)在絕大部分人都還意識(shí)不到這點(diǎn)。尤其是在中國(guó)。我呼吁大家都來(lái)使用Caffe,Mxnet等更加開放中興的開源系統(tǒng),避免使用TensorFlow

后來(lái),隨著 PyTorch、MXNet、PaddlePaddle 等新框架的出現(xiàn),開發(fā)者有了更多選擇,生態(tài)進(jìn)入良性競(jìng)爭(zhēng)狀態(tài)后,這樣的擔(dān)憂也開始褪去。

其次是TensorFlow 本身使用性的問題。零星的“不好用”、“用不好”等抱怨之火,在2017 年下半年爆發(fā),引爆點(diǎn)是一篇題為 “TensorFlow Sucks”的博文,作者NicolasD.Jimenez 在肯定 TensorFlow 優(yōu)點(diǎn)的同時(shí),指出人們對(duì) TensorFlow 有一種盲目崇拜,TensorFlow 缺乏靈活性,在設(shè)計(jì)思想和使用上不便于快速原型部署,而且相關(guān)的庫(kù)太過(guò)高級(jí)無(wú)法輕松使用。

Quora 上開始出現(xiàn)“放棄使用 TensorFlow”的聲音。在差不多的時(shí)間里,中國(guó)問答網(wǎng)站知乎上也出現(xiàn)了提問“TensorFlow 有哪些令人難以接受的地方?” 引發(fā)了眾多的關(guān)注和討論。正如問題描述中所說(shuō),“沒有工具是完美的,TensorFlow 亦然,現(xiàn)在是時(shí)候來(lái)吐槽一下了”。

針對(duì)開發(fā)者提出的主要問題,谷歌后來(lái)都做了改進(jìn),比如推出動(dòng)態(tài)圖模型,能夠保存和重用模型。

勁敵 PyTorch 出現(xiàn)

雖有 CNTK、Theano、MXNet、PaddlePaddle,如果說(shuō) TensorFlow 最強(qiáng)的對(duì)手,莫過(guò)于2017年 3月 Facebook 開源的 PyTorch,以靈活輕便等優(yōu)勢(shì)迅速贏得了一大批開發(fā)者,其中不乏從 TensorFlow 社區(qū)轉(zhuǎn)來(lái)的人。

今年5月,PyTorch 1.0 正式公開,新框架將 PyTorch 0.4與Caffe2合并,整合ONNX格式,讓開發(fā)者可以無(wú)縫地將AI模型從研究轉(zhuǎn)到生產(chǎn);今年 10月,F(xiàn)acebook召開了首屆 PyTorch開發(fā)者大會(huì),其社區(qū)發(fā)展大有超越TensorFlow 之勢(shì)。

根據(jù) Reddit上一位博主貼出的統(tǒng)計(jì),2018年至2019年,ICRL論文中所涉及到的主流框架工具TensorFlow、PyTorch和Keras的搜索結(jié)果數(shù),僅在一年時(shí)間內(nèi),PyTorch數(shù)據(jù)增長(zhǎng)近3倍:

TensorFlow:228→266

Keras:42→56

PyTorch:87→252

更早一些,今年3月,手握 ArXiv Sanity 大數(shù)據(jù)、現(xiàn)在主管特斯拉人工智能部門的 Andrej Karpathy,也給出了精確的排名結(jié)果(過(guò)去一個(gè)月內(nèi))。

各個(gè)框架在論文中被提到(單次計(jì)算)的比例分別是:

TensorFlow 14.3%

PyTorch 4.7%

Keras 4.0%

Caffe 3.8%

Theano 2.3%

Torch 1.5%

MXNet、Chainer 和 CNTK 均小于 1%:

TensorFlow 2.0 要來(lái)了!

雖有種種問題,但TensorFlow 在機(jī)器學(xué)習(xí)開源框架中的王者地位是毋庸置疑的。

今年8 月,TensorFlow 2.0 預(yù)覽版即將發(fā)布的消息傳出,TensorFlow 開發(fā)者團(tuán)隊(duì)表示,為了適應(yīng)計(jì)算硬件、機(jī)器學(xué)習(xí)研究和商業(yè)部署這三年的快速發(fā)展,更好地滿足廣大用戶的需求,TensorFlow 2.0 已在研究之中。

用戶對(duì)TensorFlow 2.0的期望包括:

Eager execution應(yīng)當(dāng)是2.0的核心功能。它將用戶對(duì)編程模型的期望與TensorFlow更好地結(jié)合起來(lái),并且應(yīng)該使TensorFlow更易于學(xué)習(xí)和應(yīng)用。

通過(guò)交換格式的標(biāo)準(zhǔn)化和API的一致性,支持更多平臺(tái)和語(yǔ)言,并改善這些組件之間的兼容性和奇偶性。

將刪除已棄用的API并減少重復(fù)數(shù)量,否則會(huì)給用戶造成混淆。

TensorFlow 三年發(fā)展里程碑

TensorFlow是谷歌大腦的第二代機(jī)器學(xué)習(xí)系統(tǒng)。

從0.8.0版本(發(fā)布于2016年4月)開始本地的支持分布式運(yùn)行。

從0.9.0版本(發(fā)布于2016年6月)開始支持iOS

從0.12.0版本(發(fā)布于2016年12月)開始支持Windows系統(tǒng)。該移植代碼主要由微軟貢獻(xiàn)。

1.0.0版本發(fā)布于2017年2月11日。雖然參考實(shí)現(xiàn)運(yùn)行在單臺(tái)設(shè)備,TensorFlow可以運(yùn)行在多個(gè)CPUGPU(和可選的CUDA擴(kuò)展和圖形處理器通用計(jì)算的SYCL擴(kuò)展)。

2015年11月9日

宣布TensorFlow開源,根據(jù) Apache 2.0 許可并以開放源代碼軟件包的形式發(fā)布了 TensorFlow API 和一個(gè)參考實(shí)現(xiàn)。

2015年12月

發(fā)布v0.6,支持GPU,Python 3.3

2016年4月

發(fā)布v0.8,分布式TensorFlow

2016年11月

發(fā)布v0.11,支持Windows

2017年2月

在首屆TensorFlow開發(fā)者峰會(huì)上,正式發(fā)布TensorFlow 1.0。v1.0的性能得到改進(jìn),API變得穩(wěn)定。TensorFlow1.0主要改進(jìn)了機(jī)器學(xué)習(xí)功能,發(fā)布了XLA的實(shí)驗(yàn)版本,對(duì)Python和Java用戶開放,提升了debugging,并且加入和改進(jìn)了一些高級(jí)API,其中包括Keras。

2017年4月

發(fā)布v1.1,增加針對(duì)tf.keras的特性

2017年8月

發(fā)布v1.3,增加高級(jí)API,canned estimators,更多模型,原始TPU支持

2017年11月

發(fā)布v1.5,增加動(dòng)態(tài)圖機(jī)制Eager Execution 和用于移動(dòng)端的輕量級(jí)TensorFlow Lite版本

2018年3月

發(fā)布TF Hub, TensorFlow.js, 和TensorFlow Extended (TFX)

2018年5月

發(fā)布v1.6,增加支持Cloud TPU,模型和pipeline

2018年6月

發(fā)布v1.8,Distribution Strategy API, TensorFlow Probability

2018年8月

發(fā)布v1.10,整合Cloud Bigtable

2018年10月

發(fā)布v1.12,大量API改進(jìn),包括改進(jìn)XLA穩(wěn)定性和性能,改進(jìn)Keras模型支持

2019年

即將發(fā)布TensorFlow 2.0

結(jié)語(yǔ)

支持深度學(xué)習(xí)和機(jī)器學(xué)習(xí)研究的軟件生態(tài)系統(tǒng)一直在快速發(fā)展,開源軟件已經(jīng)是常態(tài);有各種各樣的框架可用,滿足從探索新想法到將它們部署到生產(chǎn)中的需求;而大型企業(yè)在激烈競(jìng)爭(zhēng)中支持不同的軟件棧。

在眾多新工具涌現(xiàn)的同時(shí),也有功成名退的老將,比如Theano,但這些年來(lái) Theano 開發(fā)者團(tuán)隊(duì)所提出的大多數(shù)創(chuàng)新,現(xiàn)在已經(jīng)被其他框架采用和完善。例如,將模型表達(dá)為數(shù)學(xué)表達(dá)式,重寫計(jì)算圖以獲得更好的性能和內(nèi)存使用,GPU上的透明執(zhí)行,更高階的自動(dòng)微分等,都成為了主流想法。

微軟和 Facebook 發(fā)起了開源人工智能項(xiàng)目ONNX(Open Neural Network Exchange),不久后亞馬遜AWS 也宣布加入并推出ONNX-MXNet 開源Python 軟件包。除了亞馬遜,AMD、ARM、華為、IBM、英特爾、高通都宣布將支持ONNX,形成強(qiáng)大的深度學(xué)習(xí)開源聯(lián)盟。

有人說(shuō)控制了開源工具,就控制了整個(gè)生態(tài);但同時(shí),這些巨頭也在去中心化,打通全球數(shù)據(jù)連接。開放生態(tài)系統(tǒng)的基礎(chǔ),使 AI 更容易獲取并富有價(jià)值。開發(fā)人員可以為其任務(wù)選擇合適的框架,框架作者可以專注于創(chuàng)新,硬件供應(yīng)商可以簡(jiǎn)化優(yōu)化流程。

感謝所有幫助開發(fā)這些工具,并通過(guò)貢獻(xiàn)bug報(bào)告、配置文件、用例、文檔和支持來(lái)改進(jìn)它們的人。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50115

    瀏覽量

    265569
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8554

    瀏覽量

    136996
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    334

    瀏覽量

    62202

原文標(biāo)題:TensorFlow三歲了!

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    強(qiáng)化學(xué)習(xí)會(huì)讓自動(dòng)駕駛模型學(xué)習(xí)更快嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在談及自動(dòng)駕駛大模型訓(xùn)練時(shí),有的技術(shù)方案會(huì)采用模仿學(xué)習(xí),而有些會(huì)采用強(qiáng)化學(xué)習(xí)。同樣作為大模型的訓(xùn)練方式,強(qiáng)化學(xué)習(xí)有何不同?又有什么特點(diǎn)呢? 什么是強(qiáng)化
    的頭像 發(fā)表于 01-31 09:34 ?660次閱讀
    強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>會(huì)讓自動(dòng)駕駛模型<b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?211次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    如何在TensorFlow Lite Micro中添加自定義操作符(1)

    相信大家在部署嵌入式端的AI應(yīng)用時(shí),一定使用過(guò)TensorFlow Lite Micro,以下簡(jiǎn)稱TFLm。TFLm 是專為微控制器和嵌入式設(shè)備設(shè)計(jì)的輕量級(jí)機(jī)器學(xué)習(xí)推理框架,它通過(guò)模塊化的操作符系統(tǒng)
    的頭像 發(fā)表于 12-26 10:34 ?5366次閱讀

    NVIDIA Jetson系列開發(fā)者套件助力打造面向未來(lái)的智能機(jī)器

    NVIDIA Jetson AGX Thor、AGX Orin 以及 Jetson Orin Nano Super 開發(fā)者套件,助力打造面向未來(lái)的智能機(jī)器人。
    的頭像 發(fā)表于 12-13 10:20 ?3084次閱讀

    【上海晶珩睿莓1開發(fā)板試用體驗(yàn)】TensorFlow-Lite物體歸類(classify)

    目前尚未得知睿莓1開發(fā)板上面有NPU或者DPU之類的額外處理器,因此使用樹莓派系列使用最廣泛的TensorFlow-Lite庫(kù)進(jìn)行物體歸類,使用CPU運(yùn)行代碼,因此占用的是CPU的算力。在
    發(fā)表于 09-12 22:43

    超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級(jí)芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    Neuton 是一家邊緣AI 公司,致力于讓機(jī)器 學(xué)習(xí)模型更易于使用。它創(chuàng)建的模型比競(jìng)爭(zhēng)對(duì)手的框架小10 倍,速度也快10 倍,甚至可以在最先進(jìn)的邊緣設(shè)備上進(jìn)行人工智能處理。在這篇博文中,我們將介紹
    發(fā)表于 07-31 11:38

    FPGA在機(jī)器學(xué)習(xí)中的具體應(yīng)用

    隨著機(jī)器學(xué)習(xí)和人工智能技術(shù)的迅猛發(fā)展,傳統(tǒng)的中央處理單元(CPU)和圖形處理單元(GPU)已經(jīng)無(wú)法滿足高效處理大規(guī)模數(shù)據(jù)和復(fù)雜模型的需求。FPGA(現(xiàn)場(chǎng)可編程門陣列)作為一種靈活且高效的硬件加速平臺(tái)
    的頭像 發(fā)表于 07-16 15:34 ?2908次閱讀

    無(wú)法將Tensorflow Lite模型轉(zhuǎn)換為OpenVINO?格式怎么處理?

    Tensorflow Lite 模型轉(zhuǎn)換為 OpenVINO? 格式。 遇到的錯(cuò)誤: FrontEnd API failed with OpConversionFailure:No translator found for TFLite_Detection_PostProcess node.
    發(fā)表于 06-25 08:27

    明晚開播 |數(shù)據(jù)智能系列講座第7期:面向高泛化能力的視覺感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)

    鷺島論壇數(shù)據(jù)智能系列講座第7期「面向高泛化能力的視覺感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)」明晚8點(diǎn)精彩開播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報(bào)告題目面向高泛化能力的視覺感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)
    的頭像 發(fā)表于 06-24 08:01 ?1084次閱讀
    明晚開播 |數(shù)據(jù)智能系列講座第7期:<b class='flag-5'>面向</b>高泛化能力的視覺感知系統(tǒng)空間建模與微調(diào)<b class='flag-5'>學(xué)習(xí)</b>

    直播預(yù)約 |數(shù)據(jù)智能系列講座第7期:面向高泛化能力的視覺感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)

    鷺島論壇數(shù)據(jù)智能系列講座第7期「面向高泛化能力的視覺感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)」6月25日(周三)20:00精彩開播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報(bào)告題目面向高泛化能力的視覺感知系統(tǒng)空間
    的頭像 發(fā)表于 05-29 10:04 ?642次閱讀
    直播預(yù)約 |數(shù)據(jù)智能系列講座第7期:<b class='flag-5'>面向</b>高泛化能力的視覺感知系統(tǒng)空間建模與微調(diào)<b class='flag-5'>學(xué)習(xí)</b>

    大象機(jī)器人攜手進(jìn)迭時(shí)空推出 RISC-V 全棧開源六軸機(jī)械臂產(chǎn)品

    機(jī)器人場(chǎng)景的量產(chǎn)應(yīng)用。更多的面向智能機(jī)器人的RISC-V AI軟硬件技術(shù)創(chuàng)新以及應(yīng)用案例,將陸續(xù)在公司微信公眾號(hào)做介紹,敬請(qǐng)大家期待。
    發(fā)表于 04-25 17:59

    NanoEdge AI Studio 面向STM32開發(fā)人員機(jī)器學(xué)習(xí)(ML)技術(shù)

    NanoEdge? AI Studio*(NanoEdgeAIStudio)是一種新型機(jī)器學(xué)習(xí)(ML)技術(shù),可以讓終端用戶輕松享有真正的創(chuàng)新成果。只需幾步,開發(fā)人員便可基于最少量的數(shù)據(jù)為其項(xiàng)目創(chuàng)建
    的頭像 發(fā)表于 04-22 11:09 ?1358次閱讀
    NanoEdge AI Studio <b class='flag-5'>面向</b>STM32開發(fā)人員<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>(ML)技術(shù)

    面向AI與機(jī)器學(xué)習(xí)應(yīng)用的開發(fā)平臺(tái) AMD/Xilinx Versal? AI Edge VEK280

    AMD/Xilinx Versal? AI Edge VEK280評(píng)估套件是一款面向AI與機(jī)器學(xué)習(xí)應(yīng)用的開發(fā)平臺(tái),專為邊緣計(jì)算場(chǎng)景優(yōu)化設(shè)計(jì)。以下從核心配置、技術(shù)特性、應(yīng)用場(chǎng)景及開發(fā)支持等方面進(jìn)行詳細(xì)
    的頭像 發(fā)表于 04-11 18:33 ?2478次閱讀
    <b class='flag-5'>面向</b>AI與<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>應(yīng)用的開發(fā)平臺(tái) AMD/Xilinx Versal? AI Edge VEK280

    **【技術(shù)干貨】Nordic nRF54系列芯片:傳感器數(shù)據(jù)采集與AI機(jī)器學(xué)習(xí)的完美結(jié)合**

    機(jī)器學(xué)習(xí)算法,解決傳感器數(shù)據(jù)采集難題! 1. nRF54系列支持OTA嗎? 答:支持!nRF54L系列基于Zephyr的MCUBOOT和SMP DFU庫(kù),支持BLE和UART等多種OTA方式
    發(fā)表于 04-01 00:00

    用樹莓派搞深度學(xué)習(xí)?TensorFlow啟動(dòng)!

    介紹本頁(yè)面將指導(dǎo)您在搭載64位Bullseye操作系統(tǒng)的RaspberryPi4上安裝TensorFlowTensorFlow是一個(gè)專為深度學(xué)習(xí)開發(fā)的大型軟件庫(kù),它消耗大量資源。您可
    的頭像 發(fā)表于 03-25 09:33 ?1217次閱讀
    用樹莓派搞深度<b class='flag-5'>學(xué)習(xí)</b>?<b class='flag-5'>TensorFlow</b>啟動(dòng)!