91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Flex Logix公司稱它解決了深度學(xué)習(xí)的DRAM問題

IEEE電氣電子工程師 ? 來源:未知 ? 作者:李倩 ? 2018-11-08 14:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度學(xué)習(xí)有一個DRAM問題。設(shè)計用來實時處理復(fù)雜任務(wù)(比如,在汽車的備份攝像頭視頻流中分辨貓和孩子)的系統(tǒng),不斷地將構(gòu)成神經(jīng)網(wǎng)絡(luò)內(nèi)容的數(shù)據(jù)從存儲器傳送到處理器。

根據(jù)初創(chuàng)公司Flex Logix的說法,問題并不是缺乏存儲這些數(shù)據(jù)的空間,而是處理器和存儲器之間缺乏帶寬。為了將數(shù)百千兆比特的數(shù)據(jù)提供給處理器,有些系統(tǒng)需要4個甚至8個DRAM芯片,這既使占用的空間增加了不少,又消耗了大量的電能。Flex Logix表示,它為可重構(gòu)芯片開發(fā)的互連技術(shù)和tile-based架構(gòu)將使AI系統(tǒng)只需要1個DRAM芯片的帶寬,且功耗僅為十分之一。

圖片來源:Flex Logix

NMAX512tile的架構(gòu)。

位于加州山景城的Flex Logix公司已經(jīng)開始將一種新的嵌入式現(xiàn)場可編程門陣列(eFPGA)架構(gòu)商業(yè)化。但經(jīng)過一番探索后,其創(chuàng)始人之一Cheng C. Wang意識到,這項技術(shù)可以加快神經(jīng)網(wǎng)絡(luò)的速度。

神經(jīng)網(wǎng)絡(luò)由連接和表示連接強(qiáng)度的“權(quán)重”組成。另一位創(chuàng)始人Geoff Tate解釋說,一個好的AI芯片需要兩樣?xùn)|西。一種是一些做關(guān)鍵“推斷”計算(即乘法和累加)的電路。“但更困難的是,你必須非常擅長引入所有這些權(quán)重,以便其乘法器總能得到它們需要的數(shù)據(jù),從而進(jìn)行所需的數(shù)學(xué)運算。Wang意識到我們在FPGA的互連方面所擁有的技術(shù),他可以對它做適應(yīng)性改造,來創(chuàng)建一種非常擅長快速高效地加載權(quán)重、高性能和低功耗的架構(gòu)?!?/p>

需要快速連續(xù)地將數(shù)百萬個權(quán)重加載到網(wǎng)絡(luò)中,這就是每秒要做數(shù)萬億次到數(shù)十萬億次運算的AI系統(tǒng)為什么需要那么多DRAM芯片的原因。DRAM芯片上的每個引腳每秒最多可以傳輸4Gb數(shù)據(jù),因此要達(dá)到所需的每秒數(shù)百Gb的數(shù)據(jù)傳輸速度,就需要多個芯片。

在為FPGA開發(fā)最初的技術(shù)時,Wang注意到,這些芯片有約80%的面積互連,因此他尋求一種能夠縮小互連面積并考慮到更多邏輯的架構(gòu)。他和他在加州大學(xué)洛杉磯分校的同事對一種稱為folded-Bene?網(wǎng)絡(luò)的電信架構(gòu)做了適應(yīng)性改造來完成這項工作。這使得FPGA架構(gòu)看起來像一堆邏輯和SRAM的瓦片(tile)。

圖片來源:Flex Logix

Flex Logix公司表示,在芯片中構(gòu)建分布式SRAM可加快計算速度并降低功耗。

Tate說,在這種專用互連方案中使用分布式SRAM最終會對深度學(xué)習(xí)的DRAM帶寬問題產(chǎn)生重大影響?!拔覀冋谟眯酒系腟RAM取代DRAM帶寬?!?/p>

圖片來源:Flex Logix

若干NMAXtile可以置于一個芯片上并連在一起,以擴(kuò)大計算能力。

用于Flex Logix的AI產(chǎn)品的tile稱為NMAX,采用了臺積電的16納米技術(shù),面積不到2平方毫米。每個tile都由一組核心組成,這些核心這些核心負(fù)責(zé)關(guān)鍵的乘法和累加計算、控制數(shù)據(jù)的處理和流動的可編程邏輯以及SRAM。這涉及三種不同類型的互連技術(shù)。一種tile上的所有零件連接在一起。另一種將tile與位于tile之間的附加SRAM及外部的DRAM相連接。第三種將相鄰的tile連接在一起。

在深度學(xué)習(xí)領(lǐng)域,很難進(jìn)行真正的橫向比較。但Flex Logix的分析顯示,將使用1個DRAM芯片的模擬的6×6tile的NMAX512陣列與使用8個DRAM的Nvidia Tesla T4進(jìn)行比較,結(jié)果是新架構(gòu)每秒能識別4,600張圖像,而Nvidia每秒識別3,920張圖像。在一項名為YOLOv3的實時視頻處理測試中,同樣大小的NMAX陣列可達(dá)到每秒22萬億次運算,而使用的DRAM帶寬是其他系統(tǒng)的十分之一。

Tate表示,首批NMAX芯片的設(shè)計將于2019年下半年送至代工廠以便進(jìn)行制造。

Flex Logix將波音公司視作其高吞吐量嵌入式FPGA產(chǎn)品的客戶之一。但Tate承認(rèn),與神經(jīng)網(wǎng)絡(luò)相比,嵌入式FPGA是個很難賣的產(chǎn)品。“嵌入式FPGA是一項很好的業(yè)務(wù),但是推理可能很快就會超越它?!盩ate說。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • DRAM
    +關(guān)注

    關(guān)注

    41

    文章

    2394

    瀏覽量

    189180
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107835
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124406

原文標(biāo)題:Flex Logix公司稱它解決了深度學(xué)習(xí)的DRAM問題

文章出處:【微信號:IEEE_China,微信公眾號:IEEE電氣電子工程師】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Debian flex-installer 無法下載引導(dǎo)映像怎么解決?

    ,flex-installer 似乎不處理重定向,而是失敗。 Can someone from NXP 請?zhí)峁┲苯酉螺d這些文件以及瀏覽目錄以查看哪些文件實際上可供下載的能力,關(guān)于 Debian 安裝過程以及任何其他固件內(nèi)容
    發(fā)表于 03-03 08:15

    人工智能與機(jī)器學(xué)習(xí)在這些行業(yè)的深度應(yīng)用

    自人工智能和機(jī)器學(xué)習(xí)問世以來,多個在線領(lǐng)域的數(shù)字化格局迎來了翻天覆地的變化。這些技術(shù)從誕生之初就為企業(yè)賦予競爭優(yōu)勢,而在線行業(yè)正是受其影響最為顯著的領(lǐng)域。人工智能(AI)與機(jī)器學(xué)習(xí)(ML)的
    的頭像 發(fā)表于 02-04 14:44 ?499次閱讀

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個常見錯誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時刻關(guān)注并銘記的常見錯誤。如果對這些錯誤置之不理,日后可能會引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?204次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個常見錯誤與局限性

    創(chuàng)新的高帶寬DRAM解決方案

    AI(人工智能)極大地增加了物聯(lián)網(wǎng)邊緣的需求。為了滿足這種需求,Etron公司推出了世界上第一款扇入式晶圓級封裝的DRAM——RPC DRAM?支持高帶寬和更小的尺寸。憑借RPC DRAM
    的頭像 發(fā)表于 01-05 14:29 ?194次閱讀

    穿孔機(jī)頂頭檢測儀 機(jī)器視覺深度學(xué)習(xí)

    穿孔機(jī)頂頭檢測儀采用深度學(xué)習(xí)技術(shù),通過不斷的學(xué)習(xí)功能,越用越準(zhǔn)確,為高質(zhì)量生產(chǎn)保駕護(hù)航。 網(wǎng)站名稱:保定市藍(lán)鵬測控科技有限公司 可根據(jù)客戶需求提供解決方案,定制產(chǎn)品。 QQ咨詢:208
    發(fā)表于 12-22 14:33

    Flex Power Modules將產(chǎn)品制造擴(kuò)展至歐洲

    Flex Power Modules已將其產(chǎn)品制造擴(kuò)展到歐洲,在奧地利阿爾特霍芬的Flex工廠設(shè)立新的生產(chǎn)基地。此舉將提高Flex Power Modules的電源模塊產(chǎn)能,助力其更快速、更高效地響應(yīng)AI數(shù)據(jù)中心客戶快速增長的需
    的頭像 發(fā)表于 12-16 13:51 ?633次閱讀

    如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?228次閱讀

    DRAM和SRAM、SDRAM相比有什么特點?

    DRAM利用電容存儲數(shù)據(jù),由于電容存在漏電現(xiàn)象,必須通過周期性刷新來維持?jǐn)?shù)據(jù)。此外,DRAM采用行列地址復(fù)用設(shè)計,提高了存儲密度,但增加了控制復(fù)雜性。廣泛用于大容量、低成本存儲場景,如計算機(jī)內(nèi)存。
    的頭像 發(fā)表于 11-18 11:49 ?730次閱讀

    PSRAM融合SRAM與DRAM優(yōu)勢的存儲解決方案

    PSRAM(偽靜態(tài)隨機(jī)存儲器)是一種兼具SRAM接口協(xié)議與DRAM內(nèi)核架構(gòu)的特殊存儲器。既保留了SRAM無需復(fù)雜刷新控制的易用特性,又繼承DRAM的高密度低成本優(yōu)勢。這種獨特的設(shè)計
    的頭像 發(fā)表于 11-11 11:39 ?751次閱讀

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    人士而言往往難以理解,人們也常常誤以為需要扎實的編程技能才能真正掌握并合理使用這項技術(shù)。事實上,這種印象忽視該技術(shù)為機(jī)器視覺(乃至生產(chǎn)自動化)帶來的潛力,因為深度學(xué)習(xí)并非只屬于計算機(jī)科學(xué)家或程序員。 從頭開始:什么
    的頭像 發(fā)表于 09-10 17:38 ?910次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡(luò)的層級結(jié)構(gòu),能夠自動從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供從數(shù)據(jù)感知到智能決策的全鏈路升級能力。以下從技術(shù)賦能、場景突破
    的頭像 發(fā)表于 08-20 14:56 ?1036次閱讀

    自動駕駛中Transformer大模型會取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4189次閱讀
    自動駕駛中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個層都將對輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以深度理解數(shù)據(jù)中所要表示的規(guī)律。從原理上看,使用
    的頭像 發(fā)表于 04-02 18:21 ?1524次閱讀

    如何使用flex-builder構(gòu)建aruco庫?

    我正在嘗試構(gòu)建 libopencv-aruco,通常附帶新版本的 OpenCV。當(dāng)我運行 bld -c opencv 時,我沒有看到正在構(gòu)建此庫。 誰能提供一些關(guān)于如何使用 flex-builder 構(gòu)建 aruco 庫的指導(dǎo)?
    發(fā)表于 03-31 06:13

    用樹莓派搞深度學(xué)習(xí)?TensorFlow啟動!

    介紹本頁面將指導(dǎo)您在搭載64位Bullseye操作系統(tǒng)的RaspberryPi4上安裝TensorFlow。TensorFlow是一個專為深度學(xué)習(xí)開發(fā)的大型軟件庫,消耗大量資源。您可以在
    的頭像 發(fā)表于 03-25 09:33 ?1214次閱讀
    用樹莓派搞<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>?TensorFlow啟動!