91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

SynSense時識科技與中科院自動化所聯(lián)合研究成果榮登國際權(quán)威期刊

SynSense時識科技 ? 來源:SynSense時識科技 ? 2024-05-29 09:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人工智能,作為引領(lǐng)科技革命和產(chǎn)業(yè)變革的核心力量,正推動生成式AI技術(shù)如ChatGPT、Sora等不斷取得新的突破,大模型的應(yīng)用范圍也日漸拓寬。然而,隨著智能算力的飛速提升,能耗問題逐漸凸顯,成為制約算力產(chǎn)品效能的關(guān)鍵瓶頸。傳統(tǒng)計算機在信號與數(shù)據(jù)轉(zhuǎn)換、高精度計算方面的能耗和時間成本不斷攀升,深度學(xué)習(xí)模型的訓(xùn)練成本亦居高不下。

人腦能夠運行非常復(fù)雜且龐大的神經(jīng)網(wǎng)絡(luò),總功耗卻僅為20W,遠小于現(xiàn)有的AI。類腦智能作為一種受腦科學(xué)和神經(jīng)科學(xué)啟發(fā)的創(chuàng)新科技,采用神經(jīng)形態(tài)計算,模擬人腦運作機制,旨在實現(xiàn)信息的高效處理,同時降低能耗、提升算力。與傳統(tǒng)人工智能相比,類腦智能展現(xiàn)了一種全新的計算范式,為科技發(fā)展和產(chǎn)業(yè)變革提供了全新視角和可能性。

人工智能的革新:時識科技與中科院自動化所聯(lián)合研究成果突破

近日,SynSense時識科技與北京中科院自動化所李國齊、徐波課題組合作,提出了一套以超低功耗邊緣端應(yīng)用為導(dǎo)向,能夠?qū)崿F(xiàn)動態(tài)計算算法,軟硬協(xié)同設(shè)計的類腦智能SoC系統(tǒng)Speck,整個系統(tǒng)在典型視覺場景中的實時功耗低至0.7mW。該成果以《Spike-based dynamic computing with asynchronous sensing-computing neuromorphic chip》為題,2024年5月25日成功刊登在國際頂級學(xué)術(shù)期刊《自然》(Nature)的子刊《自然-通訊》(Nature Communications)。

fdb6ba72-1cd9-11ef-b74b-92fbcf53809c.png

圖1.收錄圖

研究充分證明了將人腦中復(fù)雜的高級神經(jīng)機制融入到神經(jīng)形態(tài)計算中所帶來的無限可能。相關(guān)工作得到了國家杰出青年科學(xué)基金、國家自然科學(xué)基金委重點項目、區(qū)域創(chuàng)新聯(lián)合重點項目的支持。這一重大研究成果不僅展現(xiàn)了類腦智能的巨大潛力和廣闊前景,也為未來科技發(fā)展和產(chǎn)業(yè)變革注入了強大動力。

Speck:引領(lǐng)邊緣計算場景的極致創(chuàng)新

本篇文章首次詳細的介紹了時識科技感算一體SoC芯片Speck的設(shè)計細節(jié)(圖2), 硬件資源和異步運算的核心技術(shù)。Speck是一款異步感算一體的類腦智能SoC,采用全異步設(shè)計,在芯片上集成了動態(tài)視覺傳感器(DVS)和類腦智能芯片,具有極低的靜態(tài)功耗(0.42mW)。在視覺感知側(cè),DVS相機以異步方式運行,僅在視覺場景中亮度發(fā)生變化時,產(chǎn)生稀疏的事件流,能夠以微秒級的時間分辨率感知視覺信息。在芯片側(cè),異步神經(jīng)形態(tài)芯片同樣以全異步方式設(shè)計,拋棄了全局時鐘控制信號,避免了時鐘空翻帶來的能耗開銷,僅在有事件輸入時才會觸發(fā)稀疏加法運算。

Speck不僅實現(xiàn)了神經(jīng)形態(tài)計算理論上具有低功耗和低時延優(yōu)勢,同時天然與神經(jīng)形態(tài)動態(tài)計算契合。芯片的功耗主要分為靜息功耗和動態(tài)功耗兩部分。如圖2b/c所示,傳統(tǒng)AI芯片靜態(tài)功耗高,在算法層面進行的能效優(yōu)化對總功耗的降低作用不大。相比之下,Speck具有極低的靜息功耗,算法層面的能效優(yōu)化能切實帶來總功耗的降低。

fee04b98-1cd9-11ef-b74b-92fbcf53809c.png

圖2.Speck設(shè)計細節(jié)

Speck包含多個SNN核心,每個核心都能夠獨立處理事件流,執(zhí)行異步事件驅(qū)動的卷積操作。這種模塊化的設(shè)計使得芯片能夠靈活地處理各種規(guī)模的事件驅(qū)動任務(wù)。由于芯片的異步事件驅(qū)動特性,Speck能夠在接收到單個事件后立即更新系統(tǒng)狀態(tài),從而實現(xiàn)極低的輸出延遲,為邊緣計算場景提供了一個高能效、低延遲和低功耗的類腦智能解決方案。

以應(yīng)用為導(dǎo)向,開啟產(chǎn)業(yè)減排增效新篇章

脈沖神經(jīng)網(wǎng)絡(luò)(SNNs)與傳統(tǒng)的人工神經(jīng)網(wǎng)絡(luò)(ANNs)最大的不同在于信息交換的方式。SNNs中的神經(jīng)元通過脈沖序列(即0代表無信號,1代表有脈沖信號)來進行通信,而ANNs中的神經(jīng)元則使用連續(xù)的數(shù)值來交換信息。這使得SNNs在運算時擁有一個動態(tài)的計算圖,這意味著在任何時刻,只有一小部分神經(jīng)元處于活躍狀態(tài),而其他神經(jīng)元則處于閑置狀態(tài)。相比之下,傳統(tǒng)的計算模式,比如在GPU上運行的ANNs,則是基于靜態(tài)計算圖的。即便ANNs的所有輸入或激活值都是零,網(wǎng)絡(luò)也必須執(zhí)行所有操作。通過將高層次的注意力機制整合到SNNs中,動態(tài)SNNs能夠在顯著降低能耗的同時,提升任務(wù)性能。這項技術(shù)創(chuàng)新點主要適用于希望提升計算效率和節(jié)能的智能設(shè)備和應(yīng)用。

ff05b98c-1cd9-11ef-b74b-92fbcf53809c.png

圖3. 類腦計算和傳統(tǒng)計算對比(從動態(tài)計算的角度)

文章中驗證了動態(tài)平衡注意力機制和異步類腦芯片的結(jié)合可以在手勢識別、明/暗光照下的步態(tài)識別等任務(wù)上取得準確率上、功耗和延時上巨大的提升。通過在類腦芯片Speck上部署SNN,實驗展示了一個實時功耗低至0.70mW的高精度類腦智能系統(tǒng),整個系統(tǒng)處理單個脈沖的超低延遲僅為 3.36 μs。

SynSense時識科技為Speck芯片提供了完整的軟件工具鏈,只需要使用編程框架Sinabs上完成SNN算法設(shè)計與訓(xùn)練,即可在Speck上進行部署。如圖4所示,在屏蔽不重要時間窗口內(nèi)事件流后,輸入為0時,Speck不會觸發(fā)任何計算。為驗證神經(jīng)形態(tài)動態(tài)計算的有效性,該研究在三個公開數(shù)據(jù)集進行了測試。在DVS128 Gesture上,融合了注意力動態(tài)計算的Speck在任務(wù)精度提升9%的同時,平均功耗由9.5mW降低至3.8mW。

00d592b4-1cda-11ef-b74b-92fbcf53809c.png

圖4. 融合了注意力動態(tài)計算的Speck

這項研究揭示了Speck類腦計算感知平臺和人腦的高級抽象功能間的工程映射關(guān)系,通過這種機制能夠?qū)崿F(xiàn)類腦智能在能耗、性能、延遲上的優(yōu)越表現(xiàn)。充分證明了類腦智能在實際應(yīng)用場景中,從高能效、低延遲和高性能等維度,其異步事件驅(qū)動、稀疏性和動態(tài)性等方面的巨大潛力。

類腦智能,人工智能發(fā)展新引擎

AI技術(shù)的飛速發(fā)展讓大型模型在復(fù)雜任務(wù)處理上展現(xiàn)出巨大潛力,但也對計算資源和數(shù)據(jù)傳輸速度的要求也日益增加。類腦智能技術(shù)為這一挑戰(zhàn)提供了有效的解決方案,能夠顯著減少系統(tǒng)延遲及對中心化云服務(wù)的依賴,同時提升能源效率,降低運營成本。

科研成果高效轉(zhuǎn)化是推動基礎(chǔ)研究不斷前進的源動力,如今類腦智能作為創(chuàng)新“密碼”正在為發(fā)展新質(zhì)生產(chǎn)力注入澎湃動能。面對當(dāng)前算力瓶頸和能耗問題,為人工智能的發(fā)展提供了新的方法和視角。隨著技術(shù)的持續(xù)進步,類腦智能將為AI的未來打開更廣闊的應(yīng)用空間,推動智能科技向更深層次、更廣泛領(lǐng)域的發(fā)展??梢云诖诓痪玫膶恚惸X智能以科技撬動萬億規(guī)模的產(chǎn)業(yè)“新藍?!?。

審核編輯:劉清
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50102

    瀏覽量

    265514
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124406
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3651

    瀏覽量

    5191

原文標題:SynSense時識科技與中科院自動化所聯(lián)合研究成果榮登國際權(quán)威期刊Nature子刊,引領(lǐng)類腦智能技術(shù)新紀元

文章出處:【微信號:SynSense時識科技,微信公眾號:SynSense時識科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    大象機器人產(chǎn)品賦能全球尖端科研與教育實踐

    應(yīng)用大象機器人機械臂作為核心研究工具產(chǎn)出的論文,被機器人領(lǐng)域頂級期刊《Science Robotics》(影響因子27.5,JCR/中科院雙1區(qū))收錄并榮登
    的頭像 發(fā)表于 02-11 10:34 ?468次閱讀

    匯誠儀器與中科微電子蘇州研究院合作,熱重分析儀助力科研創(chuàng)新

    近日,南京匯誠儀器儀表有限公司與中科院微電子蘇州產(chǎn)業(yè)技術(shù)研究院正式達成友好合作,研究院成功采購匯誠儀器自主研發(fā)生產(chǎn)的TGA-601S熱重分析儀,用于微電子材料領(lǐng)域的科研檢測與技術(shù)攻關(guān)
    的頭像 發(fā)表于 02-05 16:20 ?926次閱讀
    匯誠儀器與<b class='flag-5'>中科</b>微電子蘇州<b class='flag-5'>研究院</b>合作,熱重分析儀助力科研創(chuàng)新

    科技與江西農(nóng)科成立智慧畜牧類腦計算聯(lián)合實驗室

    繼與寧夏農(nóng)墾集團成功驗證類腦技術(shù)在畜牧場景的落地能力后,時科技(SynSense)與江西省農(nóng)業(yè)科學(xué)院農(nóng)業(yè)經(jīng)濟與信息研究所(簡稱“江西農(nóng)科”)成立“智慧畜牧類腦計算
    的頭像 發(fā)表于 02-04 09:42 ?483次閱讀

    芯盾時代助力中科院蘇州納米所建立零信任安全架構(gòu)

    芯盾時代中標中國科學(xué)院蘇州納米技術(shù)與納米仿生研究所(簡稱:中科院蘇州納米)!芯盾時代基于零信任安全理念,構(gòu)建以“身份”為核心的安全邊界,通過用戶身份與訪問管理平臺(IAM)幫助企業(yè)打破身份數(shù)據(jù)孤島
    的頭像 發(fā)表于 01-28 09:09 ?672次閱讀

    科技聯(lián)合創(chuàng)新成果SpikeRAM芯片入選ISSCC 2026

    近日,香港科技大學(xué)(廣州)程伯俊教授團隊聯(lián)合科技(SynSense)、華北光電技術(shù)研究所完成的突破性研究SpikeRAM芯片,成功入選集
    的頭像 發(fā)表于 12-17 11:39 ?924次閱讀

    科技DAVIS346傳感器助力清華大學(xué)突破LIBS技術(shù)瓶頸

    此開辟激光誘導(dǎo)擊穿光譜(Laser-induced Breakdown Spectroscopy,LIBS)技術(shù)新數(shù)據(jù)維度,系列研究成果榮登分析化學(xué)領(lǐng)域權(quán)威期刊《Journal of
    的頭像 發(fā)表于 11-30 11:42 ?916次閱讀

    奧比中光3D視覺技術(shù)賦能IROS 2025研究成果

    全球機器人領(lǐng)域最具影響力的學(xué)術(shù)會議IROS 2025于10月19日至25日在杭州國際博覽中心舉行。大會收錄的多篇論文的研究成果采用了奧比中光的3D視覺技術(shù),涵蓋自動化掃描、空間建模、人機交互等前沿方向,彰顯了奧比中光在全球機器人
    的頭像 發(fā)表于 10-23 16:29 ?792次閱讀

    國際權(quán)威學(xué)術(shù)刊物刊發(fā)穩(wěn)石氫能與華南理工研究成果,創(chuàng)新螺旋流道設(shè)計提升AEM電解槽性能。

    近日,氫能研究領(lǐng)域國際權(quán)威期刊INTERNATIONAL JOURNAL OF HYDROGEN ENERGY刊發(fā)了穩(wěn)石氫能、華南理工電力學(xué)院與廣東省高效清潔能源利用重點實驗室
    的頭像 發(fā)表于 09-26 16:08 ?611次閱讀
    <b class='flag-5'>國際</b><b class='flag-5'>權(quán)威</b>學(xué)術(shù)刊物刊發(fā)穩(wěn)石氫能與華南理工<b class='flag-5'>研究成果</b>,創(chuàng)新螺旋流道設(shè)計提升AEM電解槽性能。

    科技亮相中科院半導(dǎo)體首屆友產(chǎn)學(xué)研研討會

    近日,時科技(SynSense)創(chuàng)始人兼CEO喬寧博士作為知名友,榮幸受邀回到母校中國科學(xué)院半導(dǎo)體研究所,參與其建所65周年慶典暨首屆
    的頭像 發(fā)表于 09-17 16:40 ?1124次閱讀

    Nullmax端到端自動駕駛最新研究成果入選ICCV 2025

    近日,國際計算機視覺大會 ICCV 2025 正式公布論文錄用結(jié)果,Nullmax 感知團隊在端到端自動駕駛方向的最新研究成果《HiP-AD: Hierarchical
    的頭像 發(fā)表于 07-05 15:40 ?1815次閱讀
    Nullmax端到端<b class='flag-5'>自動</b>駕駛最新<b class='flag-5'>研究成果</b>入選ICCV 2025

    全球首個AI設(shè)計芯片系統(tǒng)誕生,來自中科院

    基礎(chǔ)軟件的全流程自動化設(shè)計,標志著 AI 設(shè)計芯片成為現(xiàn)實,且其設(shè)計在多項關(guān)鍵指標上達到人類專家手工設(shè)計水平。相關(guān)研究成果已發(fā)布于預(yù)印本網(wǎng)站 arXiv。 ? 在 CPU 自動設(shè)計領(lǐng)域,“啟蒙” 系統(tǒng)打造出
    的頭像 發(fā)表于 06-16 00:11 ?3208次閱讀

    NVIDIA在ICRA 2025展示多項最新研究成果

    在亞特蘭大舉行的國際機器人與自動化大會 (ICRA) 上,NVIDIA 展示了其在生成式 AI、仿真和自主操控領(lǐng)域的多項研究成果。
    的頭像 發(fā)表于 06-06 14:56 ?1421次閱讀

    中科曙光助力中科院高能物理研究所打造溪悟大模型

    近年來,以大規(guī)模預(yù)訓(xùn)練模型為代表的人工智能技術(shù)迅猛發(fā)展,為科研創(chuàng)新提供了全新范式。中科院高能物理研究所依托正負電子對撞機等大科學(xué)裝置,積累了海量高價值實驗數(shù)據(jù),如何高效利用數(shù)據(jù)、加速成果產(chǎn)出,成為
    的頭像 發(fā)表于 05-06 15:19 ?883次閱讀

    佛山智能裝備與華數(shù)機器人在具身智能工業(yè)機器人領(lǐng)域的研究成果

    近日,佛山智能裝備技術(shù)研究院(簡稱“佛山智能裝備”)與佛山華數(shù)機器人有限公司(簡稱“華數(shù)機器人”)在具身智能工業(yè)機器人領(lǐng)域的研究成果“Advancing general robotic
    的頭像 發(fā)表于 04-09 15:40 ?1328次閱讀
    佛山智能裝備<b class='flag-5'>院</b>與華數(shù)機器人在具身智能工業(yè)機器人領(lǐng)域的<b class='flag-5'>研究成果</b>

    中科昊芯DSP產(chǎn)品及公司信息

    中科昊芯是一家致力于數(shù)字信號處理器(DSP)研發(fā)的高科技企業(yè),源自中國科學(xué)院的科技成果轉(zhuǎn)化,其創(chuàng)始團隊擁有中科院自動化的深厚背景,自201
    發(fā)表于 04-07 09:16