91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌開源張量網(wǎng)絡(luò)庫TensorNetwork,GPU處理提升100倍!

WpOh_rgznai100 ? 來源:yxw ? 2019-06-06 13:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

世界上許多最嚴(yán)峻的科學(xué)挑戰(zhàn),如開發(fā)高溫超導(dǎo)體和理解時(shí)空的本質(zhì),都涉及處理量子系統(tǒng)的復(fù)雜性。然而,這些系統(tǒng)中量子態(tài)的數(shù)量程指數(shù)級(jí)增長,使得暴力計(jì)算并不可行。為了解決該問題,數(shù)據(jù)結(jié)構(gòu)采用了張量網(wǎng)絡(luò)的方式。張量網(wǎng)絡(luò)讓人們關(guān)注與現(xiàn)實(shí)世界問題最相關(guān)的量子態(tài),如低能態(tài)。張量網(wǎng)絡(luò)已經(jīng)越來越多地在機(jī)器學(xué)習(xí)中得到應(yīng)用。

然而,目前仍存在相當(dāng)多的一些挑戰(zhàn)阻礙了其在機(jī)器學(xué)習(xí)社區(qū)中的廣泛使用:1)用于加速硬件的生產(chǎn)級(jí)張量網(wǎng)絡(luò)庫還不能用于大規(guī)模運(yùn)行張量網(wǎng)絡(luò)算法;2)大多數(shù)張量網(wǎng)絡(luò)文獻(xiàn)是面向物理應(yīng)用的,并產(chǎn)生了一種錯(cuò)誤的印象,即需要量子力學(xué)方面的專業(yè)知識(shí)來理解算法。

為了解決這一問題,谷歌 X 實(shí)驗(yàn)室與加拿大Perimeter理論物理研究所(Perimeter Institute for Theoretical Physics )的研究人員合作開發(fā)了張量網(wǎng)絡(luò) TensorNetwork,以 TensorFlow 作為后端,針對(duì) GPU 處理進(jìn)行了優(yōu)化。與在 CPU 上計(jì)算工作相比,可以實(shí)現(xiàn)高達(dá) 100 倍的加速。這是一個(gè)全新的開源庫,旨在提高張量計(jì)算的效率。

據(jù)悉,研究人員已經(jīng)發(fā)布了一些列論文對(duì)張量網(wǎng)絡(luò)的概念、特性以及應(yīng)用特例等方面進(jìn)行了詳細(xì)闡釋。

工作原理

張量是一種多維數(shù)組,按照順序進(jìn)行分類。例如,一個(gè)普通數(shù)零階張量,也稱為標(biāo)量,一個(gè)向量是一階張量,一個(gè)矩陣是二階張量。雖然低階張量可以很容易地用數(shù)字?jǐn)?shù)組或像 Tijnklm 這樣的數(shù)學(xué)符號(hào)來表示,但一旦開始討論高階張量,這個(gè)符號(hào)就變得非常麻煩。

這一點(diǎn)上,使用圖解記數(shù)法是非常有用的,在這種記數(shù)法中,人們只需畫一個(gè)有許多條線或” 腿 “的圓(或其他形狀)。在這個(gè)符號(hào)中,標(biāo)量只是一個(gè)圓,向量只有一條腿,矩陣有兩條腿等。張量的每條腿也有大小,也就是腿的長度。

張量的圖解符號(hào)

以這種方式表示張量的好處是簡(jiǎn)潔地編碼數(shù)學(xué)運(yùn)算,例如,將一個(gè)矩陣乘以一個(gè)向量得到另一個(gè)向量,或者兩個(gè)向量相乘得到標(biāo)量。這個(gè)過程被稱為張量收縮。

張量收縮的圖解表示法

向量和矩陣乘法以及矩陣跡線(即矩陣對(duì)角元素的總和)。

除了這些案例之外,還有以張量收縮模式進(jìn)行編碼以形成一個(gè)新張量的圖形方式。每個(gè)組成張量都有一個(gè)由自己的腿數(shù)決定的順序。連接的腿在圖中形成一條邊,代表收縮,而剩余懸空腿的數(shù)量決定了合成張量的順序。

左:四個(gè)矩陣乘積的表示,即 tr(ABCD),它是一個(gè)標(biāo)量。右:三個(gè)三階張量收縮,三條腿懸空,產(chǎn)生一個(gè)新的三階張量。

雖然這些例子非常簡(jiǎn)單,但張量網(wǎng)絡(luò)通常代表以各種方式收縮的數(shù)百個(gè)張量。用傳統(tǒng)的符號(hào)來描述這樣一件事情是非常模糊的,這也是 Roger Penrose 在 1971 年發(fā)明圖解符號(hào)(diagrammatic notation)的原因。

實(shí)踐過程

以一些黑白圖像為例,每個(gè)圖像可以被看做是 N 個(gè)像素值的列表。單個(gè)圖像中的單個(gè)像素可以被獨(dú)熱編碼( one-hot-encoding)成二維向量,并且通過這些像素編碼組合在一起,我們可以得到 2N 個(gè)維獨(dú)熱編碼的結(jié)果。我們可以將高維向量轉(zhuǎn)化為 N 階張量,然后將圖像集合中所有張量相加,得到量 Ti1,i2,...,iN 的集合。

這聽起來像是一件非常浪費(fèi)時(shí)間的事情。因?yàn)橐赃@種方式對(duì)約 50 像素的圖像進(jìn)行編碼已經(jīng)占用了數(shù)千兆字節(jié)的內(nèi)存。這正是張量網(wǎng)絡(luò)的作用所在。研究人員沒有直接存儲(chǔ)或操縱張量 T,而是將張量 T 作為張量網(wǎng)絡(luò)內(nèi)的多個(gè)小的張量組合。結(jié)果證明這非常有效。例如,流行的矩陣乘積態(tài)(matrix product state,MPS)網(wǎng)絡(luò)可以將 T 表示為 N 個(gè)較小的張量,從而總參數(shù)量為 N 的線性級(jí),而不是指數(shù)級(jí)。

高階張量 T 用矩陣乘積態(tài)張量網(wǎng)絡(luò)中的許多低階張量來表示。

但在有效構(gòu)建或操縱大型張量網(wǎng)絡(luò)的同時(shí)又能始終避免使用大量內(nèi)容的需求,是不太明顯的。但事實(shí)證明,這在許多情況下是可能的,這也是張量網(wǎng)絡(luò)廣泛用于量子物理和機(jī)器學(xué)習(xí)領(lǐng)域的原因。Stoudenmire 和 Schwab 使用這種編碼來構(gòu)建圖像分類模型,展示了張量網(wǎng)絡(luò)的新用途。而 TensorNetwork 庫旨在推進(jìn)這類工作,研究人員在 TensorNetwork 相關(guān)論文中介紹了該庫如何應(yīng)用于張量網(wǎng)絡(luò)的操作。

在物理場(chǎng)景中的應(yīng)用性能

TensorNetwork 是一個(gè)針對(duì)張量網(wǎng)絡(luò)算法的通用庫,因此它適用于物理學(xué)場(chǎng)景。逼近量子態(tài)是張量網(wǎng)絡(luò)在物理學(xué)中的一個(gè)典型用例,可說明張量網(wǎng)絡(luò)庫的能力。在另一篇論文《TensorNetwork on TensorFlow: A Spin Chain Application Using Tree Tensor Networks》中,研究人員提出了一種近似樹張量網(wǎng)絡(luò)(tree tensor network,TTN),并使用張量網(wǎng)絡(luò)庫實(shí)現(xiàn)了該算法。此外,研究人員還對(duì)比了 CPU 和 GPU 的情況,發(fā)現(xiàn)在使用 GPU 和張量網(wǎng)絡(luò)庫時(shí),計(jì)算速度顯著提高了近 100 倍。

計(jì)算時(shí)間作為連接維度的函數(shù) X。連接維度( bond dimension )決定了張量網(wǎng)絡(luò)中張量的大小。連接維度越大意味著張量網(wǎng)絡(luò)約強(qiáng)大,但這個(gè)過程也需要更多的計(jì)算資源。

總結(jié)及未來工作

本文是講述 TensorNetwork 實(shí)際應(yīng)用案例的第一篇文章,后續(xù)的論文中,研究人員將使用 TensorNetwork 在 MNIST 和 Fashion-MNIST 上執(zhí)行圖像分類,后面還將包括時(shí)序分析、量子電路仿真等。研究人員希望 TensorNetwork 能成為物理學(xué)家和機(jī)器學(xué)習(xí)從業(yè)者的寶貴工具。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    20267

    瀏覽量

    252806
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6254

    瀏覽量

    111544
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5204

    瀏覽量

    135584

原文標(biāo)題:谷歌開源張量網(wǎng)絡(luò)庫TensorNetwork,GPU處理提升100倍!

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何在 VisionFive v2 上使用外部 GPU?

    如果舊的 amd gpu 在 VisionFive V2 上運(yùn)行,我想使用帶有開源 amd 驅(qū)動(dòng)程序的 amd gpu。我需要什么以及如何將 GPU 連接到 VisionFive v2
    發(fā)表于 03-13 06:38

    瀚博半導(dǎo)體GPU云底座與一體機(jī)方案支持OpenClaw開源AI智能體框架

    瀚博半導(dǎo)體,以創(chuàng)新的GPU云底座與一體機(jī)方案,支持OpenClaw開源AI智能體框架,全天候運(yùn)行AI智能體,在大幅提升數(shù)字生產(chǎn)力的同時(shí)保證數(shù)據(jù)安全與隱私安全,讓智能體真正落地千行百業(yè)。
    的頭像 發(fā)表于 03-11 13:39 ?200次閱讀
    瀚博半導(dǎo)體<b class='flag-5'>GPU</b>云底座與一體機(jī)方案支持OpenClaw<b class='flag-5'>開源</b>AI智能體框架

    網(wǎng)絡(luò)接口到 DMA,一套面向工程師的 FPGA 網(wǎng)絡(luò)開發(fā)框架

    在高性能網(wǎng)絡(luò)、數(shù)據(jù)中心和智能網(wǎng)卡加速領(lǐng)域,硬件與軟件協(xié)同設(shè)計(jì)已成為提升網(wǎng)絡(luò)處理效率的關(guān)鍵。Liberouter 提供的 Network Development Kit(NDK) 就是這
    的頭像 發(fā)表于 02-12 11:28 ?360次閱讀
    從<b class='flag-5'>網(wǎng)絡(luò)</b>接口到 DMA,一套面向工程師的 FPGA <b class='flag-5'>網(wǎng)絡(luò)</b>開發(fā)框架

    谷歌評(píng)論卡,碰一碰即可完成谷歌評(píng)論 #谷歌評(píng)論卡 #NFC標(biāo)簽 #nfc卡

    谷歌
    深圳市融智興科技有限公司
    發(fā)布于 :2026年01月15日 17:02:00

    炎核開源開放平臺(tái)上架推出OpenSparseBlas高性能稀疏計(jì)算

    在科學(xué)計(jì)算與工程仿真領(lǐng)域,高效處理大規(guī)模稀疏矩陣運(yùn)算是提升整體計(jì)算效能的關(guān)鍵。為此,我們?cè)谘缀?b class='flag-5'>開源開放平臺(tái)上架推出 OpenSparseBlas——一個(gè)專為稀疏矩陣/向量計(jì)算而打造的高性能稀疏計(jì)算
    的頭像 發(fā)表于 12-15 15:18 ?710次閱讀

    亞馬遜發(fā)布新一代AI芯片Trainium3,性能提升4

    Trainium 4的開發(fā)計(jì)劃。亞馬遜表示,這款芯片能夠比英偉達(dá)市場(chǎng)領(lǐng)先的圖形處理單元(GPU)更便宜、更高效地驅(qū)動(dòng)AI模型背后的密集計(jì)算。 ? ? 作為亞馬遜首款3納米工藝AI芯片,Trainium3的核心突破在于性能、能效與擴(kuò)展性的全面躍升。其計(jì)算性能較前代Train
    的頭像 發(fā)表于 12-09 08:37 ?8613次閱讀
    亞馬遜發(fā)布新一代AI芯片Trainium3,性能<b class='flag-5'>提升</b>4<b class='flag-5'>倍</b>

    汽車中的GPU是如何使用的?

    (HMI)的發(fā)展尤為迅猛。隨著電子電氣架構(gòu)(EEA)的集中化,車輛對(duì)高性能計(jì)算能力的需求顯著提升,GPU(圖形處理單元)的靈活性、可擴(kuò)展性以及高效并行計(jì)算能力,使其成為支持這些創(chuàng)新應(yīng)用的核心組件
    的頭像 發(fā)表于 12-03 14:45 ?9596次閱讀
    汽車中的<b class='flag-5'>GPU</b>是如何使用的?

    谷歌云發(fā)布最強(qiáng)自研TPU,性能比前代提升4

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)近日,谷歌云在官方博客上正式宣布,公司成功推出第七代TPU(張量處理器)“Ironwood”,該芯片預(yù)計(jì)在未來幾周內(nèi)正式上市。 ? “Ironwood”由谷歌
    的頭像 發(fā)表于 11-13 07:49 ?8653次閱讀
    <b class='flag-5'>谷歌</b>云發(fā)布最強(qiáng)自研TPU,性能比前代<b class='flag-5'>提升</b>4<b class='flag-5'>倍</b>

    NMSIS神經(jīng)網(wǎng)絡(luò)使用介紹

    NMSIS NN 軟件是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該
    發(fā)表于 10-29 06:08

    今日看點(diǎn):谷歌芯片實(shí)現(xiàn)量子計(jì)算比經(jīng)典超算快13000;NFC 技術(shù)突破:讀取距離從 5 毫米提升至 20 毫米

    谷歌芯片實(shí)現(xiàn)量子計(jì)算比經(jīng)典超算快13000 近日,谷歌在《自然》雜志披露與Willow芯片相關(guān)的量子計(jì)算突破性研究成果。該公司稱這是歷史上首次證明量子計(jì)算機(jī)可以在硬件上成功運(yùn)行一項(xiàng)可驗(yàn)證算法,其
    發(fā)表于 10-23 10:20 ?1581次閱讀

    如何將訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型部署到蜂鳥e203開發(fā)板上

    本帖欲分享如何將訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型部署到蜂鳥e203開發(fā)板上。 1. 加載TFLite模型 std::unique_ptr interpreter(new tflite::Interpreter
    發(fā)表于 10-22 08:04

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    基于注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。該模型將計(jì)算資源集中在對(duì)任務(wù)真正具有價(jià)值的關(guān)注焦點(diǎn),使用于大規(guī)模并行處理任務(wù),專為在GPU上進(jìn)行處理而設(shè)計(jì)。 Transformer 模型的核心思想是自
    發(fā)表于 09-12 17:30

    高效地?cái)U(kuò)展Polars GPU Parquet讀取器

    處理大型數(shù)據(jù)集時(shí),數(shù)據(jù)處理工具的性能至關(guān)重要。Polars 作為一個(gè)以速度和效率著稱的開源數(shù)據(jù)處理,它提供了由 cuDF 驅(qū)動(dòng)的
    的頭像 發(fā)表于 04-21 17:12 ?935次閱讀
    高效地?cái)U(kuò)展Polars <b class='flag-5'>GPU</b> Parquet讀取器

    可以手動(dòng)構(gòu)建imx-gpu-viv嗎?

    所需的版本。但是當(dāng)我嘗試運(yùn)行應(yīng)用程序時(shí),它導(dǎo)致了分段錯(cuò)誤。 有沒有辦法在 Debian 10 中自己構(gòu)建 imx-gpu ,這樣它們就不需要 glibc 2.28 版本了? 如果我的理解有任何差距,請(qǐng)告訴我。謝謝!感謝所
    發(fā)表于 03-28 06:35

    摩爾線程GPU原生FP8計(jì)算助力AI訓(xùn)練

    近日,摩爾線程正式開源MT-MegatronLM與MT-TransformerEngine兩大AI框架。通過深度融合FP8混合訓(xùn)練策略和高性能算子,這兩大框架在國產(chǎn)全功能GPU上實(shí)現(xiàn)了高效的混合
    的頭像 發(fā)表于 03-17 17:05 ?1552次閱讀
    摩爾線程<b class='flag-5'>GPU</b>原生FP8計(jì)算助力AI訓(xùn)練