91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Transformer的出現(xiàn)讓專(zhuān)用AI芯片變得岌岌可危

佐思汽車(chē)研究 ? 來(lái)源:佐思汽車(chē)研究 ? 作者:佐思汽車(chē)研究 ? 2022-08-10 14:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文將分析CNN,還有近期比較火的SwinTransformer以及存內(nèi)計(jì)算對(duì)AI芯片發(fā)展趨勢(shì)的影響,Transformer的出現(xiàn)讓專(zhuān)用AI芯片變得岌岌可危,命懸一線(xiàn)。 所謂AI芯片算力一般指INT8精度下每秒運(yùn)作次數(shù),INT8位即整數(shù)8比特精度。AI芯片嚴(yán)格地說(shuō)應(yīng)該叫AI加速器,只是加速深度神經(jīng)網(wǎng)絡(luò)推理階段的加速,主要就是卷積的加速。一般用于視覺(jué)目標(biāo)識(shí)別分類(lèi),輔助駕駛或無(wú)人駕駛還有很多種運(yùn)算類(lèi)型,需要用到多種運(yùn)算資源,標(biāo)量整數(shù)運(yùn)算通常由CPU完成,矢量浮點(diǎn)運(yùn)算通常由GPU完成,標(biāo)量、矢量運(yùn)算算力和AI算力同樣重要,三者是平起平坐的。AI算力遠(yuǎn)不能和燃油車(chē)的馬力對(duì)標(biāo),兩者相差甚遠(yuǎn)。 AI芯片的關(guān)鍵參數(shù)除了算力,還有芯片利用率或者叫模型利用率。AI芯片的算力只是峰值理論算力,實(shí)際算力與峰值算力之比就是芯片利用率。

baa4c488-1851-11ed-ba43-dac502259ad0.png

圖片來(lái)源:互聯(lián)網(wǎng)

上表為英偉達(dá)旗艦人工智能加速器T4的芯片利用率,芯片的利用率很低,大部分情況下93%的算力都是閑置的,這好比一條生產(chǎn)線(xiàn),93%的工人都無(wú)所事事,但工資還是要付的。實(shí)際上芯片利用率超過(guò)50%就是非常優(yōu)秀,利用率低于10%是很常見(jiàn)的,極端情況只有1%,也就是說(shuō)即使你用了4片英偉達(dá)頂級(jí)Orin,算力高達(dá)1000TOPS,實(shí)際算力可能只有10TOPS。 這也就是AI芯片主要的工作不是AI芯片本身,而是與之配套的軟件優(yōu)化,當(dāng)然也可以反過(guò)來(lái),為自己的算法模型定制一塊AI芯片,如特斯拉。但應(yīng)用面越窄,出貨量就越低,攤在每顆芯片上的成本就越高,這反過(guò)來(lái)推高芯片價(jià)格,高價(jià)格進(jìn)一步縮窄了市場(chǎng),因此獨(dú)立的AI芯片必須考慮盡可能適配多種算法模型。 這需要幾方面的工作:

首先主流的神經(jīng)網(wǎng)絡(luò)模型自然要支持;

其次是壓縮模型的規(guī)模并優(yōu)化,將浮點(diǎn)轉(zhuǎn)換為定點(diǎn);

最后是提供編碼器Compiler,將模型映射為二進(jìn)制指令序列。

早期的AI運(yùn)算完全依賴(lài)GPU,以致于早期的神經(jīng)網(wǎng)絡(luò)框架如Caffee、TensorFlow、mxnet都必須考慮在GPU上優(yōu)化,簡(jiǎn)單地說(shuō)就是都得適應(yīng)GPU的編碼器CUDA,這也是英偉達(dá)為何如此強(qiáng)的原因,它無(wú)需優(yōu)化,因?yàn)樵缙诘纳窠?jīng)網(wǎng)絡(luò)就是為GPU訂做的。CUDA為英偉達(dá)筑起了高高的城墻,你要做AI運(yùn)算,不兼容CUDA是不可能的,所有的程序員都已經(jīng)用習(xí)慣了CUDA。但要兼容CUDA,CUDA的核心是不開(kāi)源的,無(wú)論你如何優(yōu)化,都不如英偉達(dá)的原生CUDA更優(yōu)。車(chē)載領(lǐng)域好一點(diǎn),可以效仿特斯拉。 卷積運(yùn)算就是乘積累加,Cn=A×B+Cn-1,A是輸入矩陣,簡(jiǎn)單理解就是一副圖像,用像素?cái)?shù)字矩陣來(lái)表示一副圖像,B是權(quán)重模型,就是深度學(xué)習(xí)搜集訓(xùn)練數(shù)據(jù),經(jīng)過(guò)幾千萬(wàn)人民幣的數(shù)據(jù)中心訓(xùn)練出的算法模型,也可以看做是一種特殊的濾波器,右邊的C是上一次乘積的結(jié)果。左邊的C就是本次計(jì)算的輸出結(jié)果。卷積運(yùn)算后經(jīng)過(guò)全連接層輸出,畫(huà)出Bounding Box并識(shí)別。用代碼表示如下。

bab84774-1851-11ed-ba43-dac502259ad0.png

bae43000-1851-11ed-ba43-dac502259ad0.png

圖片來(lái)源:互聯(lián)網(wǎng)

這些計(jì)算中有大量相同的數(shù)據(jù)存取,如下表。

baf88302-1851-11ed-ba43-dac502259ad0.png

圖片來(lái)源:互聯(lián)網(wǎng)

每一次運(yùn)算都需要頻繁讀取內(nèi)存,很多是重復(fù)讀取,這非常耗費(fèi)時(shí)間和功率,顯然是一種浪費(fèi),AI芯片的核心工作就是提高數(shù)據(jù)的復(fù)用率。 AI芯片分為兩大流派,一是分塊矩陣的One Shot流派,也有稱(chēng)之為GEMM通用矩陣乘法加速器,典型代表是英偉達(dá)、華為。二是如脈動(dòng)陣列的數(shù)據(jù)流流派,典型代表是谷歌、特斯拉。還有些非主流的主要用于FPGA的Spatial,F(xiàn)FT快速傅里葉變換。

華為AI芯片電路邏輯

bb105c66-1851-11ed-ba43-dac502259ad0.png

圖片來(lái)源:互聯(lián)網(wǎng)

以華為為例,其將矩陣A按行存放在輸入緩沖區(qū)中,同時(shí)將矩陣B按列存放在輸入緩沖區(qū)中,通過(guò)矩陣計(jì)算單元計(jì)算后得到的結(jié)果矩陣C按行存放在輸出緩沖區(qū)中。在矩陣相乘運(yùn)算中,矩陣C的第一元素由矩陣A的第一行的16個(gè)元素和矩陣B的第一列的16個(gè)元素由矩陣計(jì)算單元子電路進(jìn)行16次乘法和15次加法運(yùn)算得出。矩陣計(jì)算單元中共有256個(gè)矩陣計(jì)算子電路,可以由一條指令并行完成矩陣C的256個(gè)元素計(jì)算。 由于矩陣計(jì)算單元的容量有限,往往不能一次存放下整個(gè)矩陣,所以也需要對(duì)矩陣進(jìn)行分塊并采用分步計(jì)算的方式。將矩陣A和矩陣B都等分成同樣大小的塊,每一塊都可以是一個(gè)16×16的子矩陣,排不滿(mǎn)的地方可以通過(guò)補(bǔ)零實(shí)現(xiàn)。首先求C1結(jié)果子矩陣,需要分兩步計(jì)算:第一步將A1和B1搬移到矩陣計(jì)算單元中,并算出A1×B1的中間結(jié)果;第二步將A2和B2搬移到矩陣計(jì)算單元中,再次計(jì)算A2×B2 ,并把計(jì)算結(jié)果累加到上一次A1×B1的中間結(jié)果,這樣才完成結(jié)果子矩陣C1的計(jì)算,之后將C1寫(xiě)入輸出緩沖區(qū)。由于輸出緩沖區(qū)容量也有限,所以需要盡快將C1子矩陣寫(xiě)入內(nèi)存中,便于留出空間接收下一個(gè)結(jié)果子矩陣C2。 分塊矩陣的好處是只計(jì)算了微內(nèi)核,速度很快,比較靈活,編譯器好設(shè)計(jì),增加算力也很簡(jiǎn)單,只要增加MAC的數(shù)量即可。成本低,消耗的SRAM容量小。

bb22093e-1851-11ed-ba43-dac502259ad0.png

圖片來(lái)源:互聯(lián)網(wǎng)

上圖為一個(gè)典型的脈動(dòng)陣列,右側(cè)是一個(gè)乘加單元即PE單元的內(nèi)部結(jié)構(gòu),其內(nèi)部有一個(gè)寄存器,在TPU內(nèi)對(duì)應(yīng)存儲(chǔ)Weight,此處存儲(chǔ)矩陣B。左圖是一個(gè)4×4的乘加陣列,假設(shè)矩陣B已經(jīng)被加載到乘加陣列內(nèi)部;顯然,乘加陣列中每一列計(jì)算四個(gè)數(shù)的乘法并將其加在一起,即得到矩陣乘法的一個(gè)輸出結(jié)果。依次輸入矩陣A的四行,可以得到矩陣乘法的結(jié)果。PE單元在特斯拉FSD中就是96*96個(gè)PE單元。

bb38cb06-1851-11ed-ba43-dac502259ad0.png

圖片來(lái)源:互聯(lián)網(wǎng)

不過(guò)最后還要添加累加器,需要多個(gè)SRAM加入。 脈動(dòng)式優(yōu)點(diǎn)是流水線(xiàn)式,不依賴(lài)一次一次的指令,一次指令即可啟動(dòng)。吞吐量很高。算力做到1000TOPS易如反掌,單PE占硅片面積小。但是其編譯器難度高,靈活度低,要做到高算力,需要大量SRAM,這反過(guò)來(lái)推高成本。 在實(shí)際應(yīng)用當(dāng)中,情況會(huì)比較復(fù)雜,完整的深度學(xué)習(xí)模型都太大,而內(nèi)存是很耗費(fèi)成本的,因此,模型都必須要壓縮和優(yōu)化,常見(jiàn)的壓縮有兩種,一種是Depthwise Convolution,還包括了Depthwise Separable Convolution。另一種是Pointwise Convolution。Depthwise層,只改變feature map的大小,不改變通道數(shù)。而Pointwise層則相反,只改變通道數(shù),不改變大小。這樣將常規(guī)卷積的做法(改變大小和通道數(shù))拆分成兩步走。

bb6131b8-1851-11ed-ba43-dac502259ad0.png

圖片來(lái)源:互聯(lián)網(wǎng)

常規(guī)卷積,4組(3,3,3)的卷積核進(jìn)行卷積,等于108。

bb749992-1851-11ed-ba43-dac502259ad0.png

圖片來(lái)源:互聯(lián)網(wǎng)

Depthwise卷積,分成了兩步走,第一步是3*3*3,第二步是1*1*3*4,合計(jì)是39,壓縮了很多。 谷歌TPU v1的算力計(jì)算是700MHz*256*256*2=92Top/s@int8,之所以乘2是因?yàn)檫€有個(gè)加法累積。高通AI100的最大算力計(jì)算是16*8192*2*1600MHz=419Top/s@int8,高通是16核,每個(gè)核心是8192個(gè)陣列,最高運(yùn)行頻率1.6GHz,最低估計(jì)是500MHz。

性能最大化對(duì)應(yīng)的模型要求

bb9dcd30-1851-11ed-ba43-dac502259ad0.png

圖片來(lái)源:互聯(lián)網(wǎng)

對(duì)谷歌TPU v1來(lái)說(shuō),其最優(yōu)性能是輸入為256,而不少Depthwise是3*3,其利用率為9/256,即3.5%。對(duì)高通AI100來(lái)說(shuō),如果算法模型輸入通道是256,那么效率會(huì)降低至16/256,即6.3%。顯然對(duì)于精簡(jiǎn)算法模型,TPU非常不適合。對(duì)于精簡(jiǎn)模型來(lái)說(shuō),高通AI100非常不適合。 以上這些都是針對(duì)CNN的,目前圖像領(lǐng)域的AI芯片也都是針對(duì)CNN的。近期大火的Swin Transformer則與之不同。2021年由微軟亞洲研究院開(kāi)源的SwinTransformer的橫掃計(jì)算機(jī)視覺(jué),從圖像分類(lèi)的ViT,到目標(biāo)檢測(cè)的DETR,再到圖像分割的SETR以及3D人體姿態(tài)的METRO,大有壓倒CNN的態(tài)勢(shì)。但其原生Self-Attention的計(jì)算復(fù)雜度問(wèn)題一直沒(méi)有得到解決,Self-Attention需要對(duì)輸入的所有N個(gè)token計(jì)算N的二次方大小的相互關(guān)系矩陣,考慮到視覺(jué)信息本來(lái)就是二維(圖像)甚至三維(視頻),分辨率稍微高一點(diǎn)就會(huì)暴增運(yùn)算量,目前所有視覺(jué)類(lèi)AI芯片都完全無(wú)法勝任。

Swin Transformer的模型結(jié)構(gòu)

bbc96850-1851-11ed-ba43-dac502259ad0.png

圖片來(lái)源:互聯(lián)網(wǎng)

從圖上就能看出其采用了4*4卷積矩陣,而CNN是3*3,這就意味著目前的AI芯片有至少33%的效率下降。再者就是其是矢量與矩陣的乘法,這會(huì)帶來(lái)一定的浮點(diǎn)矢量運(yùn)算。 假設(shè)高和寬都為112,窗口大小為7,C為128,那么未優(yōu)化的浮點(diǎn)計(jì)算是4*112*112*128*128+2*112*112*112*112*128=41GFLOP/s。大部分AI芯片如特斯拉的FSD和谷歌的TPU,未考慮這種浮點(diǎn)運(yùn)算。不過(guò)華為和高通都考慮到了,英偉達(dá)就更不用說(shuō)了,GPU天生就是針對(duì)浮點(diǎn)運(yùn)算的??雌饋?lái)41GFLOP/s不高,但如果沒(méi)有專(zhuān)用浮點(diǎn)運(yùn)算處理器,效率也會(huì)急速下降。

bbf9153c-1851-11ed-ba43-dac502259ad0.png

圖片來(lái)源:互聯(lián)網(wǎng)

與CNN不同,Swin Transformer的數(shù)據(jù)選擇與布置占了29%的時(shí)間,矩陣乘法占了71%,而CNN中,矩陣乘法至少占95%。

bc1c4106-1851-11ed-ba43-dac502259ad0.png

圖片來(lái)源:互聯(lián)網(wǎng)

針對(duì)Swin Transformer的AI芯片最好將區(qū)塊模型與數(shù)據(jù)流模型分開(kāi),指令集與數(shù)據(jù)集當(dāng)然也最好分開(kāi)。

bc456d38-1851-11ed-ba43-dac502259ad0.png

圖片來(lái)源:互聯(lián)網(wǎng)

針對(duì)Swin Transformer,理論上最好的選擇是存內(nèi)計(jì)算也叫存算一體,上圖是存內(nèi)計(jì)算架構(gòu)與傳統(tǒng)AI芯片的馮諾依曼架構(gòu)的功耗對(duì)比,存內(nèi)計(jì)算架構(gòu)在同樣算力的情況下,只有馮諾依曼架構(gòu)1/6的功耗。

馮諾依曼架構(gòu)與存內(nèi)計(jì)算架構(gòu)對(duì)比

bc752618-1851-11ed-ba43-dac502259ad0.png

圖片來(lái)源:互聯(lián)網(wǎng)

典型的存內(nèi)計(jì)算架構(gòu)芯片

bc8ab9ce-1851-11ed-ba43-dac502259ad0.png

圖片來(lái)源:互聯(lián)網(wǎng)

不過(guò)目前存內(nèi)計(jì)算離實(shí)用距離還非常遙遠(yuǎn):

第一,內(nèi)存行業(yè)由三星、美光和SK Hynix三家占了90%的市場(chǎng),行業(yè)門(mén)檻極高,這三家極力保持內(nèi)存價(jià)格穩(wěn)定。

第二,目前AI模型都是越來(lái)越大,用存內(nèi)計(jì)算存儲(chǔ)大容量AI模型成本極高。三星的存內(nèi)計(jì)算芯片測(cè)試用的是二十年前的MNIST手寫(xiě)字符識(shí)別,這種AI模型是kb級(jí)別的。而自動(dòng)駕駛用的至少也是10MB以上。

第三,精度很低,當(dāng)前存內(nèi)計(jì)算研究的一個(gè)重點(diǎn)方法是使用電阻式RAM(ReRAM)實(shí)現(xiàn)位線(xiàn)電流檢測(cè)。由于電壓范圍,噪聲和PVT的變化,模擬位線(xiàn)電流檢測(cè)和ADC的精度受到限制,即使精度低到1比特也難以實(shí)現(xiàn),而輔助駕駛目前是8比特。

第四,電阻式RAM可靠性不高。經(jīng)常更新權(quán)重模型,可能導(dǎo)致故障。

最后,存內(nèi)計(jì)算的工具鏈基本為零。最樂(lè)觀的估計(jì),存內(nèi)計(jì)算實(shí)用化也要5年以上,且是用在很小規(guī)模計(jì)算,如AIoT領(lǐng)域,自動(dòng)駕駛領(lǐng)域十年內(nèi)都不可能見(jiàn)到存內(nèi)計(jì)算。即使存內(nèi)計(jì)算實(shí)用化,恐怕也是內(nèi)存三巨頭最有優(yōu)勢(shì)。

Transformer的出現(xiàn)讓專(zhuān)用AI芯片變得非常危險(xiǎn),難保未來(lái)不出現(xiàn)別的技術(shù),而適用面很窄的AI專(zhuān)用芯片會(huì)完全喪失市場(chǎng),通用性比較強(qiáng)的CPU或GPU還是永葆青春,至于算力,與算法模型高度捆綁,但捆綁太緊,市場(chǎng)肯定很小,且生命周期可能很短。 聲明:本文僅代表作者個(gè)人觀點(diǎn)。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107789
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    2128

    瀏覽量

    36780
  • 算力
    +關(guān)注

    關(guān)注

    2

    文章

    1532

    瀏覽量

    16744

原文標(biāo)題:Transformer挑戰(zhàn)CNN,AI芯片需要改變

文章出處:【微信號(hào):zuosiqiche,微信公眾號(hào):佐思汽車(chē)研究】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Transformer 入門(mén):從零理解 AI 大模型的核心原理

    ) × (4, 5) = 錯(cuò)誤!? (3 ≠ 4) 在 Transformer 中的應(yīng)用 scss 體驗(yàn)AI代碼助手 代碼解讀 復(fù)制代碼 Token 嵌入計(jì)算
    發(fā)表于 02-10 16:33

    俊泰高精度數(shù)字云臺(tái)系統(tǒng)賦能全域關(guān)鍵任務(wù)

    在低空威脅日益嚴(yán)峻的時(shí)代,無(wú)人機(jī)“低慢小”目標(biāo)正以前所未有的方式挑戰(zhàn)傳統(tǒng)防御體系。機(jī)場(chǎng)、核電站、煉油廠、軍事要地、大型活動(dòng)……關(guān)鍵資產(chǎn)的安全岌岌可危。
    的頭像 發(fā)表于 02-04 16:47 ?1159次閱讀

    Transformer如何自動(dòng)駕駛大模型獲得思考能力?

    在談及自動(dòng)駕駛時(shí),Transformer一直是非常關(guān)鍵的技術(shù),為何Transformer在自動(dòng)駕駛行業(yè)一直被提及?
    的頭像 發(fā)表于 02-01 09:15 ?4167次閱讀

    Transformer如何自動(dòng)駕駛變得更聰明?

    ]自動(dòng)駕駛中常提的Transformer本質(zhì)上是一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),最早在自然語(yǔ)言處理里火起來(lái)。與卷積神經(jīng)網(wǎng)絡(luò)(CNN)或循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)不同,Transformer能夠自動(dòng)審視所有輸入信息,并動(dòng)態(tài)判斷哪些部分更為關(guān)鍵,同時(shí)可以將這些重要信息有效地關(guān)聯(lián)起來(lái)。
    的頭像 發(fā)表于 11-19 18:17 ?2277次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片到AGI芯片

    解決人類(lèi)智能無(wú)法解決的復(fù)雜問(wèn)題。實(shí)現(xiàn)AGI的AI相關(guān)研究機(jī)構(gòu)和企業(yè)的主要目標(biāo)。 一、生成式AI點(diǎn)燃AGI之火 CHatGPT就是已經(jīng)取得成功的生成式AI技術(shù)。很多人都充滿(mǎn)了信心,相信不久的將來(lái)就會(huì)
    發(fā)表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    連接定義了神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)。 不同神經(jīng)網(wǎng)絡(luò)的DNN: 一、基于大模型的AI芯片 1、Transformer 模型與引擎 1.1 Transformer 模型概述
    發(fā)表于 09-12 17:30

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片的需求和挑戰(zhàn)

    Transformer引擎③NVLink Switch系統(tǒng)④機(jī)密計(jì)算⑤HBM FPGA: 架構(gòu)的主要特點(diǎn):重構(gòu)邏輯和路由,可以快速實(shí)現(xiàn)各種不同形式的神經(jīng)網(wǎng)絡(luò)加速。 ASIC: 介紹了幾種ASIC AI
    發(fā)表于 09-12 16:07

    中國(guó)芯片急起直追,韓國(guó)優(yōu)勢(shì)岌岌可危

    曾在半導(dǎo)體技術(shù)上享有絕對(duì)優(yōu)勢(shì)的韓國(guó),正面臨中國(guó)半導(dǎo)體產(chǎn)業(yè)的快速追趕。韓國(guó)「每日經(jīng)濟(jì)新聞」報(bào)導(dǎo)指出,在半導(dǎo)體制造設(shè)備領(lǐng)域,中國(guó)第一大設(shè)備制造商北方華創(chuàng)今年上半年?duì)I業(yè)利潤(rùn)已達(dá)韓國(guó)同業(yè)龍頭Semes的8倍,顯示中國(guó)企業(yè)正以驚人速度發(fā)展。報(bào)導(dǎo)指出,北方華創(chuàng)今年上半年銷(xiāo)售額達(dá)3.1472萬(wàn)億韓元,年增幅近30%;營(yíng)業(yè)利潤(rùn)為6,478億韓元,年增逾2%。相較之下,Semes上半年銷(xiāo)售額為1.1054萬(wàn)億韓元,年減逾10%;營(yíng)業(yè)利潤(rùn)為821億韓元,僅小幅成長(zhǎng)
    的頭像 發(fā)表于 09-11 18:08 ?598次閱讀

    AI 芯片浪潮下,職場(chǎng)晉升新契機(jī)?

    在科技飛速發(fā)展的當(dāng)下,AI 芯片已然成為眾多行業(yè)變革的核心驅(qū)動(dòng)力。從互聯(lián)網(wǎng)巨頭的數(shù)據(jù)中心,到我們?nèi)粘J褂玫闹悄苁謾C(jī)、智能家居設(shè)備,AI 芯片的身影無(wú)處不在,深刻改變著產(chǎn)品形態(tài)與服務(wù)模式
    發(fā)表于 08-19 08:58

    網(wǎng)站備份架構(gòu)深度解析

    凌晨3點(diǎn),監(jiān)控報(bào)警瘋狂響起。主數(shù)據(jù)庫(kù)磁盤(pán)故障,30萬(wàn)用戶(hù)數(shù)據(jù)岌岌可危。這一刻,我才真正理解什么叫"備份是運(yùn)維工程師的生命線(xiàn)"。
    的頭像 發(fā)表于 07-29 16:52 ?797次閱讀

    【書(shū)籍評(píng)測(cè)活動(dòng)NO.64】AI芯片,從過(guò)去走向未來(lái):《AI芯片:科技探索與AGI愿景》

    DeepSeek,大模型應(yīng)用密集出現(xiàn)、頻繁升級(jí),這作者意識(shí)到有必要撰寫(xiě)一本新的AI芯片圖書(shū),以緊跟時(shí)代步伐、介紹新興領(lǐng)域和最新動(dòng)向。 這就是《AI
    發(fā)表于 07-28 13:54

    里程碑!亞馬遜第 100 萬(wàn)個(gè)機(jī)器人上崗!人類(lèi)員工岌岌可危?

    電子發(fā)燒友網(wǎng)報(bào)道(文 / 吳子鵬)亞馬遜宣布在全球部署 100 萬(wàn)臺(tái)機(jī)器人,這一里程碑標(biāo)志著全球物流行業(yè)邁入智能化與自動(dòng)化的新階段。第 100 萬(wàn)個(gè)機(jī)器人被送往日本東京的運(yùn)營(yíng)中心,加入覆蓋全球 300 多個(gè)設(shè)施的機(jī)器人軍團(tuán)。從 2012 年收購(gòu) Kiva Systems 起步,亞馬遜用 11 年時(shí)間實(shí)現(xiàn)了機(jī)器人數(shù)量的指數(shù)級(jí)增長(zhǎng)。 亞馬遜機(jī)器人持續(xù)進(jìn)化 2019 年,亞馬遜(Amazon)創(chuàng)始人杰夫?貝索斯(Jeff Bezos)預(yù)測(cè),在未來(lái)十年內(nèi),機(jī)器人系統(tǒng)將先進(jìn)到足以像人手一般靈活
    的頭像 發(fā)表于 07-08 09:22 ?6100次閱讀

    Transformer架構(gòu)概述

    由于Transformer模型的出現(xiàn)和快速發(fā)展,深度學(xué)習(xí)領(lǐng)域正在經(jīng)歷一場(chǎng)翻天覆地的變化。這些突破性的架構(gòu)不僅重新定義了自然語(yǔ)言處理(NLP)的標(biāo)準(zhǔn),而且拓寬了視野,徹底改變了AI的許多方面。
    的頭像 發(fā)表于 06-10 14:24 ?1290次閱讀
    <b class='flag-5'>Transformer</b>架構(gòu)概述

    蘋(píng)果正研發(fā)用于AI服務(wù)器的專(zhuān)用芯片

    據(jù)外媒報(bào)道,蘋(píng)果公司正研發(fā)用于AI服務(wù)器的專(zhuān)用芯片;據(jù)蘋(píng)果公司知情人士透露;蘋(píng)果芯片設(shè)計(jì)團(tuán)隊(duì)正在加速研發(fā)新芯片,面向的主要領(lǐng)域包括智能眼鏡
    的頭像 發(fā)表于 05-09 11:25 ?1085次閱讀

    首創(chuàng)開(kāi)源架構(gòu),天璣AI開(kāi)發(fā)套件端側(cè)AI模型接入得心應(yīng)手

    Studio提供了最優(yōu)解。Neuron Studio針對(duì)模型到應(yīng)用,提供一站式、全鏈路、自動(dòng)化的開(kāi)發(fā)協(xié)助,不僅AI應(yīng)用開(kāi)發(fā)的全流程可視化,更帶來(lái)整個(gè)多種工具的一站式開(kāi)發(fā)能力,還支持神經(jīng)網(wǎng)絡(luò)自動(dòng)化調(diào)優(yōu)和跨
    發(fā)表于 04-13 19:52