91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從ChatGPT等大模型的興起,看未來計算芯片的發(fā)展趨勢

sakobpqhz ? 來源:算力基建 ? 2023-05-30 11:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ChatGPT的火爆,直接引爆了大模型的繁榮,也使得NVIDIA GPU供不應(yīng)求。

從發(fā)展的角度看,GPU并不是大模型最高效的計算平臺。

GPT等大模型為什么沒有突破萬億參數(shù)?核心原因在于在現(xiàn)在的GPU平臺上,性能和成本都達(dá)到了一個極限。想持續(xù)支撐萬億以上參數(shù)的更大的模型,需要讓性能數(shù)量級提升,以及單位算力成本數(shù)量級的下降。這必然需要全新架構(gòu)的AI計算平臺。

本文拋磚引玉,期待行業(yè)更多的探討。

01.綜述

大模型為什么“不約而同”的停留在上千億的參數(shù)規(guī)模,沒有突破萬億參數(shù)?原因主要在于,在目前的架構(gòu)體系下:

單個GPU性能增長(Scale up)有限,想要增加性能,只有通過增加計算集群規(guī)模(Scale out)的方式;

上萬GPU的計算集群,其東西向的流量交互指數(shù)級提升,受限于集群的網(wǎng)絡(luò)帶寬,約束了集群節(jié)點計算性能的發(fā)揮;

受阿姆達(dá)爾定律的約束,并行度無法無限擴展,增加集群規(guī)模的方式也到了瓶頸;

并且,如此大的集群規(guī)模,成本也變得不可承受。

總的來說,為了數(shù)量級的突破算力上限,需要從如下幾個方面入手:

首先,性能提升不單單是單個芯片的事情,而是一個系統(tǒng)工程。因此,需要從芯片軟硬件到整機再到數(shù)據(jù)中心全體系進(jìn)行協(xié)同優(yōu)化。

其次,擴大集群規(guī)模,也即大家熟知的Scale Out。要想Scale out,就需要增強集群的內(nèi)聯(lián)交互,也就是要更高的帶寬,更高效的高性能網(wǎng)絡(luò)。同時,還需要降低單個計算節(jié)點的成本。

最后,最本質(zhì)的,Scale Up,增加單個節(jié)點的性能。這個是最本質(zhì)的能夠提升算力的方法。在功耗、工藝、成本等因素的約束下,要想提升性能,只能從軟硬件架構(gòu)和微架構(gòu)實現(xiàn)方面去挖潛。

02.全體系協(xié)同優(yōu)化

0a7eb25a-fe81-11ed-90ce-dac502259ad0.png

算力,不僅僅是微觀芯片性能的事情,而是宏觀上復(fù)雜而龐大的系統(tǒng)工程。整個體系中,從工藝到軟件,從芯片到數(shù)據(jù)中心,整個算力體系中的各個領(lǐng)域的發(fā)展都已經(jīng)達(dá)到一個相對穩(wěn)定而成熟的階段。而AI大模型的發(fā)展,仍然需要算力大踏步的提升,這不僅僅需要各領(lǐng)域按部就班的持續(xù)優(yōu)化,更需要各個領(lǐng)域間的跨域協(xié)同優(yōu)化創(chuàng)新:

半導(dǎo)體工藝和封裝:更先進(jìn)的工藝、3D集成,以及Chiplet封裝等。

芯片實現(xiàn)(微架構(gòu)):通過一些創(chuàng)新的設(shè)計實現(xiàn),如存算一體、DSA架構(gòu)設(shè)計以及各類新型存儲等。

系統(tǒng)架構(gòu):比如開放精簡的RISC-v,異構(gòu)計算逐漸走向超異構(gòu)計算,以及駕馭復(fù)雜計算的軟硬件融合等。

系統(tǒng)軟件、框架、庫:基礎(chǔ)的如OS、Hypervisor、容器,以及需要持續(xù)優(yōu)化和開源開放的各類計算框架和庫等。

業(yè)務(wù)應(yīng)用(算法):業(yè)務(wù)場景算法優(yōu)化、算法的并行性優(yōu)化等;以及系統(tǒng)的靈活性和可編程性設(shè)計;系統(tǒng)的控制和管理、系統(tǒng)的擴展性等。

硬件,包括服務(wù)器、交換機等:多個功能芯片的板卡集成,定制板卡和服務(wù)器,服務(wù)器電源和散熱優(yōu)化;

數(shù)據(jù)中心基礎(chǔ)設(shè)施:如綠色數(shù)據(jù)中心,液冷、PUE優(yōu)化等;

數(shù)據(jù)中心運營和管理:如超大規(guī)模數(shù)據(jù)中心運營管理,跨數(shù)據(jù)中心運營和管理調(diào)度等。

03.Scale out:增加集群規(guī)模

0aa88562-fe81-11ed-90ce-dac502259ad0.png

N個節(jié)點通過連線兩兩相連,總共的連線數(shù)據(jù)需要N*(N-1)/2。據(jù)此公式,集群如果只有一個節(jié)點,那就沒有東西向的內(nèi)部流量;隨著集群中節(jié)點數(shù)量的增多,內(nèi)部交互數(shù)量會飛速的增長,隨之而來的,也就是集群內(nèi)部的交互流量猛增。 據(jù)統(tǒng)計,目前在大型數(shù)據(jù)中心中的東西向網(wǎng)絡(luò)流量占比超過85%;AI大模型訓(xùn)練集群,其節(jié)點數(shù)量基本上超過1000,其東西向流量估計超過90%。理論上,在各個連接流量均等的情況下,目前主流網(wǎng)卡200Gbps的帶寬,即使所有都是東西向流量,每兩個節(jié)點之間的流量也僅僅只能有200/1000 = 0.2 Gbps。一方面,南北向的流量被極限壓縮,單個連接的東西向流量又隨著集群數(shù)量的增長反而持續(xù)下降,這進(jìn)一步凸顯了網(wǎng)絡(luò)帶寬瓶頸的問題。 與此同時,受阿姆達(dá)爾定律的影響,整體算力并不是跟節(jié)點數(shù)量呈理想的線性關(guān)系,而是隨著集群規(guī)模的增加,整體算力的增加會逐漸趨緩。 要想通過Scale Out方式提升集群的算力:

首先就是要快速的提升網(wǎng)絡(luò)帶寬。

0ad3e090-fe81-11ed-90ce-dac502259ad0.png

其次,要有更優(yōu)的高性能網(wǎng)絡(luò)支持。通過高性能網(wǎng)絡(luò)功能優(yōu)化,如在擁塞控制、多路徑負(fù)載均衡ECMP、亂序交付、高可擴展性、故障快速恢復(fù)、Incast優(yōu)化等方面進(jìn)行調(diào)優(yōu),實現(xiàn)更優(yōu)的高性能網(wǎng)絡(luò)能力。

0b0b403a-fe81-11ed-90ce-dac502259ad0.png

再次,AI計算數(shù)據(jù)到網(wǎng)絡(luò)的更快速的路徑。傳統(tǒng)架構(gòu),GPU作為加速卡掛載CPU外面,從GPU到網(wǎng)絡(luò)的數(shù)據(jù)傳輸路徑非常長,并且CPU要參與傳輸?shù)目刂啤?梢酝ㄟ^例如GPU集成RoCE高性能網(wǎng)卡的方式,繞過CPU、DPU/NIC直接把數(shù)據(jù)傳輸出去。

最后,是要從算法和軟件處層次,提升并行度,并盡可能的降低并行程序之間的耦合度。

04.Scale Up:增加單芯片性能東西向流量本質(zhì)上屬于內(nèi)部“損耗”,通過Scale Out的方式提升性能對網(wǎng)絡(luò)的壓力巨大,并且有性能上限,屬于“治標(biāo)不治本”的方式。 要想真正的大規(guī)模的提升算力,最本質(zhì)最有效的辦法,還是要通過提升單個計算節(jié)點、單個計算芯片性能的方式。 要想提升單芯片性能:

首先,是提升芯片規(guī)模。通過工藝進(jìn)步、3D和Chiplet封裝,提升單個芯片的設(shè)計規(guī)模。目前,主流的大芯片晶體管數(shù)量在500億。Intel計劃到2030年,會將單芯片晶體管數(shù)量提高到1萬億(提升20倍)。

第二,提升單位晶體管資源的性能效率。6個主要的處理器類型:CPU、協(xié)處理器、GPU、FPGA、DSA和ASIC,CPU最通用,但性能效率最低,而ASIC最專用,性能效率最高。在計算處理器方面,要盡可能選擇ASIC或接近ASIC的計算引擎,盡可能的提升此類處理器在整個系統(tǒng)中的計算量占比。

第三,提升通用靈活性。性能和靈活性是一對矛盾,為什么不能在一個芯片里,完全100%的采用ASIC級別的計算引擎?原因在于,純粹的ASIC沒有意義。芯片需要得到大范圍的使用,才能攤薄研發(fā)成本。這就需要考慮芯片的通用靈活性。

0b296380-fe81-11ed-90ce-dac502259ad0.png

目前,受AI等各類大算力場景的驅(qū)動,異構(gòu)計算已經(jīng)成為計算架構(gòu)的主流。未來,隨著大模型等更高算力需求場景的進(jìn)一步發(fā)展,計算架構(gòu)需要從異構(gòu)計算進(jìn)一步走向超異構(gòu)計算:

第一階段,單CPU的串行計算;

第二階段,多CPU的同構(gòu)并行計算;

第三階段,CPU+GPU的異構(gòu)并行計算;

第四階段,CPU+DSA的異構(gòu)并行計算;

第五階段,多種異構(gòu)融合的超異構(gòu)并行計算。

05.大算力芯片的通用性分析到目前為止,谷歌TPU都難言成功:雖然TPU可以做到,從芯片到框架,甚至到AI應(yīng)用,谷歌可以做到全棧優(yōu)化,但TPU仍然無法做到更大規(guī)模的落地,并且拖累了上層AI業(yè)務(wù)的發(fā)展。原因其實很簡單:

當(dāng)上層的業(yè)務(wù)邏輯和算法一直處于快速迭代的時候,是很難把它固化成電路來進(jìn)行加速的。

雖然谷歌發(fā)明了Transformer,但受限于其底層芯片TPU,使得上層業(yè)務(wù)需要考慮跟底層芯片的兼容,無法全身心投入到模型開發(fā);

AI模型的發(fā)展,目前仍在“煉丹”的發(fā)展階段,誰能快速試錯快速迭代,誰就最有可能成功。

也因此,在AI大模型的發(fā)展進(jìn)程中,谷歌落后了。而OpenAI沒有包袱,可以選擇最優(yōu)的計算平臺(通用的GPU+CUDA平臺),全身心專注到自己模型的研發(fā),率先實現(xiàn)了ChatGPT及GPT4這樣的高質(zhì)量AI大模型,從而引領(lǐng)了AGI的大爆發(fā)時代。 結(jié)論:在目前AI算法快速演進(jìn)的今天,通用性比性能重要。也因此,NVIDIA GPU通過在GPU中集成CUDA core和Tensor Core,既兼顧了通用性,又兼顧了靈活性,成為目前最佳的AI計算平臺。06.相關(guān)趨勢案例

6.1 Intel Hawana GAUDI

0b509c2a-fe81-11ed-90ce-dac502259ad0.png

Gaudi是一個典型的Tensor加速器。從第一代Gaudi的16nm工藝提升到第二代的7nm工藝,Gaudi2將訓(xùn)練和推理性能提升到一個全新的水平。它將AI定制Tensor處理器核心的數(shù)量從8個增加到24個,增加了對FP8的支持,并集成了一個媒體處理引擎,用于處理壓縮媒體,以卸載主機子系統(tǒng)。Gaudi2的封裝內(nèi)存在每秒2.45 Tbps的帶寬下增加了三倍,達(dá)到96GB的HBM2e。

0bbb2338-fe81-11ed-90ce-dac502259ad0.png

Gaudi可以通過24個100Gbps的RDMA高性能網(wǎng)卡實現(xiàn)非常高的集群擴展能力。實際的集群架構(gòu)設(shè)計,可以根據(jù)具體的需求靈活設(shè)計。 相比傳統(tǒng)的GPU、TPU等加速器,Gaudi的最大亮點在于集成了超高帶寬的高性能網(wǎng)絡(luò)。從而提升了集群節(jié)點間的東西向流量交互效率,也使得更大規(guī)模的集群設(shè)計成為可能。

6.2 Graphcore IPU

0bef43ca-fe81-11ed-90ce-dac502259ad0.png

上圖為Graphcore的IPU處理器,IPU處理器具有1216個Tile(每個Tile包含一個Core和它的本地內(nèi)存),交換結(jié)構(gòu)(一個片內(nèi)互連),IPU鏈路接口用于連接到其他IPU,PCIe接口用于與主機連接。 Graphcore在架構(gòu)上是類似NVIDIA GPU的產(chǎn)品,是相對通用的計算架構(gòu),比較符合AI計算的要求。但受限于沒有類似Tensor core這樣的協(xié)處理優(yōu)化,在性能上存在劣勢;以及還沒有形成類似NVIDIA CUDA這樣強大的開發(fā)框架和豐富生態(tài)。

6.3 Tesla DOJO

0c44ae28-fe81-11ed-90ce-dac502259ad0.png

0c649c7e-fe81-11ed-90ce-dac502259ad0.png

0c9ee320-fe81-11ed-90ce-dac502259ad0.png

Tesla Dojo芯片和相應(yīng)的整個集群系統(tǒng),跟傳統(tǒng)的設(shè)計理念有很大的不同。其基于整個POD級的超強的擴展性和全系統(tǒng)棧協(xié)同設(shè)計能力。Dojo系統(tǒng)的每個Node都是完全對稱的,是一個POD級完全UMA的架構(gòu)?;蛘哒f,Dojo的擴展性,跨過了芯片、Tile、Cabinet,達(dá)到了POD級別。 DOJO是Tesla專用于數(shù)據(jù)中心AI訓(xùn)練的芯片、集群和解決方案。DOJO的可擴展性能力,使得AI工程師可以專注在模型開發(fā)和訓(xùn)練本身,而較少考慮模型的分割和交互等跟硬件特性相關(guān)的細(xì)節(jié)。 DOJO也是比較通用的計算架構(gòu):內(nèi)核是一個CPU+AI協(xié)處理器的做法,然后多核心組成芯片,芯片再組織成POD。宏觀上,跟NVIDIA GPU的整體思路接近。

6.4 Tenstorrent Grayskull & Wormhole

Tesla Dojo和Tenstorrent的AI系列芯片都是Jim Keller主導(dǎo)的項目,架構(gòu)設(shè)計理念有很多相似之處。

0cc4aea2-fe81-11ed-90ce-dac502259ad0.png

基本架構(gòu)單元是Tensix核心,它圍繞一個大型計算引擎構(gòu)建,該引擎從單個密集數(shù)學(xué)單元承擔(dān)3 TOPS計算的絕大部分。

0cf08e96-fe81-11ed-90ce-dac502259ad0.png

Tenstorrent的Grayskull加速器芯片實現(xiàn)了一個由Tensix內(nèi)核組成12x10陣列,峰值性能為368 INT8 TOPS。

0d1f0b0e-fe81-11ed-90ce-dac502259ad0.png

Tenstorrent的第一代芯片代號是Grayskull,第二代芯片代號是Wormhole,兩者宏觀架構(gòu)接近。使用Wormhole模塊,Tenstorrent設(shè)計了nebula(星云),一個4U服務(wù)器包含32個Wormhole芯片。

0d7ceeb8-fe81-11ed-90ce-dac502259ad0.png


這是一個完整的48U的機架,它像一個2D網(wǎng)格一樣,每個Wormhole服務(wù)器連接在另一個服務(wù)器的對等端,就像一個大而均勻的Mesh網(wǎng)絡(luò)。 Tenstorrent通過這種多網(wǎng)絡(luò)連接的方式,實現(xiàn)了集群的極致擴展性。其整體思路和Tesla DOJO類似。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關(guān)注

    關(guān)注

    463

    文章

    54074

    瀏覽量

    466954
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    14

    文章

    10282

    瀏覽量

    91570
  • 數(shù)據(jù)中心
    +關(guān)注

    關(guān)注

    18

    文章

    5669

    瀏覽量

    75076
  • ChatGPT
    +關(guān)注

    關(guān)注

    31

    文章

    1598

    瀏覽量

    10318

原文標(biāo)題:從ChatGPT等大模型的興起,看未來計算芯片的發(fā)展趨勢

文章出處:【微信號:算力基建,微信公眾號:算力基建】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    SMT工藝革新:高精度貼裝與微型化組裝的未來趨勢

    \" 兩個方向發(fā)展。一方面,隨著量子計算、生物芯片前沿技術(shù)的興起,對 SMT 工藝的精度要求將達(dá)到納米級別;另一方面,消費電子市場的快速迭
    發(fā)表于 03-06 14:55

    【「芯片設(shè)計基石——EDA產(chǎn)業(yè)全景與未來展望」閱讀體驗】跟著本書來看EDA的奧秘和EDA發(fā)展

    本書是一本介紹EDA產(chǎn)業(yè)全景與未來展望的書籍,主要內(nèi)容分為兩部分,一部分是介紹EDA相關(guān)基礎(chǔ)知識和全球EDA發(fā)展概況以及發(fā)展趨勢 另一部分則是介紹中國EDA事業(yè)萌芽,沉寂,轉(zhuǎn)機,加速,以及未來
    發(fā)表于 01-21 22:26

    【「芯片設(shè)計基石——EDA產(chǎn)業(yè)全景與未來展望」閱讀體驗】+ 全書概覽

    變展翅:EDA產(chǎn)業(yè)加速進(jìn)行時(2018年以來)。第7章 啟航未來:全球EDA發(fā)展趨勢洞察,技術(shù)和政策法規(guī)等角度分析EDA發(fā)展趨勢。第8章 智慧之光:中國EDA的制勝籌碼,從中國市場、
    發(fā)表于 01-20 19:27

    微電網(wǎng)保護(hù)的發(fā)展趨勢是什么?

    、標(biāo)準(zhǔn)化落地”五大核心發(fā)展趨勢,為微電網(wǎng)安全穩(wěn)定運行提供更堅實的技術(shù)支撐。下文將系統(tǒng)拆解各發(fā)展趨勢的核心內(nèi)涵、技術(shù)路徑與實踐價值。
    的頭像 發(fā)表于 01-17 11:21 ?1189次閱讀
    微電網(wǎng)保護(hù)的<b class='flag-5'>發(fā)展趨勢</b>是什么?

    電磁環(huán)境模擬及偵察系統(tǒng)的作用、技術(shù)特點及未來發(fā)展趨勢

    電磁環(huán)境模擬及偵察系統(tǒng)的作用、技術(shù)特點及未來發(fā)展趨勢
    的頭像 發(fā)表于 12-07 11:30 ?758次閱讀
    電磁環(huán)境模擬及偵察系統(tǒng)的作用、技術(shù)特點及<b class='flag-5'>未來</b><b class='flag-5'>發(fā)展趨勢</b>

    AI+工業(yè)物聯(lián)網(wǎng)的未來發(fā)展趨勢有哪些

    AI與工業(yè)物聯(lián)網(wǎng)(IIoT)的融合正從“技術(shù)試點”邁向“規(guī)模應(yīng)用”階段,其未來發(fā)展趨勢呈現(xiàn)深度融合、全鏈條重構(gòu)、生態(tài)化協(xié)同與全球化拓展的特征,具體表現(xiàn)為以下六大核心方向: 一、工業(yè)大模型垂直化與場景
    的頭像 發(fā)表于 09-24 14:58 ?790次閱讀

    AI工藝優(yōu)化與協(xié)同應(yīng)用的未來發(fā)展趨勢是什么?

    AI 工藝優(yōu)化與協(xié)同應(yīng)用在制造業(yè)、醫(yī)療、能源眾多領(lǐng)域已經(jīng)展現(xiàn)出巨大潛力,未來,它將在技術(shù)融合、應(yīng)用拓展、產(chǎn)業(yè)生態(tài)多方面迎來新的發(fā)展趨勢
    的頭像 發(fā)表于 08-28 09:49 ?1027次閱讀
    AI工藝優(yōu)化與協(xié)同應(yīng)用的<b class='flag-5'>未來</b><b class='flag-5'>發(fā)展趨勢</b>是什么?

    【免費送書】AI芯片過去走向未來:《AI芯片:前沿技術(shù)與創(chuàng)新未來

    最重大的技術(shù)變革無疑就是大模型的橫空出世,人類的時間仿佛被裝上了加速器,ChatGPT到DeepSeek,大模型應(yīng)用密集出現(xiàn)、頻繁升級,這讓作者意識到有必要撰寫一本新的AI
    的頭像 發(fā)表于 07-29 08:06 ?1185次閱讀
    【免費送書】AI<b class='flag-5'>芯片</b>,<b class='flag-5'>從</b>過去走向<b class='flag-5'>未來</b>:《AI<b class='flag-5'>芯片</b>:前沿技術(shù)與創(chuàng)新<b class='flag-5'>未來</b>》

    【書籍評測活動NO.64】AI芯片,過去走向未來:《AI芯片:科技探索與AGI愿景》

    計算類別AI芯片的及時、全面而富有遠(yuǎn)見的書?!?那么時至今日,這個世界發(fā)生了什么變化呢? 在這四年間,最重大的技術(shù)變革無疑就是大模型的橫空出世,人類的時間仿佛被裝上了加速器,
    發(fā)表于 07-28 13:54

    人工智能技術(shù)的現(xiàn)狀與未來發(fā)展趨勢

    人工智能技術(shù)的現(xiàn)狀與未來發(fā)展趨勢 ? ? 近年來,人工智能(AI)技術(shù)迅猛發(fā)展,深刻影響著各行各業(yè)。計算機視覺到自然語言處理,
    的頭像 發(fā)表于 07-16 15:01 ?1994次閱讀

    工控機的現(xiàn)狀、應(yīng)用與發(fā)展趨勢

    穩(wěn)定可靠地運行,并執(zhí)行實時控制、數(shù)據(jù)采集、過程監(jiān)控關(guān)鍵任務(wù)。本文將深入探討工控機的現(xiàn)狀、廣闊應(yīng)用以及未來發(fā)展趨勢,以期更好地理解其在工業(yè)領(lǐng)域的價值和潛力。工控機
    的頭像 發(fā)表于 06-17 13:03 ?1273次閱讀
    工控機的現(xiàn)狀、應(yīng)用與<b class='flag-5'>發(fā)展趨勢</b>

    物聯(lián)網(wǎng)未來發(fā)展趨勢如何?

    近年來,物聯(lián)網(wǎng)行業(yè)以其驚人的增長速度和無限的潛力成為了全球科技界的焦點。它正在改變我們的生活方式、商業(yè)模式和社會運轉(zhuǎn)方式。那么,物聯(lián)網(wǎng)行業(yè)的未來發(fā)展趨勢將會是怎樣的呢?讓我們一同探尋其中的奧秘
    發(fā)表于 06-09 15:25

    【「芯片通識課:一本書讀懂芯片技術(shù)」閱讀體驗】deepseek今天芯片發(fā)展

    近日有幸得到一本關(guān)于芯片制造的書籍,剛打開便被npu章節(jié)吸引,不禁感嘆芯片發(fā)展速度之快令人咂舌:如deepseek搬強大的人工智能,也能運行在嵌入式soc板卡了! 這里先看書里是怎么介紹npu
    發(fā)表于 04-02 17:25

    混合信號設(shè)計的概念、挑戰(zhàn)與發(fā)展趨勢

    本文介紹了集成電路設(shè)計領(lǐng)域中混合信號設(shè)計的概念、挑戰(zhàn)與發(fā)展趨勢。
    的頭像 發(fā)表于 04-01 10:30 ?1812次閱讀

    工業(yè)電機行業(yè)現(xiàn)狀及未來發(fā)展趨勢分析

    過大數(shù)據(jù)分析的部分觀點,可能對您的企業(yè)規(guī)劃有一定的參考價值。點擊附件查看全文*附件:工業(yè)電機行業(yè)現(xiàn)狀及未來發(fā)展趨勢分析.doc 本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請第一時間告知,刪除內(nèi)容!
    發(fā)表于 03-31 14:35