91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Neuchips展示大模型推理ASIC芯片

SSDFans ? 來(lái)源:SSDFans ? 2025-01-06 17:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

領(lǐng)先的AI專用集成電路ASIC)解決方案提供商N(yùn)euchips在CES 2024上展示了其革命性的Raptor Gen AI加速芯片(以前稱為N3000)和Evo PCIe加速卡LLM解決方案。新的芯片解決方案Raptor使企業(yè)能夠以現(xiàn)有解決方案的一小部分成本部署大型語(yǔ)言模型(LLM)推理。

NeuchipsCEO Ken Lau表示:“我們很高興在CES 2024上向業(yè)界展示我們的Raptor芯片和Evo卡。Neuchips的解決方案代表了自然語(yǔ)言處理在性價(jià)比上的巨大飛躍。有了Neuchips,任何組織都可以在廣泛的AI應(yīng)用中從LLM中獲得力量?!?/p>

LLM民主化

Raptor和Evo共同提供了一個(gè)優(yōu)化的堆棧,使企業(yè)可以輕松訪問(wèn)市場(chǎng)領(lǐng)先的LLM。與現(xiàn)有解決方案相比,Neuchips的AI解決方案顯著降低了硬件成本。高能效也最大限度地減少了用電量,進(jìn)一步降低了總擁有成本。

在CES 2024上,Neuchips展示了Raptor和Evo,在個(gè)人AI助理應(yīng)用程序上加速Whisper和LlamaAI聊天機(jī)器人。該解決方案突出了LLM推理對(duì)實(shí)際業(yè)務(wù)需求的強(qiáng)大功能。

其他技術(shù)會(huì)議將展示Raptor和Evo如何削減語(yǔ)音到文本應(yīng)用程序的部署成本。

Raptor GenAI加速器為突破LLM性能提供動(dòng)力

Raptor每個(gè)芯片的運(yùn)算速度高達(dá)每秒200TOPS。它在AI推理操作(如矩陣乘法、向量和嵌入表查找)方面的出色性能適用于Gen-AI和基于變壓器的AI模型。這一突破性的吞吐量是通過(guò)Neuchips為神經(jīng)網(wǎng)絡(luò)量身定制的專利壓縮和效率優(yōu)化來(lái)實(shí)現(xiàn)的。

Evo第5代PCIe卡為加速和低功耗設(shè)定新標(biāo)準(zhǔn)

與Raptor互補(bǔ)的是Neuchips的超低功耗Evo加速卡。Evo結(jié)合了8通道PCIe Gen 5和32GB LPDDR5,實(shí)現(xiàn)64 GB/s主機(jī)I/O帶寬和1.6 Tbps每秒的內(nèi)存帶寬,每卡僅55瓦。

正如DLRM所展示的那樣,Evo還具有100%的可擴(kuò)展性,允許客戶通過(guò)添加更多芯片來(lái)線性提高性能。這種模塊化設(shè)計(jì)確保了對(duì)未來(lái)AI工作負(fù)載的投資保護(hù)。

該公司2024年下半年推出了HHHL(half-height half-length)外形產(chǎn)品Viper,提供更大的部署靈活性。新系列在緊湊的設(shè)計(jì)中帶來(lái)了數(shù)據(jù)中心級(jí)的AI加速。

原文鏈接:

https://www.techpowerup.com/317298/neuchips-to-showcase-industry-leading-gen-ai-inferencing-accelerators-at-ces-2024


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • ASIC芯片
    +關(guān)注

    關(guān)注

    2

    文章

    94

    瀏覽量

    24839
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    346

    瀏覽量

    1329

原文標(biāo)題:Neuchips展示大模型推理ASIC芯片!

文章出處:【微信號(hào):SSDFans,微信公眾號(hào):SSDFans】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    模型推理服務(wù)的彈性部署與GPU調(diào)度方案

    7B 模型 FP16 推理需要約 14GB 顯存,70B 模型需要 140GB+,KV Cache 隨并發(fā)數(shù)線性增長(zhǎng),顯存碎片化導(dǎo)致實(shí)際利用率不足 60%。
    的頭像 發(fā)表于 03-03 09:29 ?92次閱讀

    AI推理芯片需求爆發(fā),OpenAI欲尋求新合作伙伴

    電子發(fā)燒友網(wǎng)綜合報(bào)道,在人工智能迅猛發(fā)展的當(dāng)下,AI推理芯片需求正呈爆發(fā)式增長(zhǎng)。 ? AI推理,即支撐如ChatGPT這類AI模型響應(yīng)用戶問(wèn)題和請(qǐng)求的計(jì)算過(guò)程。過(guò)去,英偉達(dá)在訓(xùn)練大型A
    的頭像 發(fā)表于 02-03 17:15 ?1990次閱讀

    曦望發(fā)布新一代推理GPU芯片,單位Token推理成本降低90%

    已突破萬(wàn)片。 ? 啟望S3是專為大模型推理打造的定制化GPGPU芯片。在典型推理場(chǎng)景下,它的整體性價(jià)比較上一代提升超10倍。在算力與存儲(chǔ)設(shè)計(jì)方面,該
    的頭像 發(fā)表于 01-28 17:38 ?8661次閱讀

    LLM推理模型是如何推理的?

    這篇文章《(How)DoReasoningModelsReason?》對(duì)當(dāng)前大型推理模型(LRM)進(jìn)行了深刻的剖析,超越了表面的性能宣傳,直指其技術(shù)本質(zhì)和核心局限。以下是基于原文的詳細(xì)技術(shù)原理、關(guān)鍵
    的頭像 發(fā)表于 01-19 15:33 ?481次閱讀
    LLM<b class='flag-5'>推理模型</b>是如何<b class='flag-5'>推理</b>的?

    歐洲之光!5nm,3200 TFLOPS AI推理芯片即將量產(chǎn)

    數(shù)據(jù)中心AI推理處理器的按時(shí)上市。通過(guò)此次合作,GUC展示了其在復(fù)雜芯片組架構(gòu)設(shè)計(jì)以及利用2.5D先進(jìn)封裝技術(shù)實(shí)現(xiàn)HBM3
    的頭像 發(fā)表于 11-29 13:52 ?5879次閱讀
    歐洲之光!5nm,3200 TFLOPS AI<b class='flag-5'>推理</b><b class='flag-5'>芯片</b>即將量產(chǎn)

    微弱信號(hào)采集 ASIC芯片 CBM12AD1X

    ASIC芯片
    芯佰微電子
    發(fā)布于 :2025年11月28日 15:04:53

    Achronix亮相2025全球AI芯片峰會(huì)

    在近日舉行的2025全球AI芯片峰會(huì)上,Achronix Speedster7t FPGA的大模型推理平臺(tái)展示獲得眾多業(yè)界人士的積極反響。
    的頭像 發(fā)表于 09-23 18:01 ?1300次閱讀

    什么是AI模型推理能力

    NVIDIA 的數(shù)據(jù)工廠團(tuán)隊(duì)為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎(chǔ),該模型近日在 Hugging Face 的物理推理模型排行榜中位列榜首。
    的頭像 發(fā)表于 09-23 15:19 ?1269次閱讀

    NVIDIA Nemotron Nano 2推理模型發(fā)布

    NVIDIA 正式推出準(zhǔn)確、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2。
    的頭像 發(fā)表于 08-27 12:45 ?1780次閱讀
    NVIDIA Nemotron Nano 2<b class='flag-5'>推理模型</b>發(fā)布

    請(qǐng)問(wèn)如何在RK3588上使用npu,用onnx模型來(lái)推理

    請(qǐng)問(wèn)如何在瑞芯微 RK3588上使用npu,用onnx模型來(lái)推理。官網(wǎng)上介紹說(shuō)要把ONNX模型轉(zhuǎn)換成RKNN模型。但是我并不想這么干,請(qǐng)問(wèn)有什么辦法嗎?
    發(fā)表于 08-09 00:51

    螞蟻數(shù)科正式發(fā)布金融推理模型

    7月26日,以“智能時(shí)代,同球共濟(jì)”為主題的2025世界人工智能大會(huì)在上海開幕;亮點(diǎn)很多。我們看到在世界人工智能大會(huì)論壇上,螞蟻數(shù)科正式發(fā)布了金融推理模型Agentar-Fin-R1,金融推理
    的頭像 發(fā)表于 07-28 16:36 ?649次閱讀

    模型推理顯存和計(jì)算量估計(jì)方法研究

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)大模型在各個(gè)領(lǐng)域得到了廣泛應(yīng)用。然而,大模型推理過(guò)程對(duì)顯存和計(jì)算資源的需求較高,給實(shí)際應(yīng)用帶來(lái)了挑戰(zhàn)。為了解決這一問(wèn)題,本文將探討大模型
    發(fā)表于 07-03 19:43

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理的 AI 模型新引擎?

    Cloud 客戶開放,將提供 256 芯片集群以及 9,216 芯片集群兩種配置選項(xiàng)。 ? 在核心亮點(diǎn)層面,Ironwood 堪稱谷歌首款專門為 AI 推理精心設(shè)計(jì)的 TPU 芯片,
    的頭像 發(fā)表于 04-12 00:57 ?3716次閱讀

    詳解 LLM 推理模型的現(xiàn)狀

    2025年,如何提升大型語(yǔ)言模型(LLM)的推理能力成了最熱門的話題之一,大量?jī)?yōu)化推理能力的新策略開始出現(xiàn),包括擴(kuò)展推理時(shí)間計(jì)算、運(yùn)用強(qiáng)化學(xué)習(xí)、開展監(jiān)督微調(diào)和進(jìn)行提煉等。本文將深入探討
    的頭像 發(fā)表于 04-03 12:09 ?1611次閱讀
    詳解 LLM <b class='flag-5'>推理模型</b>的現(xiàn)狀

    中科馭數(shù)高性能網(wǎng)卡產(chǎn)品 成就DeepSeek推理模型網(wǎng)絡(luò)底座

    2025年初,DeepSeek-V3與DeepSeek-R1推理模型的開源引爆了AI社區(qū),這兩款產(chǎn)品作為通用千億級(jí)模型與專用推理優(yōu)化模型,為全球AI技術(shù)生態(tài)帶來(lái)重大變革,不僅
    的頭像 發(fā)表于 03-31 11:56 ?685次閱讀
    中科馭數(shù)高性能網(wǎng)卡產(chǎn)品 成就DeepSeek<b class='flag-5'>推理模型</b>網(wǎng)絡(luò)底座