91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

安霸生成式AI芯片解決方案助力本地處理大型語(yǔ)言模型

Ambarella安霸半導(dǎo)體 ? 來(lái)源:Ambarella安霸半導(dǎo)體 ? 2024-06-26 11:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

具有高AI性能和效率的最新SoC系統(tǒng)助力本地處理大型語(yǔ)言模型

隨著 AI 技術(shù)的不斷進(jìn)步,十年前還只能在書(shū)本和科幻電影中看到的功能,如今隨處可見(jiàn)。然而,迄今為止,對(duì)性能有著高要求的最新生成式 AI 技術(shù)應(yīng)用通常只能運(yùn)行在云端。

直到最近,生成式 AI 的主要應(yīng)用還是倚靠耗電量巨大的服務(wù)器,這些服務(wù)器的任務(wù)本是開(kāi)發(fā)和訓(xùn)練大型語(yǔ)言模型(LLM)。LLM 的出現(xiàn)本身就是一項(xiàng)突破,它只是邁出了一系列重要變革中的第一步。

目前,人們非常關(guān)注并推動(dòng)著端側(cè)大模型技術(shù)的廣泛發(fā)展,因?yàn)樵摷夹g(shù)將使生成式 AI 能夠部署到更多應(yīng)用中,獲益良多。具體來(lái)說(shuō),這些用例將大大增加生成式 AI 在智能城市、工業(yè)自動(dòng)化、機(jī)器人和智能駕駛等市場(chǎng)的端側(cè)設(shè)備中的廣泛應(yīng)用。

生成式 AI 要在前端領(lǐng)域取得成功,需要注意四要素:AI 的隱私、性能,能效和高生產(chǎn)率,這些因素決定了市場(chǎng)轉(zhuǎn)化的速度。

前端集成也有能源效率、設(shè)備微調(diào)和可靠性方面的技術(shù)挑戰(zhàn)。這些問(wèn)題本身就很棘手,因此向開(kāi)發(fā)人員提供的解決方案須兼顧性能和成本,才能克服這些障礙。

為了應(yīng)對(duì)這些相互沖突的挑戰(zhàn),定制化的芯片成為首選解決方案。

生成式AI的高能效SoC

安霸觀察到前端應(yīng)用對(duì)高能效 AI 處理器的需求,因此推出了一系列 AI SoC,適用于各種前端的生成式 AI 應(yīng)用。

在大多數(shù)用于前端應(yīng)用的高性能多模式分析用例中,第一步通常是在所有照明條件下捕獲高質(zhì)量視頻。為此,需要一個(gè)即使在低光照條件下也能提供出色圖像質(zhì)量的圖像信號(hào)處理器(ISP)。同樣,高對(duì)比度場(chǎng)景的捕捉也必須使用具有先進(jìn)的高動(dòng)態(tài)范圍(HDR)能力的處理器,這樣才能捕捉到非常清晰的細(xì)節(jié),為安防視頻分析、自主移動(dòng)機(jī)器人(AMR)和智能駕駛感知算法提供高品質(zhì)的圖像輸入,從而得到通用的解決方案。此外,通過(guò)高效的視頻編碼技術(shù),安霸的 SoC 還能以極低的碼率傳輸高分辨率的視頻流。

安霸 SoC 中的專(zhuān)有 CVflow AI 引擎,除了支持 LLM 處理外,還支持同時(shí)運(yùn)行多個(gè)神經(jīng)網(wǎng)絡(luò)(NN),在運(yùn)行各類(lèi)計(jì)算機(jī)視覺(jué)算法時(shí)維持低功耗。安霸的 Cooper 開(kāi)發(fā)者平臺(tái)包含一套功能豐富的工具,使得客戶很方便地把在PC上開(kāi)發(fā)的神經(jīng)網(wǎng)絡(luò)移植到安霸芯片平臺(tái)。

安霸的生成式 AI 芯片解決方案在模型的參數(shù)上具備高擴(kuò)展性,從支持多達(dá) 340 億個(gè)參數(shù)的多模態(tài) LLM 的 N1 系列,到支持多達(dá) 30 億個(gè)參數(shù)的較小視覺(jué)語(yǔ)言模型 (VLM) 的 CV7 系列。

如果你的應(yīng)用需要超強(qiáng)的前端處理能力,那么安霸的旗艦款 N1 系列 SoC 是最佳選擇之一。N1 可以接收多個(gè)高分辨率攝像頭數(shù)據(jù)流輸入,同時(shí)運(yùn)行多達(dá) 340 億個(gè)參數(shù)的多模態(tài) LLM,并且支持連接更多的外圍設(shè)備。N1 芯片集成了神經(jīng)向量處理器 (NVP)、高級(jí)圖像信號(hào)處理器(ISP)、16 個(gè) Arm Cortex-A78AE CPU, 以及用于 3D 用戶界面的 GPU,單顆芯片可提供高性能神經(jīng)網(wǎng)絡(luò)計(jì)算。不僅性能卓越,N1 芯片的每次推理功耗僅為業(yè)界領(lǐng)先 GPU 解決方案的一小部分。

N1 芯片非常適合為多種應(yīng)用提供生成式 AI,包括工業(yè)機(jī)器人、智慧城市、智能醫(yī)療成像和診斷、多攝像頭 AI 處理中心、運(yùn)行多模態(tài) LLM 的終端 AI 服務(wù)器以及智駕車(chē)隊(duì)遠(yuǎn)程信息處理等。設(shè)備端通過(guò)運(yùn)行多模態(tài) LLM 促進(jìn)了 生成式 AI 功能的實(shí)現(xiàn),例如對(duì)視頻和圖像輸入進(jìn)行智能上下文搜索;使用自然語(yǔ)言命令控制機(jī)器人;以及多才多藝的 AI 助手,比如代碼、文本和圖像的生成等。

雖然這些系統(tǒng)多種多樣,但它們?cè)诤艽蟪潭壬隙家蕾囉跀z像頭和自然語(yǔ)言理解的結(jié)合。在這種情況下,設(shè)備端的生成式 AI 處理可提高運(yùn)行速度和增強(qiáng)隱私保護(hù),同時(shí)降低總成本。本地處理也是特定應(yīng)用大語(yǔ)言模型處理的理想選擇,這些大語(yǔ)言模型通常在前端針對(duì)每個(gè)用例進(jìn)行微調(diào),而不是采用服務(wù)器方法,即使用更大、功耗更高的大語(yǔ)言模型來(lái)覆蓋所有用例。

N1 系列芯片基于安霸功能強(qiáng)大的第三代 CVFlow 架構(gòu)設(shè)計(jì),因此具有出色的網(wǎng)絡(luò)推理性能,廣泛兼容各類(lèi)神經(jīng)網(wǎng)絡(luò),包括多模態(tài)大模型。例如,N1 SoC 在單流模式下以低于 50 瓦的功耗運(yùn)行 Llama2-13B,每秒可推理 25 個(gè) token。結(jié)合預(yù)移植模型的易集成性,這一新型解決方案可幫助設(shè)備制造商快速將生成式 AI 部署到任何對(duì)功耗敏感的應(yīng)用中,如 AI 智能盒子、送貨機(jī)器人等產(chǎn)品。

第四要素-生產(chǎn)率

Cooper 是安霸自研的開(kāi)發(fā)者平臺(tái),提供靈活的模塊化開(kāi)發(fā)環(huán)境,可與安霸任何 AI SoC(包括 CV2,CV5, CV7 系列和 N1 系列)配合使用。它因強(qiáng)調(diào)合作而得名,適用于各種應(yīng)用,包括機(jī)器人、AIoT、汽車(chē)和消費(fèi)類(lèi)視頻設(shè)備。

是圍繞一個(gè)名為 Cooper Foundry 的軟件平臺(tái)構(gòu)建的,該開(kāi)發(fā)平臺(tái)由以下四個(gè)軟件模塊組成:

Cooper Core 核心組件:包含基于 Linux操作系統(tǒng)、編譯器和 SDK。

Cooper Foundation AI 應(yīng)用組件:用于在前端構(gòu)建和部署 ML 應(yīng)用程序

Cooper Vision 視覺(jué)感知組件:包含多模態(tài)傳感器處理和融合的構(gòu)建模塊

Cooper UX 應(yīng)用交互組件:用于分析和開(kāi)發(fā)

全面的 Cooper 開(kāi)發(fā)平臺(tái)加快了產(chǎn)品上市速度

該開(kāi)發(fā)平臺(tái)在 Cooper Metal 上運(yùn)行。Cooper Metal 是一套硬件參考板,包括高能效 AI SoC、開(kāi)發(fā)套件和模塊,它還集成了常見(jiàn)的第三方開(kāi)源軟件工具。

為了展示這些功能,安霸利用其最新的 AI SoC 在 Cooper 上開(kāi)發(fā)了一個(gè)演示系統(tǒng)。其中,安霸將業(yè)界領(lǐng)先的具有 AI 功能的 ISP 與多模態(tài)視覺(jué)語(yǔ)言模型相融合,后者還考慮到了視頻幀中的圖像數(shù)據(jù)。

作為向開(kāi)發(fā)人員提供的單獨(dú)演示的一部分,安霸使用 N1 SoC 建立了一個(gè)系統(tǒng),支持處理多達(dá) 16 個(gè)視頻流。它允許用戶使用自然語(yǔ)言搜索任何異常或不尋常事件的上下文,甚至搜索特定的內(nèi)容,如特定品牌或型號(hào)的汽車(chē)。

在 CV7 系列 SoC 的基礎(chǔ)上,可以更低功耗構(gòu)建具有 1-4 個(gè)視頻流小型系統(tǒng)。這些系統(tǒng)可運(yùn)行“CLIP”等視覺(jué)語(yǔ)言模型,整個(gè)系統(tǒng)的功耗低于 5W。

總結(jié)

生成式 AI 是一項(xiàng)變革性技術(shù),由于其處理過(guò)程通常在 GPU 上,消耗大量電能,它曾一度被局限于成本高昂的服務(wù)器中。基于安霸高效的 AI SoC 搭建的端側(cè) LLM 推理設(shè)備,其每次AI推理所需的功耗極低,領(lǐng)先行業(yè)。安霸 N1 SoC 將生成式 AI 引入終端設(shè)備和可內(nèi)部部署的硬件,應(yīng)用范圍更加廣泛,例如安防視頻分析、機(jī)器人技術(shù)和眾多工業(yè)自動(dòng)化需求。此外,與 GPU 及其他 AI 加速器相比,安霸提供了完整的 SoC 和系統(tǒng)解決方案,每生成一個(gè) token 的能效比大幅提升,可達(dá) 3 倍,并可快捷、低成本地部署。

原文標(biāo)題:生成式AI賦能前端,未來(lái)已來(lái)

文章出處:【微信公眾號(hào):Ambarella安霸半導(dǎo)體】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • soc
    soc
    +關(guān)注

    關(guān)注

    40

    文章

    4576

    瀏覽量

    229149
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39793

    瀏覽量

    301441
  • 安霸
    +關(guān)注

    關(guān)注

    3

    文章

    55

    瀏覽量

    13466

原文標(biāo)題:生成式AI賦能前端,未來(lái)已來(lái)

文章出處:【微信號(hào):AMBARELLA_AMBA,微信公眾號(hào):Ambarella安霸半導(dǎo)體】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    后摩智能M50芯片助力聯(lián)想AI Workmate概念機(jī)發(fā)布

    在MWC2026上,聯(lián)想推出AI Workmate概念機(jī),主打“工作場(chǎng)景的智能搭檔”,可通過(guò)端側(cè)AI模型本地處理語(yǔ)音控制和手勢(shì)操作。
    的頭像 發(fā)表于 03-04 10:37 ?220次閱讀

    推出開(kāi)發(fā)者社區(qū),拓展端側(cè)AI生態(tài)版圖

    開(kāi)發(fā)者社區(qū)為合作伙伴提供優(yōu)先體驗(yàn)通道,助力其在 AI SoC 及 Cooper 開(kāi)發(fā)軟件
    的頭像 發(fā)表于 01-09 08:37 ?377次閱讀
    <b class='flag-5'>安</b><b class='flag-5'>霸</b>推出開(kāi)發(fā)者社區(qū),拓展端側(cè)<b class='flag-5'>AI</b>生態(tài)版圖

    推出開(kāi)發(fā)者社區(qū)以助力部署端側(cè)AI應(yīng)用

    開(kāi)發(fā)者社區(qū)為合作伙伴提供優(yōu)先體驗(yàn)通道,助力其在 AI SoC 及 Cooper 開(kāi)發(fā)軟件
    的頭像 發(fā)表于 01-08 14:50 ?285次閱讀

    從云端到邊緣:聯(lián)發(fā)科MT8371/MT8391平臺(tái)實(shí)現(xiàn)7B大模型本地部署

    的第八代NPU提供高達(dá)7/9 TOPS算力,配備16GB大容量LPDDR5高速內(nèi)存,支持Transformer/CNN硬件加速,支持本地部署7B大語(yǔ)言模型,顯著提升生成
    發(fā)表于 12-15 16:32

    行業(yè)特定的生成 AI 能力如何形成:面向中國(guó)企業(yè)的場(chǎng)景化解決方案模型

    需要的不是一個(gè)“能對(duì)話”的模型,而是一套“能在行業(yè)場(chǎng)景中跑得通、落得下”的生成 AI 方案。 因此,“哪些
    的頭像 發(fā)表于 12-02 09:33 ?449次閱讀

    openDACS 2025 開(kāi)源EDA與芯片賽項(xiàng) 賽題七:基于大模型生成原理圖設(shè)計(jì)

    、分布數(shù)據(jù)庫(kù);(2)人工智能領(lǐng)域:AI加速芯片及人工智能軟件框架規(guī)劃;(3)CAD&CG領(lǐng)域:幾何建模、網(wǎng)格生成、結(jié)構(gòu)優(yōu)化、計(jì)算圖分割&分布
    發(fā)表于 11-13 11:49

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片到AGI芯片

    2)滲透AI的優(yōu)勢(shì) 5、大型多模態(tài)模型 多模態(tài)模型(LMM)可以被理解成大模型的更高級(jí)版本,
    發(fā)表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI的科學(xué)應(yīng)用

    是一種快速反應(yīng)能力,是直接的感知;靈感是一種通過(guò)思考和探索獲得的創(chuàng)造性想法,是一種創(chuàng)意。 AI怎么模擬直覺(jué)與靈感呢?四、AI代替人類(lèi)的假說(shuō) 這可能嗎? 用機(jī)器來(lái)生成假說(shuō): 1、直接生成
    發(fā)表于 09-17 11:45

    谷歌新一代生成AI媒體模型登陸Vertex AI平臺(tái)

    我們?cè)?Vertex AI 上推出新一代生成 AI 媒體模型: Imagen 4、Veo 3 和 Lyria 2。
    的頭像 發(fā)表于 06-18 09:56 ?1098次閱讀

    首創(chuàng)開(kāi)源架構(gòu),天璣AI開(kāi)發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    生態(tài)系統(tǒng)的系統(tǒng)性革新,更需要高效、強(qiáng)力的開(kāi)發(fā)者解決方案。為此,聯(lián)發(fā)科帶來(lái)了一站可視化智能開(kāi)發(fā)工具——天璣開(kāi)發(fā)工具集,包含AI應(yīng)用全流程開(kāi)發(fā)工具Neuron Studio,并帶來(lái)全新升級(jí)的天璣
    發(fā)表于 04-13 19:52

    在ISC West上推出下一代前端多模態(tài)AI技術(shù)

    近日,Ambarella (下稱“”,納斯達(dá)克股票代碼:AMBA, AI 視覺(jué)感知芯片公司)在美國(guó)拉斯維加斯西部防展(ISC West
    的頭像 發(fā)表于 04-03 09:57 ?910次閱讀

    英特爾酷睿Ultra處理助力亦心AI閃繪本地功能上線

    英特爾酷睿Ultra處理器支持的AI實(shí)時(shí)繪畫(huà)軟件“亦心AI閃繪”本地功能已正式上線,能夠基于本地模型
    的頭像 發(fā)表于 04-02 15:27 ?1254次閱讀

    適用于數(shù)據(jù)中心和AI時(shí)代的800G網(wǎng)絡(luò)

    隨著人工智能(AI)技術(shù)的迅猛發(fā)展,數(shù)據(jù)中心面臨著前所未有的計(jì)算和網(wǎng)絡(luò)壓力。從大語(yǔ)言模型(LLM)訓(xùn)練到生成
    發(fā)表于 03-25 17:35

    Banana Pi 發(fā)布 BPI-AI2N &amp; BPI-AI2N Carrier,助力 AI 計(jì)算與嵌入開(kāi)發(fā)

    助力 AI、智能制造和物聯(lián)網(wǎng)行業(yè)的發(fā)展。未來(lái),Banana Pi 將繼續(xù)深化與Renesas的技術(shù)合作,推動(dòng)更多高性能嵌入解決方案的落地。 ” BPI-
    發(fā)表于 03-19 17:54

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功怎么處理?

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功咋辦,試了好幾個(gè)模型壓縮了也不行,ram占用過(guò)大,有無(wú)解決方案?
    發(fā)表于 03-11 07:18