91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

高通:未來幾個(gè)月有望在終端側(cè)運(yùn)行超100億參數(shù)的模型

Carol Li ? 來源:電子發(fā)燒友網(wǎng) ? 作者:李彎彎 ? 2023-07-26 00:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)日前,在2023世界半導(dǎo)體大會暨南京國際半導(dǎo)體博覽會上,高通全球副總裁孫剛發(fā)表演講時(shí)談到,目前高通能夠支持參數(shù)超過10億的模型在終端上運(yùn)行,未來幾個(gè)月內(nèi)超過100億參數(shù)的模型將有望在終端側(cè)運(yùn)行。

大模型在終端側(cè)運(yùn)行的重要性

生成式AI正在快速發(fā)展,數(shù)據(jù)顯示,2020年至2022年,生成式AI相關(guān)的投資增長425%,初步預(yù)估生成式AI市場規(guī)模將達(dá)到1萬億美元。

然而孫剛指出,云經(jīng)濟(jì)難以支持生成式AI規(guī)?;卣?,為實(shí)現(xiàn)規(guī)?;卣?,AI處理的中心正在向邊緣轉(zhuǎn)移。比如XR、汽車、手機(jī)、PC、物聯(lián)網(wǎng),生成式AI將影響各類終端上的應(yīng)用。

高通在這方面展示出了領(lǐng)先的優(yōu)勢,高通AI引擎由多個(gè)硬件和軟件組件組成,用于在驍龍移動(dòng)平臺上為終端側(cè)AI推理加速。它采用異構(gòu)計(jì)算架構(gòu),包括高通Hexagon處理器、Adreno GPU、Kryo CPU傳感器中樞,共同支持在終端上運(yùn)行AI應(yīng)用程序。

在7月初的2023年世界人工智能大會上,高通就已經(jīng)展示了全球首個(gè)在終端側(cè)運(yùn)行生成式AI(AIGC)模型Stable Diffusion的技術(shù)演示,和全球最快的終端側(cè)語言-視覺模型(LVM)ControlNet運(yùn)行演示。這兩款模型的參數(shù)量已經(jīng)達(dá)到10億-15億,僅在十幾秒內(nèi)就能夠完成一系列推理,根據(jù)輸入的文字或圖片生成全新的AI圖像。

今年7月18日,Meta官宣將發(fā)布其開源大模型LLaMA的商用版本,為初創(chuàng)企業(yè)和其他企業(yè)提供了一個(gè)強(qiáng)大的免費(fèi)選擇,以取代OpenAI和谷歌出售的昂貴的專有模型。隨后,高通發(fā)布公告稱,從2024年起,Llama 2將能在旗艦智能手機(jī)和PC上運(yùn)行。

高通技術(shù)公司高級副總裁兼邊緣云計(jì)算解決方案業(yè)務(wù)總經(jīng)理Durga Malladi表示,為了有效地將生成式人工智能推廣到主流市場,人工智能將需要同時(shí)在云端和邊緣終端(如智能手機(jī)、筆記本電腦、汽車和物聯(lián)網(wǎng)終端)上運(yùn)行。

在高通看來,和基于云端的大語言模型相比,在智能手機(jī)等設(shè)備上運(yùn)行Llama 2 等大型語言模型的邊緣云計(jì)算具有許多優(yōu)勢,不僅成本更低、性能更好,還可以在斷網(wǎng)的情況下工作,而且可以提供更個(gè)性化、更安全的AI服務(wù)。

如何讓大模型在終端規(guī)?;瘮U(kuò)展

生成式AI進(jìn)入未來生活的趨勢已經(jīng)不可阻擋,為了讓生成式AI規(guī)?;瘮U(kuò)展到更多終端設(shè)備中,高通提出了混合AI架構(gòu)的運(yùn)行方式,即在云端和設(shè)備終端的邊緣側(cè)之間分配算力,協(xié)同處理AI工作負(fù)載。

所謂混合AI,是指充分利用邊緣側(cè)終端算力支持生成式AI應(yīng)用的方式,相比僅在云端運(yùn)行的AI,前者能夠帶來高性能、個(gè)性化且更安全的體驗(yàn)。

比如,如果模型、提示或生成內(nèi)容的長度小于某個(gè)限定值,且精度足夠,推理就可以完全在終端側(cè)進(jìn)行;如果任務(wù)相對復(fù)雜,則可以部分依靠云端模型;如果需要更多實(shí)時(shí)內(nèi)容,模型也可以接入互聯(lián)網(wǎng)獲取信息。

在未來,不同的生成式AI用不同分流方式的混合AI架構(gòu),AI也能在此基礎(chǔ)上持續(xù)演進(jìn):
?大量生成式AI的應(yīng)用,比如圖像生成或文本創(chuàng)作,需求AI能夠進(jìn)行實(shí)時(shí)響應(yīng)。在這種任務(wù)上,終端可通過運(yùn)行不太復(fù)雜的推理完成大部分任務(wù)。

在AI計(jì)算的實(shí)現(xiàn)上,軟件和硬件同樣重要,因?yàn)楸仨氃诙藗?cè)做到運(yùn)算更快,效率更高,并推動(dòng)AI應(yīng)用在廣泛終端上的部署和普及。

高通在2022年6月推出AI軟件棧(Qualcomm AI Stack),其支持包括TensorFlow、Pytorch和ONNX在內(nèi)的所有主流開發(fā)框架,所有runtimes(運(yùn)行時(shí),即某門編程語言的運(yùn)行環(huán)境)和操作系統(tǒng)。借助高通AI軟件棧,開發(fā)者在智能手機(jī)領(lǐng)域開發(fā)的軟件可以快速擴(kuò)展至汽車、XR、可穿戴設(shè)備等其他產(chǎn)品線進(jìn)行使用。

高通技術(shù)公司產(chǎn)品管理高級副總裁兼AI負(fù)責(zé)人Ziad Asghar表示,未來公司需要加大終端側(cè)技術(shù)上的研發(fā),尤其是進(jìn)一步提升量化的算法。例如服務(wù)器上訓(xùn)練的模型一般采用32位浮點(diǎn)運(yùn)算(FP32),而我們在手機(jī)端現(xiàn)在能夠支持INT4計(jì)算,這能大大提高端側(cè)的處理能力。

小結(jié)

不僅僅是大模型的訓(xùn)練需要極大的算力和功耗,部署也同樣如此。如果要讓大模型在更多的領(lǐng)域?qū)崿F(xiàn)落地應(yīng)用,除了在云端部署之后,在終端側(cè)部署也很關(guān)鍵。目前已經(jīng)有諸多廠商在該領(lǐng)域進(jìn)行探索,包括高通,期待未來大模型能夠走進(jìn)人們生活的方方面面。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 高通
    +關(guān)注

    關(guān)注

    78

    文章

    7731

    瀏覽量

    199784
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    深入剖析LM9061與LM9061 - Q1側(cè)保護(hù)控制器

    深入剖析LM9061與LM9061 - Q1側(cè)保護(hù)控制器 電子設(shè)計(jì)領(lǐng)域,側(cè)保護(hù)控制器對于保障電路穩(wěn)定
    的頭像 發(fā)表于 02-28 11:05 ?128次閱讀

    如何在NVIDIA Jetson AGX Thor上部署1200參數(shù)模型

    我們將嘗試能否 Jetson AGX Thor 上部署并成功運(yùn)行高達(dá) 1,200 參數(shù)量的 gpt-oss-120b 大模型。
    的頭像 發(fā)表于 12-26 17:06 ?4817次閱讀
    如何在NVIDIA Jetson AGX Thor上部署1200<b class='flag-5'>億</b><b class='flag-5'>參數(shù)</b>大<b class='flag-5'>模型</b>

    TSC101 側(cè)電流檢測放大器:特性、參數(shù)與應(yīng)用全解析

    TSC101 側(cè)電流檢測放大器:特性、參數(shù)與應(yīng)用全解析 電子工程師的日常設(shè)計(jì)中,精確的電流檢測至關(guān)重要。今天我們來深入探討一款高性能的
    的頭像 發(fā)表于 12-25 16:10 ?326次閱讀

    廣和通發(fā)布端側(cè)情感對話大模型FiboEmo-LLM

    9月,廣和通正式發(fā)布自主研發(fā)的端側(cè)情感對話大模型FiboEmo-LLM。該模型專注于情感計(jì)算與自然語言交互融合,致力于為AI玩具、智能陪伴設(shè)備等終端場景提供“情感理解-情感響應(yīng)”一體化
    的頭像 發(fā)表于 09-26 13:37 ?1900次閱讀

    TPS1HC100-Q1智能側(cè)開關(guān)技術(shù)解析與應(yīng)用指南

    Texas Instruments TPS1HC100-Q1智能高壓側(cè)開關(guān)是一款具有全方位保護(hù)的側(cè)電源開關(guān),它集成有NMOS功率FET和電荷泵,專用于對各種負(fù)載進(jìn)行智能控制。憑借著精
    的頭像 發(fā)表于 09-25 10:19 ?726次閱讀
    TPS1HC<b class='flag-5'>100</b>-Q1智能<b class='flag-5'>高</b><b class='flag-5'>側(cè)</b>開關(guān)技術(shù)解析與應(yīng)用指南

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI的未來:提升算力還是智力

    本章節(jié)作者分析了下AI的未來在哪里,就目前而言有來那個(gè)兩種思想:①繼續(xù)增加大模型②將大模型改為小模型,并將之優(yōu)化使之與大模型性能不不相上下。
    發(fā)表于 09-14 14:04

    谷歌推出AI模型Gemma 3 270M

    過去幾個(gè)月,Gemma 開放模型系列的發(fā)展是激動(dòng)人心的。我們推出了 Gemma 3 和 Gemma 3 QAT,為單一云端和桌面加速器帶來了最先進(jìn)的性能。
    的頭像 發(fā)表于 09-11 15:09 ?1141次閱讀

    米爾RK3576部署端側(cè)多模態(tài)多輪對話,6TOPS算力驅(qū)動(dòng)30參數(shù)LLM

    2 參數(shù)模型的增量訓(xùn)練; 接入語音能力:main.cpp中集成 VAD(語音活動(dòng)檢測)+ ASR(語音識別,如 Whisper-Tiny INT8)模塊,將語音轉(zhuǎn)換為文本后接入現(xiàn)有推理流水線,實(shí)現(xiàn)
    發(fā)表于 09-05 17:25

    ALINX VD100低功耗端側(cè)模型部署方案,運(yùn)行3B模型功耗僅5W?!

    模型運(yùn)行≠用戶體驗(yàn)好。 IDC 預(yù)測,到 2026 年,全球超過 50% 的企業(yè) AI 工作負(fù)載將部署邊緣設(shè)備上。 AI 部署逐漸從云端轉(zhuǎn)向邊緣端的趨勢下,越來越多智能
    的頭像 發(fā)表于 09-03 14:58 ?723次閱讀
    ALINX VD<b class='flag-5'>100</b>低功耗端<b class='flag-5'>側(cè)</b>大<b class='flag-5'>模型</b>部署方案,<b class='flag-5'>運(yùn)行</b>3B<b class='flag-5'>模型</b>功耗僅5W?!

    浪潮信息發(fā)布&quot;元腦SD200&quot;節(jié)點(diǎn),面向萬億參數(shù)模型創(chuàng)新設(shè)計(jì)

    擴(kuò)展支持64路本土GPU芯片。元腦SD200可實(shí)現(xiàn)單機(jī)內(nèi)運(yùn)行萬億參數(shù)模型,并支持多個(gè)領(lǐng)先大模型機(jī)內(nèi)同時(shí)
    的頭像 發(fā)表于 08-08 22:17 ?675次閱讀
    浪潮信息發(fā)布&quot;元腦SD200&quot;<b class='flag-5'>超</b>節(jié)點(diǎn),面向萬億<b class='flag-5'>參數(shù)</b>大<b class='flag-5'>模型</b>創(chuàng)新設(shè)計(jì)

    AI的未來,屬于那些既能寫代碼,又能焊電路的“雙棲人才”

    的信號:AI真正的未來,不只屬于“算法天才”,更屬于那些既能寫代碼,又能焊電路的“雙棲工程師”。無論是AI芯片、智能終端、機(jī)器人、邊緣計(jì)算還是大模型下沉的討論中,我們不斷聽到同一個(gè)問
    發(fā)表于 07-30 16:15

    終于有人把端側(cè)模型說清楚了

    "端側(cè)"大模型?聊具體內(nèi)容之前,先解釋一下這個(gè)名字的由來。計(jì)算機(jī)和通信領(lǐng)域,我們通常把整個(gè)系統(tǒng)分為幾個(gè)層次:云端(Cloud):遠(yuǎn)程的數(shù)
    的頭像 發(fā)表于 07-24 12:03 ?2402次閱讀
    終于有人把端<b class='flag-5'>側(cè)</b>大<b class='flag-5'>模型</b>說清楚了

    V2板子上部署豆包模型調(diào)試指南

    我們將修改好的代碼,上傳到板子上,之后終端運(yùn)行我們的程序。板子一定要先連接Wi-Fi,再去運(yùn)行代碼否則會報(bào)錯(cuò)。 出現(xiàn)上述圖片的形式,說明代碼可以
    發(fā)表于 05-25 10:17

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    。 Neuron Studio 還支持自動(dòng)化調(diào)優(yōu)神經(jīng)網(wǎng)絡(luò)使用的帶寬及性能,開發(fā)過程中,將性能和內(nèi)存占用自動(dòng)優(yōu)化至最佳配置。而且,開發(fā)者可以全程監(jiān)控大模型演化過程。以前萬組參數(shù)手動(dòng)調(diào)優(yōu)動(dòng)輒需要一周,而現(xiàn)在
    發(fā)表于 04-13 19:52

    通推動(dòng)終端側(cè)AI釋放全新價(jià)值

    通過蒸餾技術(shù)將百億參數(shù)模型壓縮至端側(cè)設(shè)備可運(yùn)行的創(chuàng)新,讓AI推理成本大幅下降,為終端側(cè)AI的爆發(fā)按下加速鍵。低成本、
    的頭像 發(fā)表于 03-21 09:28 ?1320次閱讀
    <b class='flag-5'>高</b>通推動(dòng)<b class='flag-5'>終端</b><b class='flag-5'>側(cè)</b>AI釋放全新價(jià)值