91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

廣和通成功部署DeepSeek-R1-0528-Qwen3-8B模型

廣和通FIBOCOM ? 來源:廣和通FIBOCOM ? 2025-09-26 13:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

廣和通要聞

近日,廣和通在MediaTek MT8893平臺(tái)上成功部署并運(yùn)行了DeepSeek-R1-0528-Qwen3-8B模型,顯著提升了端側(cè)AI設(shè)備的處理效率與智能化水平,特別是在本地化復(fù)雜文本處理的智能會(huì)議場(chǎng)景中表現(xiàn)出色。本次部署采用動(dòng)態(tài)控制思維鏈輸出的創(chuàng)新方式,通過實(shí)現(xiàn)思維鏈思考過程與輸出結(jié)果解耦的技術(shù)路徑,在確保模型快速輸出結(jié)果的同時(shí),使模型仍能進(jìn)行深度邏輯推理。

依托MT8893的4nm工藝與第七代APU能效優(yōu)化,以及Qwen3-8B蒸餾模型的輕量化優(yōu)勢(shì),本方案在提升推理能力的同時(shí)有效降低了功耗,使終端具備低能耗、低發(fā)熱與長(zhǎng)時(shí)間穩(wěn)定運(yùn)行的特性,提供了更加可靠與高效的使用體驗(yàn)。

聯(lián)發(fā)科技的MT8893芯片是專為邊緣AI計(jì)算設(shè)計(jì)的高性能平臺(tái),擁有八大核的CPU運(yùn)算能力、高效的能耗控制以及對(duì)AI工作負(fù)載的專門優(yōu)化,廣泛適用于需要實(shí)時(shí)處理的端側(cè)AI場(chǎng)景。MT8893集成48 TOPS的NPU,能夠高效執(zhí)行復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,為像DeepSeek-R1-0528-Qwen3-8B這樣的大模型提供充足的算力支持。在廣和通的優(yōu)化下,MT8893平臺(tái)確保DeepSeek-R1-0528-Qwen3-8B模型在智能會(huì)議機(jī)等設(shè)備上流暢運(yùn)行,實(shí)現(xiàn)低延遲、高精度、低功耗的語(yǔ)音轉(zhuǎn)寫和內(nèi)容摘要生成。

DeepSeek-R1-0528是深度求索(DeepSeek)在2025年5月28日發(fā)布的最新升級(jí)版本。該模型基于2024年12月發(fā)布的DeepSeek V3 Base模型,在后訓(xùn)練過程中投入了更多算力,顯著提升了模型的思維深度與推理能力。其在數(shù)學(xué)、編程與通用邏輯等多個(gè)基準(zhǔn)測(cè)評(píng)中取得了優(yōu)異成績(jī),整體表現(xiàn)接近國(guó)際頂尖模型。在此基礎(chǔ)上,DeepSeek 還基于 R1-0528 的思維鏈訓(xùn)練推出了DeepSeek-R1-0528-Qwen3-8B蒸餾模型。該模型以Qwen3-8B Base為底座,在AIME 2024 數(shù)學(xué)測(cè)試中的準(zhǔn)確率相比原始Qwen3-8B 提升約 10%,整體表現(xiàn)接近Qwen3-235B,僅次于DeepSeek-R1-0528本體,非常適合端側(cè)設(shè)備部署,為會(huì)議紀(jì)要生成、文本摘要和多語(yǔ)言交互等應(yīng)用提供了兼顧高性能與高效率的解決方案。

搭載了DeepSeek-R1-0528-Qwen3-8B模型的廣和通AI解決方案將為智能會(huì)議機(jī)帶來全新的體驗(yàn)。DeepSeek-R1-0528模型強(qiáng)大的自然語(yǔ)言處理能力,能夠?qū)崟r(shí)、準(zhǔn)確地進(jìn)行語(yǔ)音精準(zhǔn)識(shí)別和轉(zhuǎn)寫,并快速生成會(huì)議紀(jì)要摘要,大大提升了會(huì)議效率。結(jié)合廣和通在AI語(yǔ)音解決方案方面的技術(shù)積累,其AI語(yǔ)音方案具備強(qiáng)抗噪性、離線理解力,助力會(huì)議機(jī)實(shí)現(xiàn)更自然的多語(yǔ)言語(yǔ)音交互,適用于跨國(guó)企業(yè)或多語(yǔ)種會(huì)議環(huán)境。雖然DeepSeek-R1-0528-Qwen3-8B關(guān)閉了中間思考過程的輸出以提升響應(yīng)速度,但模型保留了完整的思維鏈,確保了其在處理復(fù)雜邏輯和生成高質(zhì)量文本時(shí)的深度和準(zhǔn)確性。

本次廣和通在MT8893平臺(tái)成功部署DeepSeek-R1-0528-Qwen3-8B模型,并針對(duì)智能會(huì)議機(jī)等場(chǎng)景優(yōu)化,體現(xiàn)了其軟硬件一體化的全棧式解決方案能力。端側(cè)AI正加速滲透千行百業(yè)。廣和通持續(xù)攜手AI合作伙伴,推動(dòng)大模型在邊緣側(cè)的高效部署,讓智能終端擁有思考能力。

廣和通始創(chuàng)于1999年,是中國(guó)首家上市的無線通信模組企業(yè)(股票代碼:300638)。作為全球領(lǐng)先的無線通信模組和AI解決方案提供商,廣和通以無線通信與人工智能為技術(shù)底座,提供軟硬件一體、賦能行業(yè)應(yīng)用的全棧式解決方案,加速千行百業(yè)從“萬物互聯(lián)”到“萬物智聯(lián)”。

廣和通全棧式解決方案覆蓋AIoT模組、AI模型、智能體、全球資費(fèi)和云服務(wù),助力智能機(jī)器人、消費(fèi)電子、低空經(jīng)濟(jì)、智能駕駛、智慧零售、智慧能源等行業(yè)數(shù)智化升級(jí)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3751

    瀏覽量

    52093
  • Mediatek
    +關(guān)注

    關(guān)注

    0

    文章

    359

    瀏覽量

    24945
  • 廣和通
    +關(guān)注

    關(guān)注

    4

    文章

    849

    瀏覽量

    14563

原文標(biāo)題:廣和通成功在MediaTek MT8893上部署DeepSeek-R1-0528-Qwen3-8B模型,全面提升終端推理能力

文章出處:【微信號(hào):Fibocom,微信公眾號(hào):廣和通FIBOCOM】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    百度騰訊搶灘布局!DeepSeek-R1升級(jí)和開源背后,國(guó)產(chǎn)AI的逆襲之路

    最為顯著 ? DeepSeek-R1-0528仍然以2024年12月發(fā)布的DeepSeek V3 Base模型為基座,通過在后訓(xùn)練過程中投入更多算力,顯著提升了
    的頭像 發(fā)表于 06-03 06:34 ?6183次閱讀

    NVIDIA ACE現(xiàn)已支持開源Qwen3-8B小語(yǔ)言模型

    為助力打造實(shí)時(shí)、動(dòng)態(tài)的 NPC 游戲角色,NVIDIA ACE 現(xiàn)已支持開源 Qwen3-8B 小語(yǔ)言模型(SLM),可實(shí)現(xiàn) PC 游戲中的本地部署。
    的頭像 發(fā)表于 10-29 16:59 ?1223次閱讀

    阿里通義千問發(fā)布小尺寸模型Qwen3-4B,手機(jī)也能跑

    電子發(fā)燒友網(wǎng)綜合報(bào)道 8月7日,阿里通義千問宣布發(fā)布更小尺寸新模型——Qwen3-4B-Instruct-2507和Qwen3-4B-Thinking-2507。目前新
    的頭像 發(fā)表于 08-12 17:15 ?6706次閱讀
    阿里通義千問發(fā)布小尺寸<b class='flag-5'>模型</b><b class='flag-5'>Qwen3-4B</b>,手機(jī)也能跑

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】3、開源大語(yǔ)言模型部署

    1、ollama平臺(tái)搭建 ollama可以快速地部署開源大模型,網(wǎng)址為https://ollama.com, 試用該平臺(tái),可以在多平臺(tái)上部署 Dee
    發(fā)表于 07-19 15:45

    超低延時(shí)重構(gòu)AI推理體驗(yàn)!白山云發(fā)布“大模型API”產(chǎn)品

    白山云科技正式發(fā)布“大模型API”產(chǎn)品,首發(fā)上線DeepSeek-R1-0528、DeepSeek-R1-0528-Qwen3-8B、Qwen3-32B-FP8等大語(yǔ)言
    的頭像 發(fā)表于 07-02 17:26 ?1135次閱讀
    超低延時(shí)重構(gòu)AI推理體驗(yàn)!白山云發(fā)布“大<b class='flag-5'>模型</b>API”產(chǎn)品

    DeepSeek開源新版R1 媲美OpenAI o3

    ;還有一些網(wǎng)友的實(shí)測(cè)評(píng)價(jià)都顯示,?DeepSeek新版R1 的性能可以媲美OpenAI最新的o3模型高版本。妥妥的超高性價(jià)比的平替。 此外,關(guān)于De
    的頭像 發(fā)表于 05-29 11:23 ?1101次閱讀

    NVIDIA RTX 5880 Ada與Qwen3系列模型實(shí)測(cè)報(bào)告

    全場(chǎng)景的 AI 模型矩陣。其中旗艦模型 Qwen3-235B-A22B 在代碼、數(shù)學(xué)及通用能力基準(zhǔn)測(cè)試中,展現(xiàn)出與 DeepSeek-R1、OpenAI-o
    的頭像 發(fā)表于 05-09 15:05 ?4345次閱讀
    NVIDIA RTX 5880 Ada與<b class='flag-5'>Qwen3</b>系列<b class='flag-5'>模型</b>實(shí)測(cè)報(bào)告

    壁仞科技完成阿里巴巴通義千問Qwen3全系列模型支持

    ,Qwen3部署成本大幅下降 Qwen3包括兩款混合專家(MoE)模型Qwen3-235B-A22BQ
    的頭像 發(fā)表于 04-30 15:19 ?1575次閱讀

    【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】CPU部署DeekSeek-R1模型1B和7B

    ://ollama.com/install.sh | sh 命令輸出如下: 2.3 ollama下載模型 安裝好了ollama之后,我們就可以使用ollama下載deepseek-r1:1.5b
    發(fā)表于 04-21 00:39

    DeepSeek R1模型本地部署與產(chǎn)品接入實(shí)操

    針對(duì)VS680/SL1680系列大算力芯片,我們的研發(fā)團(tuán)隊(duì)正在研究將蒸餾后的輕量級(jí)DeepSeek模型DeepSeek-R1-Distill-Qwen-1.5B部署到SOC本地,以
    的頭像 發(fā)表于 04-19 16:32 ?756次閱讀
    <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b><b class='flag-5'>模型</b>本地<b class='flag-5'>部署</b>與產(chǎn)品接入實(shí)操

    SL1680 SoC本地運(yùn)行DeepSeek R1 1.5B模型

    深蕾半導(dǎo)體SL1680 SoC本地成功運(yùn)行DeepSeek R1 Distill Qwen2.5 1.5B
    的頭像 發(fā)表于 04-17 17:09 ?932次閱讀
    SL1680 SoC本地運(yùn)行<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b> 1.5<b class='flag-5'>B</b>大<b class='flag-5'>模型</b>

    ORinNano離線部署Deepseek R1模型教程

    ORinNano離線部署Deepseek R1模型教程
    的頭像 發(fā)表于 04-10 15:32 ?1344次閱讀
    ORinNano離線<b class='flag-5'>部署</b><b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>教程

    南京市政務(wù)云基于華為云Stack成功部署DeepSeek滿血版大模型

    近期,南京市政務(wù)云基于華為云Stack成功部署上線滿血版DeepSeek-R1-671B,實(shí)現(xiàn)了“南京+DeepSeek滿血版”的人工智能政務(wù)應(yīng)用一體化賦能升級(jí)。
    的頭像 發(fā)表于 03-31 09:30 ?1001次閱讀

    Deepseek移植到i.MX 8MP|93 EVK的步驟

    /lib/ c. 在 huggingface 上獲取 DeepSeek 模型 例如:下載 深度搜索-R1-蒸餾-QWEN-1.5B-q4_k_m.gguf
    發(fā)表于 03-26 06:08

    【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】DeepSeek 部署及測(cè)試

    /DeepSeek-R1-Distill-Qwen-1.5B_Demo/Readme.md 文檔)即可實(shí)現(xiàn) DeepSeek 部署。 這里使用瑞芯微轉(zhuǎn)換好的 rkllm 進(jìn)行推演。 倉(cāng)庫(kù)下載 克隆 rknn-llm 倉(cāng)庫(kù)
    發(fā)表于 03-21 19:31