91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Llama 3 王者歸來(lái),Airbox 率先支持部署

算能開發(fā)者社區(qū) ? 2024-04-22 08:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前天,智算領(lǐng)域迎來(lái)一則令人振奮的消息:Meta 正式發(fā)布了備受期待的開源大模型——Llama 3。

ed9ee800-003f-11ef-9118-92fbcf53809c.png

Llama 3 的卓越性能

Meta 表示,Llama 3 在多個(gè)關(guān)鍵基準(zhǔn)測(cè)試中展現(xiàn)出卓越性能,超越了業(yè)內(nèi)先進(jìn)的同類模型。無(wú)論是在代碼生成、復(fù)雜推理,還是在遵循指令和可視化想法方面,Llama 3 都實(shí)現(xiàn)了全面領(lǐng)先。該模型在以下五個(gè)基準(zhǔn)測(cè)試中均表現(xiàn)出色:

MMLU(學(xué)科知識(shí)理解)

GPQA(一般問(wèn)題解答)

HumanEval(代碼能力)

GSM-8K(數(shù)學(xué)能力)

MATH(高難度數(shù)學(xué)問(wèn)題)

無(wú)論是 8B 規(guī)格的 Llama3 還是 70B 規(guī)格,它們都較市場(chǎng)上其他優(yōu)秀大模型表現(xiàn)更佳。

edb0b3c8-003f-11ef-9118-92fbcf53809c.png

縱向?qū)Ρ蕊@示,Llama 3 的性能大幅領(lǐng)先于前代產(chǎn)品 Llama 2,尤其是在 8B 規(guī)格上,遠(yuǎn)超過(guò) Llama 2 時(shí)代的 13B 和 70B 規(guī)格;新的 70B 規(guī)格更是展現(xiàn)出與 GPT-4 早期版本相媲美的能力。

指令調(diào)優(yōu)模型

Benchmark

Llama 3

8B

Llama 2

7B

Llama 2

13B

Llama 3

70B

Llama 2

70B

MMLU

(5-shot)

68.434.147.88252.9

GPQA

(0-shot)

34.221.722.339.521

HumanEval

(0-shot)

62.27.91481.725.6

GSM-8K

(8-shot, CoT)

79.625.777.49357.5

MATH

(4-shot, CoT)

303.86.750.411.6

瑞莎 Airbox 快速支持 Llama 3

面對(duì) Llama 3 如此激動(dòng)人心的性能,Airbox 團(tuán)隊(duì)積極響應(yīng),快速將 Llama 8B 移植并成功在 Airbox 上運(yùn)行。以下視頻展示了 Llama 8B 在 Airbox 上的運(yùn)行情況:


(注:Llama 3 8B 知識(shí)更新到 2023 年 3 月)

可以看到,Llama 3 8B 在 Airbox 上的運(yùn)行表現(xiàn)極為流暢,達(dá)到了 9.6 token/s 的處理速度,已充分展現(xiàn)出其實(shí)用價(jià)值。與其他應(yīng)用結(jié)合使用時(shí),更開辟了廣闊的應(yīng)用前景和創(chuàng)新可能性。Airbox 團(tuán)隊(duì)后續(xù)會(huì)對(duì) Llama 3 8B 做更多測(cè)試并公布結(jié)果。

關(guān)于瑞莎 Fogwise Airbox

瑞莎智算盒子 Fogwise Airbox 是一款面向側(cè)端生成式智算的邊緣計(jì)算微型服務(wù)器,基于算能最新專為生成式智算打造的 SG2300X 處理器設(shè)計(jì),具有開箱即用,本地離線部署,注重?cái)?shù)據(jù)隱私,多精度支持,高能效比,高性價(jià)比,系統(tǒng)/文檔/工具鏈開源等特點(diǎn),是當(dāng)前為數(shù)不多甚至是唯一的低成本在邊緣側(cè)部署生成式智算的方案。

瑞莎 Fogwise Airbox 現(xiàn)已準(zhǔn)備就緒,即將在近期發(fā)售,敬請(qǐng)期待。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 基準(zhǔn)測(cè)試
    +關(guān)注

    關(guān)注

    0

    文章

    21

    瀏覽量

    7801
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    4203

    瀏覽量

    46109
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3647

    瀏覽量

    5176
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何在Arm Neoverse N2平臺(tái)上提升llama.cpp擴(kuò)展性能

    跨 NUMA 內(nèi)存訪問(wèn)可能會(huì)限制 llama.cpp 在 Arm Neoverse 平臺(tái)上的擴(kuò)展能力。本文將為你詳細(xì)分析這一問(wèn)題,并通過(guò)引入原型驗(yàn)證補(bǔ)丁來(lái)加以解決。測(cè)試結(jié)果表明,在基于 Neoverse N2 平臺(tái)的系統(tǒng)上運(yùn)行 llama3_Q4_0 模型時(shí),該補(bǔ)丁可使文
    的頭像 發(fā)表于 02-11 10:06 ?163次閱讀

    從云端到邊緣:聯(lián)發(fā)科MT8371/MT8391平臺(tái)實(shí)現(xiàn)7B大模型本地部署

    :16GB LPDDR5高速內(nèi)存,支持本地部署DeepSeek、Llama、Gemini等7B大語(yǔ)言開源模型。 ? 多媒體:支持4K/5K超寬顯示、雙ISP架構(gòu)及多路FHD攝像頭接入
    發(fā)表于 12-15 16:32

    【CIE全國(guó)RISC-V創(chuàng)新應(yīng)用大賽】基于 K1 AI CPU 的大模型部署落地

    的 落地方案 : 1. 系統(tǒng)部署方案書 (System Proposal) 方案要點(diǎn) 部署工具 :使用官方提供的 spacemit-llama.cpp (v0.0.4) 二進(jìn)制包。 模型策略 :采用
    發(fā)表于 11-27 14:43

    泰凌微電子多系列SoC率先支持Zigbee 4.0標(biāo)準(zhǔn) 助力更高效的連接

    連接標(biāo)準(zhǔn)聯(lián)盟最新發(fā)布的Zigbee 4.0標(biāo)準(zhǔn),為低功耗物聯(lián)網(wǎng)連接帶來(lái)了全新升級(jí)!泰凌微電子迅速響應(yīng),旗下TLSR9、TL3、TL7系列SoC已率先實(shí)現(xiàn)對(duì)該標(biāo)準(zhǔn)的支持,以硬核技術(shù)助力智能家居、工業(yè)物
    的頭像 發(fā)表于 11-24 14:31 ?3069次閱讀

    NVIDIA ACE現(xiàn)已支持開源Qwen3-8B小語(yǔ)言模型

    為助力打造實(shí)時(shí)、動(dòng)態(tài)的 NPC 游戲角色,NVIDIA ACE 現(xiàn)已支持開源 Qwen3-8B 小語(yǔ)言模型(SLM),可實(shí)現(xiàn) PC 游戲中的本地部署。
    的頭像 發(fā)表于 10-29 16:59 ?1220次閱讀

    全新蔚來(lái)ES8屏幕配置解析

    8月21日,第三代全新蔚來(lái)ES8閃亮登場(chǎng),歷經(jīng)7年積累進(jìn)化,以“王者歸來(lái)”之勢(shì),引領(lǐng)豪華大三排SUV進(jìn)入純電時(shí)代。
    的頭像 發(fā)表于 08-22 16:45 ?1553次閱讀

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】3、開源大語(yǔ)言模型部署

    1、ollama平臺(tái)搭建 ollama可以快速地部署開源大模型,網(wǎng)址為https://ollama.com, 試用該平臺(tái),可以在多平臺(tái)上部署 Deepseek-R1, Qwen3, Llama
    發(fā)表于 07-19 15:45

    Say Hi to ERNIE!Imagination GPU率先完成文心大模型的端側(cè)部署

    ImaginationTechnologies宣布率先完成百度文心大模型(ERNIE4.5開源版)在其GPU硬件上的端側(cè)部署。適配完成后,開發(fā)者可在搭載ImaginationGPU的設(shè)備上實(shí)現(xiàn)高效
    的頭像 發(fā)表于 07-01 08:17 ?970次閱讀
    Say Hi to ERNIE!Imagination GPU<b class='flag-5'>率先</b>完成文心大模型的端側(cè)<b class='flag-5'>部署</b>

    使用 NPU 插件對(duì)量化的 Llama 3.1 8b 模型進(jìn)行推理時(shí)出現(xiàn)“從 __Int64 轉(zhuǎn)換為無(wú)符號(hào) int 的錯(cuò)誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    MediaTek天璣9400率先完成阿里Qwen3模型部署

    通義大模型團(tuán)隊(duì)在天璣 9400 旗艦移動(dòng)平臺(tái)上率先完成 Qwen3(千問(wèn) 3)的端側(cè)部署。未來(lái),搭載天璣 9400 移動(dòng)平臺(tái)的設(shè)備可充分發(fā)揮端側(cè) AI 性能潛力,運(yùn)行千問(wèn)
    的頭像 發(fā)表于 05-08 10:11 ?1292次閱讀

    摩爾線程GPU率先支持Qwen3全系列模型

    近日,阿里云正式發(fā)布Qwen3系列的8款開源混合推理模型。摩爾線程團(tuán)隊(duì)在模型發(fā)布當(dāng)天,率先完成了Qwen3全系列模型在全功能GPU上的高效支持。這一成果充分展現(xiàn)了MUSA架構(gòu)及全功能G
    的頭像 發(fā)表于 05-07 15:24 ?1011次閱讀

    壁仞科技完成阿里巴巴通義千問(wèn)Qwen3全系列模型支持

    4月29日,阿里巴巴通義千問(wèn)發(fā)布并開源8款新版Qwen3系列“混合推理模型”(簡(jiǎn)稱“Qwen3”)。Qwen3發(fā)布后數(shù)小時(shí)內(nèi),壁仞科技完成全系列支持,并
    的頭像 發(fā)表于 04-30 15:19 ?1572次閱讀

    《AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》閱讀心得3——RAG架構(gòu)與部署本地知識(shí)庫(kù)

    實(shí)踐RAG技術(shù)的開發(fā)者來(lái)說(shuō)是非常有價(jià)值的參考。 本人由于時(shí)間關(guān)系暫時(shí)騰不出太多時(shí)間投入實(shí)際部署本地知識(shí)庫(kù),并且考慮到這本書成書是在去年,書中提到的例子是利用Llama3,而當(dāng)下可以考慮
    發(fā)表于 03-07 19:49

    yolov5轉(zhuǎn)onnx在cubeAI進(jìn)行部署部署失敗的原因?

    第一個(gè)我是轉(zhuǎn)onnx時(shí) 想把權(quán)重文件變小點(diǎn) 就用了半精度 --half,則說(shuō)17版本不支持半精度 后面則是沒(méi)有縮小的單精度 但是顯示哪里溢出了···· 也不說(shuō)是哪里、、。。。 到底能不能部署yolov5這種東西???? 也沒(méi)看見(jiàn)幾個(gè)部署
    發(fā)表于 03-07 11:38

    AI SoC # 愛(ài)芯元智AX650N詳細(xì)介紹:原生支持Transformer架構(gòu)模型 適用部署DeepSeek R1

    和 18TOPs@INT8 ,原生支持Transformer架構(gòu)模型,適用于CNN、LLM(如DeepSeek、Llama3、Qwen2.5)及多模態(tài)大模型(VLM)部署部署De
    的頭像 發(fā)表于 03-04 11:15 ?8972次閱讀
    AI SoC # 愛(ài)芯元智AX650N詳細(xì)介紹:原生<b class='flag-5'>支持</b>Transformer架構(gòu)模型 適用<b class='flag-5'>部署</b>DeepSeek R1