91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

8G顯存一鍵訓(xùn)練,解鎖Llama2隱藏能力!XTuner帶你玩轉(zhuǎn)大模型

jf_pmFSk4VX ? 來(lái)源:GiantPandaCV ? 2023-09-04 16:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自 ChatGPT 發(fā)布以來(lái),大模型的強(qiáng)大讓人們看見(jiàn)了通用人工智能的曙光,各個(gè)科技大廠也紛紛開(kāi)源自家的大語(yǔ)言模型。然而,大模型也意味著高昂的硬件成本,讓不少平民玩家望而卻步。

為了讓大模型走入千家萬(wàn)戶,賦能百業(yè),上海人工智能實(shí)驗(yàn)室開(kāi)發(fā)了低成本大模型訓(xùn)練工具箱 XTuner,旨在讓大模型訓(xùn)練不再有門檻。通過(guò) XTuner,最低只需 8GB 顯存,就可以打造專屬于你的 AI 助手。

X 種選擇

a60b02ea-49aa-11ee-97a6-92fbcf53809c.png

XTuner 提供了豐富的功能,上圖中的各項(xiàng)功能都可以隨意組合搭配。

除單點(diǎn)功能外,XTuner 還有以下三個(gè)黑科技,讓開(kāi)發(fā)者可以做到真正的“面向數(shù)據(jù)”工作。

高效的數(shù)據(jù)引擎

XTuner 適配了多個(gè)熱門開(kāi)源數(shù)據(jù)集格式,開(kāi)發(fā)者如已有對(duì)應(yīng)格式的數(shù)據(jù)集,可以直接使用,并支持多種格式數(shù)據(jù)源的混合使用:

Alpaca 格式,斯坦福大學(xué)開(kāi)源數(shù)據(jù)集的格式,也是社區(qū)開(kāi)源項(xiàng)目使用較多的一種格式

MOSS 格式,復(fù)旦大學(xué)開(kāi)源指令微調(diào)數(shù)據(jù)集的格式,包含多輪對(duì)話和工具調(diào)用

Gunacao 格式,QLoRA 項(xiàng)目中所使用數(shù)據(jù)集的格式

OpenAI 格式,GPT-3.5-Turbo Finetune 接口要求的數(shù)據(jù)集格式

更多數(shù)據(jù)集格式正在持續(xù)添加中......

pip install xtuner # 訓(xùn)練混合了 Alpaca 格式和 Gunacao 格式的數(shù)據(jù) xtuner train internlm_7b_qlora_alpaca_enzh_oasst1_e3

除了支持多種數(shù)據(jù)集格式外,XTuner 還針對(duì)大語(yǔ)言模型數(shù)據(jù)的特點(diǎn),對(duì)各種數(shù)據(jù)集格式做了充分的解耦,相較于其他的 Finetune 開(kāi)源項(xiàng)目,可以在不破壞 Chat 模型對(duì)話模版的情況下,對(duì) Chat 模型進(jìn)行 Finetune。

pip install xtuner # 不破壞 Chat 模型對(duì)話模版,繼續(xù)增量指令微調(diào) xtuner train internlm_chat_7b_qlora_oasst1_e3

針對(duì) GPU 計(jì)算特點(diǎn),在顯存允許的情況下,XTuner 支持將多條短數(shù)據(jù)拼接至模型最大輸入長(zhǎng)度,以此最大化 GPU 計(jì)算核心的利用率,可以顯著提升訓(xùn)練速度。例如,在使用 oasst1 數(shù)據(jù)集微調(diào) Llama2-7B 時(shí),數(shù)據(jù)拼接后的訓(xùn)練時(shí)長(zhǎng)僅為普通訓(xùn)練的 50%。

多種訓(xùn)練引擎

XTuner 首次嘗試將 HuggingFace 與 OpenMMLab 進(jìn)行結(jié)合,兼顧易用性和可配置性。支持使用 MMEngine Runner 和 HuggingFace Trainer 兩種訓(xùn)練引擎,開(kāi)發(fā)者如有深度定制化需求,可根據(jù)使用習(xí)慣靈活配置。

pip install xtuner # 使用 MMEngine Runner 訓(xùn)練 xtuner train internlm_7b_qlora_oasst1_e3 # 使用 HugingFace Trainer 訓(xùn)練 xtuner train internlm_7b_qlora_oasst1_e3_hf

一鍵啟動(dòng)訓(xùn)練

XTuner 內(nèi)置了增量預(yù)訓(xùn)練、單輪&多輪對(duì)話指令微調(diào)、工具類指令微調(diào)的標(biāo)準(zhǔn)化流程,讓開(kāi)發(fā)者只需聚焦于數(shù)據(jù)本身。

同時(shí), XTuner 集成了 QLoRA、DeepSpeed 和 FSDP 等技術(shù),提供各種尺寸模型在各種規(guī)格硬件下的訓(xùn)練解決方案,通過(guò) XTuner 一鍵式啟動(dòng)訓(xùn)練,僅需 8GB 顯存即可微調(diào) 7B 模型。

pip install 'xtuner[deepspeed]' # 8G 顯存微調(diào) Llama2-7B xtuner train llama2_7b_qlora_oasst1_512_e3 --deepspeed deepspeed_zero2

基于此,開(kāi)發(fā)者可以專注于數(shù)據(jù),其他環(huán)節(jié)放心交給 XTuner,抽出更多精力去奔向大模型的星辰大海!

X 種玩法

通過(guò) XTuner,開(kāi)發(fā)者可以給大模型添加插件,補(bǔ)足大模型欠缺的能力,甚至獲得某些 ChatGPT 才有的技能。

XTuner 在 HuggingFace Hub 上提供了豐富的大模型插件,以下示例都可以在 Hub 中找到,歡迎大家下載體驗(yàn)!

ColoristLlama -- 你的專屬調(diào)色師

通過(guò)在少量顏色注釋數(shù)據(jù)集上對(duì) Llama2-7B 進(jìn)行指令微調(diào)訓(xùn)練,XTuner 成功解鎖了其調(diào)色能力。最終得到的模型甚至可以像“你的甲方”一樣反復(fù)修訂!

a65a773a-49aa-11ee-97a6-92fbcf53809c.gif

a6751fd6-49aa-11ee-97a6-92fbcf53809c.gif

pip install xtuner xtuner chat hf meta-llama/Llama-2-7b-hf --adapter xtuner/Llama-2-7b-qlora-colorist --prompt-template colorist

Llama "聯(lián)網(wǎng)" -- 更可靠及時(shí)的回答

借助 XTuner 及插件開(kāi)源數(shù)據(jù)集,我們還解鎖了 Llama 2、QWen 等開(kāi)源模型的隱藏能力, 使其可以像 ChatGPT 一樣聯(lián)網(wǎng)搜索、調(diào)用工具,獲得更可靠的回復(fù)。

a68d9408-49aa-11ee-97a6-92fbcf53809c.gif

a6cac03a-49aa-11ee-97a6-92fbcf53809c.gif

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5194

    瀏覽量

    135467
  • 顯存
    +關(guān)注

    關(guān)注

    0

    文章

    112

    瀏覽量

    14094
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3650

    瀏覽量

    5186

原文標(biāo)題:8G顯存一鍵訓(xùn)練,解鎖Llama2隱藏能力!XTuner帶你玩轉(zhuǎn)大模型

文章出處:【微信號(hào):GiantPandaCV,微信公眾號(hào):GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    DP1323EL的電動(dòng)車解鎖方案:超高速讀寫(xiě),提升電動(dòng)車一鍵解鎖體驗(yàn)

    在快節(jié)奏的都市生活中,電動(dòng)車已成為許多人的首選出行工具。然而,傳統(tǒng)的機(jī)械鑰匙往往帶來(lái)諸多不便:容易丟失、操作繁瑣,甚至在雨天或匆忙時(shí)成為負(fù)擔(dān)。 ? ? 隨著物聯(lián)網(wǎng)和智能科技的快速發(fā)展,一鍵解鎖方案
    的頭像 發(fā)表于 12-05 18:06 ?1875次閱讀

    【CIE全國(guó)RISC-V創(chuàng)新應(yīng)用大賽】基于 K1 AI CPU 的大模型部署落地

    代碼與步驟 項(xiàng)目結(jié)構(gòu) /contest_14b ├── spacemit-llama.cpp.riscv64.0.0.4/ (官方工具) ├── run_contest.sh(一鍵啟動(dòng)
    發(fā)表于 11-27 14:43

    RA8P1部署ai模型指南:從訓(xùn)練模型到部署?|?本周六

    在嵌入式邊緣AI中,如何把“訓(xùn)練好的模型”穩(wěn)定地“跑在板子上”,決定了項(xiàng)目能否落地。我們帶你基于RA8P1平臺(tái),跑通從數(shù)據(jù)準(zhǔn)備、模型
    的頭像 發(fā)表于 11-20 18:06 ?2086次閱讀
    RA<b class='flag-5'>8</b>P1部署ai<b class='flag-5'>模型</b>指南:從<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>模型</b>到部署?|?本周六

    基于DP1323EL的電動(dòng)車解鎖方案:超高速讀寫(xiě),提升電動(dòng)車一鍵解鎖體驗(yàn)

    發(fā)展,一鍵解鎖方案應(yīng)運(yùn)而生。其中,手機(jī)APP藍(lán)牙解鎖和NFC刷卡解鎖作為兩大主流方式,不僅實(shí)現(xiàn)了無(wú)鑰匙操作,還提升了車輛的安全性和智能化水平。 1.方案介紹 藍(lán)牙
    的頭像 發(fā)表于 11-10 18:06 ?1372次閱讀

    基于DP1323EL的電動(dòng)車解鎖方案:超高速讀寫(xiě),提升電動(dòng)車一鍵解鎖體驗(yàn)

    及各類非接觸式應(yīng)用設(shè)備。 電動(dòng)車一鍵解鎖方案通過(guò)“手機(jī)APP藍(lán)牙 + 刷卡”雙模設(shè)計(jì),不僅讓用戶在不同場(chǎng)景下都能便捷、安全地開(kāi)鎖,同時(shí)大幅提升了整車的智能化體驗(yàn)。藍(lán)牙模塊提供遠(yuǎn)程管理與身份認(rèn)證能力
    發(fā)表于 11-10 17:45

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型些經(jīng)驗(yàn)。我們采用jupyter notebook作為開(kāi)發(fā)IDE,以TensorFlow2
    發(fā)表于 10-22 07:03

    借助NVIDIA Megatron-Core大模型訓(xùn)練框架提高顯存使用效率

    隨著模型規(guī)模邁入百億、千億甚至萬(wàn)億參數(shù)級(jí)別,如何在有限顯存中“塞下”訓(xùn)練任務(wù),對(duì)研發(fā)和運(yùn)維團(tuán)隊(duì)都是巨大挑戰(zhàn)。NVIDIA Megatron-Core 作為流行的大模型
    的頭像 發(fā)表于 10-21 10:55 ?1157次閱讀
    借助NVIDIA Megatron-Core大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>框架提高<b class='flag-5'>顯存</b>使用效率

    代超大模型訓(xùn)練引擎XTuner V1開(kāi)源

    9月8日,上海人工智能實(shí)驗(yàn)室(上海AI實(shí)驗(yàn)室)開(kāi)源書(shū)生大模型訓(xùn)練引擎XTuner V1。
    的頭像 發(fā)表于 09-10 10:55 ?1135次閱讀

    模型推理顯存和計(jì)算量估計(jì)方法研究

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)大模型在各個(gè)領(lǐng)域得到了廣泛應(yīng)用。然而,大模型的推理過(guò)程對(duì)顯存和計(jì)算資源的需求較高,給實(shí)際應(yīng)用帶來(lái)了挑戰(zhàn)。為了解決這問(wèn)題,本文將探討大
    發(fā)表于 07-03 19:43

    群暉發(fā)布AI模型全流程存儲(chǔ)解決方案,破局訓(xùn)練效率與數(shù)據(jù)孤島難題

    兼容數(shù)據(jù)歸集、高速訓(xùn)練、高可用部署全場(chǎng)景,支持?Llama2?等千億參數(shù)模型,讀寫(xiě)效率提升?90% 上海?2025年6月24日?/美通社/ -- 當(dāng)算力狂奔時(shí),數(shù)據(jù)存儲(chǔ)正成為AI進(jìn)化的新瓶頸。 據(jù)
    的頭像 發(fā)表于 06-25 16:03 ?699次閱讀
    群暉發(fā)布AI<b class='flag-5'>模型</b>全流程存儲(chǔ)解決方案,破局<b class='flag-5'>訓(xùn)練</b>效率與數(shù)據(jù)孤島難題

    使用 NPU 插件對(duì)量化的 Llama 3.1 8b 模型進(jìn)行推理時(shí)出現(xiàn)“從 __Int64 轉(zhuǎn)換為無(wú)符號(hào) int 的錯(cuò)誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    一鍵下單+低至0元打板!華秋DFM帶你解鎖PCB制造新姿勢(shì)

    親愛(ài)的工程師小伙伴們,你們是否還在為 PCB設(shè)計(jì)隱患而頭禿 ?是否還在為 打樣成本而肉疼 ? 看我!華秋DFM軟件不僅幫你 一鍵掃雷設(shè)計(jì)問(wèn)題 ,還能讓你 躺贏多重優(yōu)惠 ~ 想要 輕松設(shè)計(jì)檢查+快樂(lè)薅
    發(fā)表于 06-04 14:46

    U盤一鍵制作

    在電腦維修中啟動(dòng)盤很重要,靠譜的u盤一鍵啟動(dòng)制作方法
    發(fā)表于 05-06 16:10 ?44次下載

    請(qǐng)問(wèn)如何在imx8mplus上部署和運(yùn)行YOLOv5訓(xùn)練模型

    我正在從事 imx8mplus yocto 項(xiàng)目。我已經(jīng)在自定義數(shù)據(jù)集上的 YOLOv5 上訓(xùn)練了對(duì)象檢測(cè)模型。它在 ubuntu 電腦上運(yùn)行良好?,F(xiàn)在我想在我的 imx8mplus
    發(fā)表于 03-25 07:23

    企業(yè)級(jí)Claude API應(yīng)用方案!完整調(diào)用攻略來(lái)襲:帶你解鎖Claude 3.5/3.7大模型

    企業(yè)級(jí)Claude API大模型應(yīng)用開(kāi)發(fā),完整調(diào)用攻略來(lái)襲,帶你解鎖Claude 3.5/3.7大模型,滿足企業(yè)級(jí)生產(chǎn)!無(wú)需魔法,無(wú)需外幣充值,無(wú)需擔(dān)心封號(hào)問(wèn)題
    的頭像 發(fā)表于 03-19 19:55 ?2012次閱讀
    企業(yè)級(jí)Claude API應(yīng)用方案!完整調(diào)用攻略來(lái)襲:<b class='flag-5'>帶你</b><b class='flag-5'>解鎖</b>Claude 3.5/3.7大<b class='flag-5'>模型</b>