91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于Llama 2的一切資源,我們都幫你整理好了

深度學(xué)習(xí)自然語言處理 ? 來源:Hugging Face ? 2023-08-23 15:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Llama 2 是一個由 Meta 開發(fā)的大型語言模型,是 LLaMA 1 的繼任者。Llama 2 可通過 AWS、Hugging Face 獲取,并可以自由用于研究和商業(yè)用途。Llama 2 預(yù)訓(xùn)練模型在 2 萬億個標(biāo)記上進行訓(xùn)練,相比 LLaMA 1 的上下文長度增加了一倍。它的微調(diào)模型則在超過 100 萬個人工標(biāo)注數(shù)據(jù)下完成。

這篇博客包含了所有的相關(guān)資源,以幫助您快速入門。

來自 Meta 官方的公告可以在這里找到:https://ai.meta.com/llama/

LLaMA 2 是什么?

Meta 發(fā)布的 Llama 2,是新的 SOTA 開源大型語言模型(LLM)。Llama 2 代表著 LLaMA 的下一代版本,可商用。Llama 2 有 3 種不同的大小 —— 7B、13B 和 70B 個可訓(xùn)練參數(shù)。與原版 LLaMA 相比,新的改進包括:

  • 在 2 萬億個標(biāo)記的文本數(shù)據(jù)上進行訓(xùn)練
  • 允許商業(yè)使用
  • 默認(rèn)使用 4096 個前后文本視野
  • 70B 模型采用了分組查詢注意力(GQA)
  • 可以在 Hugging Face Hub 上直接獲取https://hf.co/models?other=llama-2

即刻解鎖 Llama2

有幾個不同的游樂場供與 Llama 2 來測試:

HuggingChat

在我們推出的 HuggingChat 中使用 Llama 2 70B:https://hf.co/chat

Hugging Face Space 應(yīng)用

我們在 Space 應(yīng)用上提供了三個大小的 Llama 2 模型的體驗,分別是:

  • 7Bhttps://hf.co/spaces/huggingface-projects/llama-2-7b-chat
  • 13Bhttps://huggingface.co/spaces/huggingface-projects/llama-2-13b-chat
  • 70Bhttps://huggingface.co/spaces/ysharma/Explore_llamav2_with_TGI

Perplexity

Perplexity 的對話 AI 演示提供 7B 和 13B 的 Llama 2 模型:https://llama.perplexity.ai/

Llama 2 背后的研究工作

Llama 2 是一個基礎(chǔ)大語言模型,它由網(wǎng)絡(luò)上公開可獲取到的數(shù)據(jù)訓(xùn)練完成。另外 Meta 同時發(fā)布了它的 Chat 版本。Chat 模型的第一個版本是 SFT(有監(jiān)督調(diào)優(yōu))模型。在這之后,LLaMA-2-chat 逐步地經(jīng)過人類反饋強化學(xué)習(xí)(RLHF)來進化。RLHF 的過程使用了拒絕采樣與近端策略優(yōu)化(PPO)的技術(shù)來進一步調(diào)優(yōu)聊天機器人。Meta 目前僅公布了模型最新的 RLHF (v5) 版本。若你對此過程背后的過程感興趣則請查看:

  • Llama 2: 開源并已微調(diào)的聊天模型https://arxiv.org/abs/2307.09288
  • Llama 2: 一個超贊的開源大語言模型https://www.interconnects.ai/p/llama-2-from-meta
  • Llama 2 的全面拆解https://www.youtube.com/watch?v=zJBpRn2zTco

Llama 2 的性能有多好,基準(zhǔn)測試?

Meta 表示:

Llama 2 在眾多外部基準(zhǔn)測試中都優(yōu)于其他開源的語言模型,包括推理、編程、熟練程度與知識測驗。

關(guān)于其性能你可以在這里找到更多信息:

  • Hugging Face 開源大語言模型排行榜https://hf.co/spaces/HuggingFaceH4/open_llm_leaderboard
  • Meta 官方公告https://ai.meta.com/llama/

如何為 LLaMA 2 Chat 寫提示詞 (prompts)

Llama 2 Chat 是一個開源對話模型。想要與 Llama 2 Chat 進行高效地交互則需要你提供合適的提示詞,以得到合乎邏輯且有幫助的回復(fù)。Meta 并沒有選擇最簡單的提示詞結(jié)構(gòu)。

以下是單輪、多輪對話的提示詞模板。提示詞模板遵循模型訓(xùn)練過程,你可以在這里查看到詳細(xì)描述:

  • Llama 2 論文https://hf.co/papers/2307.09288
  • Llama 2 提示詞模板https://gpus.llm-utils.org/llama-2-prompt-template/

單輪對話

[INST]<>
{{system_prompt}}
<>

{{user_message}}[/INST]

多輪對話

[INST]<>
{{system_prompt}}
<>

{{user_msg_1}}[/INST]{{model_answer_1}}[INST]{{user_msg_2}}[/INST]{{model_answer_2}}[INST]{{user_msg_3}}[/INST]

如何訓(xùn)練 LLaMA 2

因 LLaMA 2 為開源模型,使得可以輕易的通過微調(diào)技術(shù),比如 PEFT,來訓(xùn)練它。這是一些非日適合于訓(xùn)練你自己版本 LLaMA 2 的學(xué)習(xí)資源:

  • 擴展指引:指令微調(diào) Llama 2https://www.philschmid.de/instruction-tune-llama-2
  • 在 Amazon SageMaker 上微調(diào) Llama 2 (7-70B)https://www.philschmid.de/sagemaker-llama2-qlora
  • 使用 PEFT 技術(shù)微調(diào)https://hf.co/blog/zh/llama2#fine-tuning-with-peft
  • Meta 提供的 Llama 模型示例以及方案https://github.com/facebookresearch/llama-recipes/tree/main
  • 在本地機器上微調(diào) LLAMA-v2 最簡單的方法!https://www.youtube.com/watch?v=3fsn19OI_C8

如何部署 Llama 2?

Llama 2 可以在本地環(huán)境部署,使用托管服務(wù)如 Hugging Face Inference Endpoints 或通過 AWS、Google Cloud、Microsoft Azure 等。

你可以查閱下述資源:

  • llama.cpphttps://github.com/ggerganov/llama.cpp
  • 使用文本生成接口與推理終端來部署 LLama 2https://hf.co/blog/llama2#using-text-generation-inference-and-inference-endpoints
  • 使用 Amazon SageMaker 部署 LLaMA 2 70Bhttps://www.philschmid.de/sagemaker-llama-llm
  • 在你的 M1/M2 Mac 上通過 GPU 接口來本地部署 Llama-2-13B-chathttps://gist.github.com/adrienbrault/b76631c56c736def9bc1bc2167b5d129

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39755

    瀏覽量

    301364
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    4203

    瀏覽量

    46128
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    571

    瀏覽量

    11310

原文標(biāo)題:關(guān)于 Llama 2 的一切資源,我們都幫你整理好了

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    如何在Arm Neoverse N2平臺上提升llama.cpp擴展性能

    跨 NUMA 內(nèi)存訪問可能會限制 llama.cpp 在 Arm Neoverse 平臺上的擴展能力。本文將為你詳細(xì)分析這問題,并通過引入原型驗證補丁來加以解決。測試結(jié)果表明,在基于 Neoverse N2 平臺的系統(tǒng)上運行
    的頭像 發(fā)表于 02-11 10:06 ?165次閱讀

    一切源于對長期主義的“偏執(zhí)”!我們為什么這樣構(gòu)建ROBOMIND

    ROBOMIND機器人物理AI大腦,旨在模型、軟件和硬件之間,找到條真正適合走向規(guī)?;穆窂?。
    的頭像 發(fā)表于 01-30 17:04 ?595次閱讀

    別讓USB拖后腿!硬件參考設(shè)計+軟件開發(fā)API,幫你整理好了

    USB_DM,歷史原因直將錯誤寫法延續(xù)到了現(xiàn)在。 USB_DM: USB Data Minus,USB數(shù)據(jù)負(fù)信號; USB_DP: USB Data Positive,USB數(shù)據(jù)正信號。 02. 功能
    的頭像 發(fā)表于 01-05 20:40 ?195次閱讀
    別讓USB拖后腿!硬件參考設(shè)計+軟件開發(fā)API,<b class='flag-5'>都</b><b class='flag-5'>幫你</b><b class='flag-5'>整理好了</b>

    真不敢信,PCB板上就挪動了個電阻,DDR3竟神奇變好了

    DDRx調(diào)試的問題我們經(jīng)常會碰到,但PCB板上這個問題卻很初級,調(diào)了周都沒有解決,沒想到最后挪動了個電阻就好了,不信大家來看看怎么回事!
    的頭像 發(fā)表于 01-05 15:40 ?232次閱讀
    真不敢信,PCB板上就挪動了<b class='flag-5'>一</b>個電阻,DDR3竟神奇變<b class='flag-5'>好了</b>

    【CIE全國RISC-V創(chuàng)新應(yīng)用大賽】基于 K1 AI CPU 的大模型部署落地

    /llama-cli --version 第二步:獲取 14B 的 Q2_K 模型 由于官方文檔演示的是 0.6B 小模型,我們需要自己獲取 Qwen2.5-14B 的 Q2_K 版
    發(fā)表于 11-27 14:43

    從零開始了解智慧教室(二):智慧教室的類型與適用場景

    廣凌科技(廣凌股份)作為智慧教室領(lǐng)域的領(lǐng)軍企業(yè),其整體解決方案以“場景適配、數(shù)據(jù)驅(qū)動、開放兼容”為核心理念,智慧教室的類型與適用場景整理好了起來了解下吧~
    的頭像 發(fā)表于 11-26 18:05 ?337次閱讀
    從零開始了解智慧教室(二):智慧教室的類型與適用場景

    新手小白必看!關(guān)于A100云主機租用,你想知道的一切都在這!

    “我想租臺A100云主機來跑我的模型,但完全不知道從何下手。”——這是我們聽到最多的來自AI新手的聲音。A100,這個聽起來就“高大上”的名詞,背后其實是套清晰、可操作的流程。今天,我們
    的頭像 發(fā)表于 10-31 19:24 ?1583次閱讀
    新手小白必看!<b class='flag-5'>關(guān)于</b>A100云主機租用,你想知道的<b class='flag-5'>一切</b>都在這!

    無功補償控制器投的時間奧秘:延時、震蕩、放電次講透!

    在無功補償控制器中,電容器投是其中重要的環(huán),它在定程度上決定了功率因數(shù)的大小以及你是否在被罰款,那么什么時候去做投,投的時間應(yīng)該如
    的頭像 發(fā)表于 10-31 11:15 ?441次閱讀
    無功補償控制器投<b class='flag-5'>切</b>的時間奧秘:延時、震蕩、放電<b class='flag-5'>一</b>次講透!

    什么是ARM架構(gòu)?你需要知道的一切

    從智能手機到工業(yè)邊緣計算機,ARM?架構(gòu)為全球數(shù)十億臺設(shè)備提供動力。ARM?以其效率優(yōu)先的設(shè)計和靈活的許可模式而聞名,已迅速從移動處理器擴展到人工智能邊緣計算、工業(yè)控制器,甚至數(shù)據(jù)中心。本文我們
    的頭像 發(fā)表于 09-11 14:48 ?1271次閱讀
    什么是ARM架構(gòu)?你需要知道的<b class='flag-5'>一切</b>

    【VisionFive 2單板計算機試用體驗】3、開源大語言模型部署

    , Gemma等開源大模型。當(dāng)然,些閉源的(類似chatgpt, gemini)是不支持部署的。如下圖: 在端側(cè)部署大模型,個人認(rèn)為最大的好處:是可以避免因文本或圖片上傳而造成的信息泄露,因為一切文本
    發(fā)表于 07-19 15:45

    使用 NPU 插件對量化的 Llama 3.1 8b 模型進行推理時出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號 int 的錯誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    關(guān)于 樹莓派5 超頻:你需要知道的一切!

    摘要樹莓派5可通過超頻提升性能,對于機器學(xué)習(xí)等處理器密集型任務(wù)尤為有用。超頻樹莓派5時,需將其溫度控制在80°C以下。官方樹莓派5機箱配備散熱風(fēng)扇,主動散熱配件則包含散熱片和風(fēng)扇,均有助于溫度控制。超頻樹莓派5需修改config.txt啟動設(shè)置文件,調(diào)整CPU速度設(shè)置。但超頻可能縮短Pi5的使用壽命,并使保修失效,因此需謹(jǐn)慎操作。樹莓派5的速度比樹莓派4快兩
    的頭像 發(fā)表于 06-10 17:29 ?2803次閱讀
    <b class='flag-5'>關(guān)于</b> 樹莓派5 超頻:你需要知道的<b class='flag-5'>一切</b>!

    層層剝開開鴻Bot,我們看到的是“開發(fā)者優(yōu)先”

    對開源生態(tài)來說,社區(qū)先于代碼,開發(fā)者重于一切
    的頭像 發(fā)表于 05-27 09:23 ?2984次閱讀
    層層剝開開鴻Bot,<b class='flag-5'>我們</b>看到的是“開發(fā)者優(yōu)先”

    GC9A01-TFT屏幕驅(qū)動(整理有stm32/51單片機/arduino等驅(qū)動代碼)

    以及收集整理好的資料,希望可以幫助用戶更加簡單的學(xué)習(xí)或快速移植代碼進行項目開發(fā)。本文將和大家探討下GC9A01圓型屏幕的驅(qū)動
    的頭像 發(fā)表于 04-25 11:29 ?1744次閱讀
    GC9A01-TFT屏幕驅(qū)動(<b class='flag-5'>整理</b>有stm32/51單片機/arduino等驅(qū)動代碼)

    VIRTUALLAB FUSION應(yīng)用:光束趾建模

    器。通過比較,我們的結(jié)果與文獻實驗結(jié)果完全致。 光束趾中圓鋸齒光闌 光束趾在高能激光器和光束傳輸系統(tǒng)的設(shè)計中起著關(guān)鍵作用。由于VirtualLab Fusion高度可定制的環(huán)境
    發(fā)表于 03-12 09:50