91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

開源大模型Falcon(獵鷹) 180B發(fā)布 1800億參數(shù)

OSC開源社區(qū) ? 來源:OSC開源社區(qū) ? 2023-09-18 09:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

世界最強開源大模型 Falcon 180B 忽然火爆全網(wǎng),1800億參數(shù),F(xiàn)alcon 在 3.5 萬億 token 完成訓練,性能碾壓 Llama 2,登頂 Hugging Face 排行榜。

今年5月,TII(阿聯(lián)酋阿布扎比技術創(chuàng)新研究所)推出了號稱是 “史上最強的開源大語言模型”——Falcon(獵鷹)。雖然 Falcon 的參數(shù)比 LLaMA 小,但性能卻更加強大。

此前,F(xiàn)alcon 已經(jīng)推出了三種模型大小,分別是1.3B、7.5B、40B。據(jù)介紹,F(xiàn)alcon 180B 是 40B 的升級版本,F(xiàn)alcon 180B 的規(guī)模是 Llama 2 的 2.5 倍,且可免費商用。 Falcon 180B在 Hugging Face 開源大模型榜單上被認為是當前評分最高的開放式大模型,其評分68.74,Meta 的 LlaMA 2以 1.39 的分數(shù)差距排名第二。

360532b2-4fcd-11ee-a25d-92fbcf53809c.png

3624d5c2-4fcd-11ee-a25d-92fbcf53809c.png

據(jù)官方介紹,F(xiàn)alcon 180B 是當前最好的開源大模型。 其在 MMLU 上 的表現(xiàn)超過了 Llama 2 70B 和 OpenAI 的 GPT-3.5。在 HellaSwag、LAMBADA、WebQuestions、Winogrande、PIQA、ARC、BoolQ、CB、COPA、RTE、WiC、WSC 及 ReCoRD 上與谷歌的 PaLM 2-Large 不相上下。

364a2cf0-4fcd-11ee-a25d-92fbcf53809c.png

目前大家可以通過以下地址進行Demo 體驗:https://hf.co/spaces/HuggingFaceH4/falcon-chat


硬件要求

類型 種類 最低要求 配置示例
Falcon 180B Training Full fine-tuning 5120GB 8x 8x A100 80GB
Falcon 180B Training LoRA with ZeRO-3 1280GB 2x 8x A100 80GB
Falcon 180B Training QLoRA 160GB 2x A100 80GB
Falcon 180B Inference BF16/FP16 640GB 8x A100 80GB
Falcon 180B Inference GPTQ/int4 320GB 8x A100 40GB

Prompt 格式

其基礎模型沒有 Prompt 格式,因為它并不是一個對話型大模型也不是通過指令進行的訓練,所以它并不會以對話形式回應。預訓練模型是微調(diào)的絕佳平臺,但或許你不該直接使用。其對話模型則設有一個簡單的對話模式。

System: Add an optional system prompt here
User: This is the user input
Falcon: This is what the model generates
User: This might be a second turn input
Falcon: and so on

Transformers

從 Transfomers 4.33 開始,可以在 Hugging Face 上使用 Falcon 180B 并且使用 HF 生態(tài)里的所有工具。但是前提是請確保你已經(jīng)登錄了自己的 Hugging Face 賬號,并安裝了最新版本的 transformers:

pip install --upgrade transformers
huggingface-cli login
bfloat16 以下是如何在bfloat16中使用基礎模型的方法。Falcon 180B 是一個大型模型,所以請注意它的硬件要求(硬件要求如上所示)。
from transformers import AutoTokenizer, AutoModelForCausalLM
import transformers
import torch

model_id = "tiiuae/falcon-180B"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    device_map="auto",
)

prompt = "My name is Pedro, I live in"
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")

output = model.generate(
    input_ids=inputs["input_ids"],
    attention_mask=inputs["attention_mask"],
    do_sample=True,
    temperature=0.6,
    top_p=0.9,
    max_new_tokens=50,
)
output = output[0].to("cpu")
print(tokenizer.decode(output)

這可能會產(chǎn)生如下輸出結(jié)果:

My name is Pedro, I live in Portugal and I am 25 years old. I am a graphic designer, but I am also passionate about photography and video.
I love to travel and I am always looking for new adventures. I love to meet new people and explore new places.
使用 8 位和 4 位的 bitsandbytes Falcon 180B 的 8 位和 4 位量化版本在評估方面與bfloat16幾乎沒有差別!這對推理來說是個好消息,因為你可以放心地使用量化版本來降低硬件要求。請記住,在 8 位版本進行推理要比 4 位版本快得多。要使用量化,你需要安裝 “bitsandbytes” 庫,并在加載模型時啟用相應的標志:
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    **load_in_8bit=True,**
    device_map="auto",
)
對話模型 如上所述,為跟蹤對話而微調(diào)的模型版本使用了非常直接的訓練模板。我們必須遵循同樣的模式才能運行聊天式推理。作為參考,你可以看看聊天演示中的format_prompt函數(shù):
def format_prompt(message, history, system_prompt):
    prompt = ""
    if system_prompt:
        prompt += f"System: {system_prompt}
"
    for user_prompt, bot_response in history:
        prompt += f"User: {user_prompt}
"
        prompt += f"Falcon: {bot_response}
"
        prompt += f"User: {message}
Falcon:"
    return prompt
如你所見,用戶的交互和模型的回應前面都有User:和Falcon:分隔符。我們將它們連接在一起,形成一個包含整個對話歷史的提示。這樣就可以提供一個系統(tǒng)提示來調(diào)整生成風格。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 開源
    +關注

    關注

    3

    文章

    4203

    瀏覽量

    46129
  • 大模型
    +關注

    關注

    2

    文章

    3650

    瀏覽量

    5179

原文標題:1800億參數(shù),性能碾壓Llama 2,世界最強開源大模型Falcon 180B發(fā)布

文章出處:【微信號:OSC開源社區(qū),微信公眾號:OSC開源社區(qū)】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    百度正式發(fā)布開源新一代文檔解析模型PaddleOCR-VL-1.5

    1 月 29 日,百度正式發(fā)布開源新一代文檔解析模型 PaddleOCR-VL-1.5。該模型以僅 0.9B
    的頭像 發(fā)表于 01-30 10:03 ?584次閱讀
    百度正式<b class='flag-5'>發(fā)布</b>并<b class='flag-5'>開源</b>新一代文檔解析<b class='flag-5'>模型</b>PaddleOCR-VL-1.5

    阿布扎比TII推出Falcon-H1 Arabic,樹立全球阿拉伯語AI模型新標桿

    的應用研究機構(gòu)——正式發(fā)布Falcon-H1 Arabic。這是一款基于混合式Mamba-Transformer架構(gòu)全新打造的大型語言模型,標志著對以往Transformer架構(gòu)路線的根本性突破。憑借卓越
    的頭像 發(fā)表于 01-07 14:42 ?224次閱讀

    如何在NVIDIA Jetson AGX Thor上部署1200參數(shù)模型

    我們將嘗試能否在 Jetson AGX Thor 上部署并成功運行高達 1,200 參數(shù)量的 gpt-oss-120b模型
    的頭像 發(fā)表于 12-26 17:06 ?4817次閱讀
    如何在NVIDIA Jetson AGX Thor上部署1200<b class='flag-5'>億</b><b class='flag-5'>參數(shù)</b>大<b class='flag-5'>模型</b>

    今日看點:小米正式發(fā)布開源模型 MiMo-V2-Flash;磷酸鐵鋰開啟漲價潮

    小米正式發(fā)布開源模型 MiMo-V2-Flash 近日小米正式發(fā)布開源模型 MiMo-V
    的頭像 發(fā)表于 12-17 09:42 ?4207次閱讀

    商湯科技正式發(fā)布開源全新多模態(tài)模型架構(gòu)NEO

    商湯科技正式發(fā)布開源了與南洋理工大學S-Lab合作研發(fā)的全新多模態(tài)模型架構(gòu) —— NEO,為日日新SenseNova 多模態(tài)模型奠定了新一代架構(gòu)的基石。
    的頭像 發(fā)表于 12-08 11:19 ?1014次閱讀
    商湯科技正式<b class='flag-5'>發(fā)布</b>并<b class='flag-5'>開源</b>全新多模態(tài)<b class='flag-5'>模型</b>架構(gòu)NEO

    谷歌與耶魯大學合作發(fā)布最新C2S-Scale 27B模型

    我們很榮幸發(fā)布與耶魯大學合作研究的 Cell2Sentence-Scale 27B (C2S-Scale),這是一個新的 270 參數(shù)基礎模型
    的頭像 發(fā)表于 11-06 10:35 ?849次閱讀

    NVIDIA ACE現(xiàn)已支持開源Qwen3-8B小語言模型

    為助力打造實時、動態(tài)的 NPC 游戲角色,NVIDIA ACE 現(xiàn)已支持開源 Qwen3-8B 小語言模型(SLM),可實現(xiàn) PC 游戲中的本地部署。
    的頭像 發(fā)表于 10-29 16:59 ?1223次閱讀

    阿里通義千問發(fā)布小尺寸模型Qwen3-4B,手機也能跑

    電子發(fā)燒友網(wǎng)綜合報道 8月7日,阿里通義千問宣布發(fā)布更小尺寸新模型——Qwen3-4B-Instruct-2507和Qwen3-4B-Thinking-2507。目前新
    的頭像 發(fā)表于 08-12 17:15 ?6710次閱讀
    阿里通義千問<b class='flag-5'>發(fā)布</b>小尺寸<b class='flag-5'>模型</b>Qwen3-4<b class='flag-5'>B</b>,手機也能跑

    OpenAI發(fā)布2款開源模型

    OpenAI開源了兩款高性能權重語言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「gpt-oss
    的頭像 發(fā)表于 08-06 14:25 ?1028次閱讀

    華為宣布開源盤古7B稠密和72B混合專家模型

    電子發(fā)燒友網(wǎng)綜合報道 2025年6月30日,華為正式宣布開源盤古70參數(shù)的稠密模型、盤古Pro MoE 720
    的頭像 發(fā)表于 07-06 05:51 ?7406次閱讀

    華為正式開源盤古7B稠密和72B混合專家模型

    [中國,深圳,2025年6月30日] 今日,華為正式宣布開源盤古70參數(shù)的稠密模型、盤古Pro MoE 720
    的頭像 發(fā)表于 06-30 11:19 ?1331次閱讀

    華為助力中國石油發(fā)布3000參數(shù)昆侖大模型

    5月28日,中國石油發(fā)布3000參數(shù)昆侖大模型,標志著中國石油在人工智能領域又邁出關鍵一步,全力推動“人工智能+”行動走深走實。 ? 中國石油發(fā)布
    的頭像 發(fā)表于 05-29 09:19 ?1094次閱讀
    華為助力中國石油<b class='flag-5'>發(fā)布</b>3000<b class='flag-5'>億</b><b class='flag-5'>參數(shù)</b>昆侖大<b class='flag-5'>模型</b>

    緯鋰能八款開源電池王牌產(chǎn)品重磅發(fā)布

    近日,緯鋰能首屆商用車電池科技日暨開源電池新品發(fā)布會在廣東惠州圓滿舉行,八款“開源電池”王牌產(chǎn)品重磅發(fā)布。
    的頭像 發(fā)表于 05-20 09:25 ?1038次閱讀

    NVIDIA使用Qwen3系列模型的最佳實踐

    阿里巴巴近期發(fā)布了其開源的混合推理大語言模型 (LLM) 通義千問 Qwen3,此次 Qwen3 開源模型系列包含兩款混合專家
    的頭像 發(fā)表于 05-08 11:45 ?2987次閱讀
    NVIDIA使用Qwen3系列<b class='flag-5'>模型</b>的最佳實踐

    摩爾線程支持阿里云通義千問QwQ-32B開源模型

    近日,阿里云團隊正式開源全新推理模型——通義千問QwQ-32B。摩爾線程在該模型發(fā)布后2小時內(nèi),迅速且高效完成了對千問QwQ-32
    的頭像 發(fā)表于 03-07 17:48 ?1353次閱讀
    摩爾線程支持阿里云通義千問QwQ-32<b class='flag-5'>B</b><b class='flag-5'>開源</b><b class='flag-5'>模型</b>