91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

清華系千億基座對(duì)話模型ChatGLM開啟內(nèi)測(cè)

OSC開源社區(qū) ? 來源:OSC開源社區(qū) ? 2023-03-17 13:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

由清華技術(shù)成果轉(zhuǎn)化的公司智譜 AI 宣布開源了 GLM 系列模型的新成員 ——中英雙語對(duì)話模型 ChatGLM-6B,支持在單張消費(fèi)級(jí)顯卡上進(jìn)行推理使用。這是繼此前開源 GLM-130B 千億基座模型之后,智譜 AI 再次推出大模型方向的研究成果。

此外,基于千億基座的 ChatGLM 線上模型目前也在 chatglm.cn 進(jìn)行邀請(qǐng)制內(nèi)測(cè),用戶需要使用邀請(qǐng)碼進(jìn)行注冊(cè),也可以填寫基本信息申請(qǐng)內(nèi)測(cè)。

根據(jù)介紹,ChatGLM-6B 是一個(gè)開源的、支持中英雙語問答的對(duì)話語言模型,并針對(duì)中文進(jìn)行了優(yōu)化。該模型基于 General Language Model (GLM)架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下最低只需 6GB 顯存)。

ChatGLM-6B 使用了和 ChatGLM 相同的技術(shù),針對(duì)中文問答和對(duì)話進(jìn)行了優(yōu)化。經(jīng)過約 1T 標(biāo)識(shí)符的中英雙語訓(xùn)練,輔以監(jiān)督微調(diào)、反饋?zhàn)灾⑷祟惙答亸?qiáng)化學(xué)習(xí)等技術(shù)的加持,62 億參數(shù)的 ChatGLM-6B 雖然規(guī)模不及千億模型,但大大降低了推理成本,提升了效率,并且已經(jīng)能生成相當(dāng)符合人類偏好的回答。

ChatGLM-6B 具備以下特點(diǎn):

充分的中英雙語預(yù)訓(xùn)練:ChatGLM-6B 在 1:1 比例的中英語料上訓(xùn)練了 1T 的 token 量,兼具雙語能力。

優(yōu)化的模型架構(gòu)和大小:吸取 GLM-130B 訓(xùn)練經(jīng)驗(yàn),修正了二維 RoPE 位置編碼實(shí)現(xiàn),使用傳統(tǒng) FFN 結(jié)構(gòu)。6B(62 億)的參數(shù)大小,也使得研究者和個(gè)人開發(fā)者自己微調(diào)和部署 ChatGLM-6B 成為可能。

較低的部署門檻:FP16 半精度下,ChatGLM-6B 需要至少 13 GB 的顯存進(jìn)行推理,結(jié)合模型量化技術(shù),這一需求可以進(jìn)一步降低到 10GB(INT8) 和 6GB(INT4),使得 ChatGLM-6B 可以部署在消費(fèi)級(jí)顯卡上。

更長的序列長度:相比 GLM-10B(序列長度 1024),ChatGLM-6B 序列長度達(dá) 2048,支持更長對(duì)話和應(yīng)用。

人類意圖對(duì)齊訓(xùn)練:使用了監(jiān)督微調(diào)(Supervised Fine-Tuning)、反饋?zhàn)灾‵eedback Bootstrap)、人類反饋強(qiáng)化學(xué)習(xí)(Reinforcement Learning from Human Feedback)等方式,使模型初具理解人類指令意圖的能力。輸出格式為 markdown,方便展示。

基于以上特點(diǎn),ChatGLM-6B 在一定條件下具備較好的對(duì)話與問答能力。ChatGLM-6B 的對(duì)話效果展示如下:

ff303b12-c479-11ed-bfe3-dac502259ad0.png

不過由于 ChatGLM-6B 模型的容量較小,不可避免地存在一些局限和不足,包括:

相對(duì)較弱的模型記憶和語言能力。在面對(duì)許多事實(shí)性知識(shí)任務(wù)時(shí),ChatGLM-6B 可能會(huì)生成不正確的信息,也不太擅長邏輯類問題(如數(shù)學(xué)、編程)的解答。

可能會(huì)產(chǎn)生有害說明或有偏見的內(nèi)容:ChatGLM-6B 只是一個(gè)初步與人類意圖對(duì)齊的語言模型,可能會(huì)生成有害、有偏見的內(nèi)容。

較弱的多輪對(duì)話能力:ChatGLM-6B 的上下文理解能力還不夠充分,在面對(duì)長答案生成和多輪對(duì)話的場(chǎng)景時(shí),可能會(huì)出現(xiàn)上下文丟失和理解錯(cuò)誤的情況。

相比起 ChatGLM-6B,ChatGLM 參考了 ChatGPT 的設(shè)計(jì)思路,在千億基座模型 GLM-130B 中注入了代碼預(yù)訓(xùn)練,通過有監(jiān)督微調(diào)(Supervised Fine-Tuning)等技術(shù)實(shí)現(xiàn)人類意圖對(duì)齊。ChatGLM 線上模型的能力提升主要來源于獨(dú)特的千億基座模型 GLM-130B。它采用了不同于 BERT、GPT-3 以及 T5 的 GLM 架構(gòu),是一個(gè)包含多目標(biāo)函數(shù)的自回歸預(yù)訓(xùn)練模型。

GLM 團(tuán)隊(duì)表示,2022 年 11 月,斯坦福大學(xué)大模型中心對(duì)全球 30 個(gè)主流大模型進(jìn)行了全方位的評(píng)測(cè),GLM-130B 是亞洲唯一入選的大模型。在與 OpenAI、Google Brain、微軟、英偉達(dá)、Meta AI 的各大模型對(duì)比中,評(píng)測(cè)報(bào)告顯示 GLM-130B 在準(zhǔn)確性和公平性指標(biāo)上與 GPT-3 175B (davinci) 接近或持平,魯棒性、校準(zhǔn)誤差和無偏性則優(yōu)于 GPT-3 175B。

ff656a6c-c479-11ed-bfe3-dac502259ad0.png

由 ChatGLM 生成的對(duì)話效果展示:

00b6fc32-c47a-11ed-bfe3-dac502259ad0.png

00d17aee-c47a-11ed-bfe3-dac502259ad0.png

014cb632-c47a-11ed-bfe3-dac502259ad0.png

不過 GLM 團(tuán)隊(duì)也坦言,整體來說 ChatGLM 距離國際頂尖大模型研究和產(chǎn)品(比如 OpenAI 的 ChatGPT 及下一代 GPT 模型)還存在一定的差距。該團(tuán)隊(duì)表示,將持續(xù)研發(fā)并開源更新版本的 ChatGLM 和相關(guān)模型?!皻g迎大家下載 ChatGLM-6B,基于它進(jìn)行研究和(非商用)應(yīng)用開發(fā)。GLM 團(tuán)隊(duì)希望能和開源社區(qū)研究者和開發(fā)者一起,推動(dòng)大模型研究和應(yīng)用在中國的發(fā)展?!?/p>

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39793

    瀏覽量

    301397
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3752

    瀏覽量

    52109

原文標(biāo)題:清華系千億基座對(duì)話模型ChatGLM開啟內(nèi)測(cè),單卡版模型已全面開源

文章出處:【微信號(hào):OSC開源社區(qū),微信公眾號(hào):OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    沐曦股份聯(lián)合清華大學(xué)發(fā)布磁性材料AI原子基座模型

    2月27日,沐曦股份聯(lián)合清華大學(xué)等多家研究機(jī)構(gòu)聯(lián)合發(fā)布了磁性材料AI原子基座模型。該模型是首個(gè)覆蓋寬溫壓域的磁性材料AI原子模型,經(jīng)權(quán)威專家
    的頭像 發(fā)表于 03-03 15:25 ?312次閱讀
    沐曦股份聯(lián)合<b class='flag-5'>清華</b>大學(xué)發(fā)布磁性材料AI原子<b class='flag-5'>基座</b><b class='flag-5'>模型</b>

    清華大學(xué)電子工程“無問錫東3.0”實(shí)踐支隊(duì)走進(jìn)沐曦股份

    近日,沐曦股份迎來了一群特別的訪客——清華大學(xué)電子工程“無問錫東3.0”實(shí)踐支隊(duì)的同學(xué)們,開啟了為期兩天的校企實(shí)踐活動(dòng)。這次實(shí)踐不僅是清華電子工程
    的頭像 發(fā)表于 02-26 14:23 ?361次閱讀

    地平線正式開源HoloBrain VLA基座模型

    2月13日,地平線正式宣布其HoloBrain-0基座模型及框架全面開源。本次開源不僅包括HoloBrain-0核心算法,地平線同步開放完整基礎(chǔ)設(shè)施RoboOrchard。作為地平線機(jī)器人實(shí)驗(yàn)室
    的頭像 發(fā)表于 02-26 10:05 ?298次閱讀
    地平線正式開源HoloBrain VLA<b class='flag-5'>基座</b><b class='flag-5'>模型</b>

    燧原科技訓(xùn)推一體芯片L600適配階躍星辰基座模型Step 3.5 Flash

    2026年2月2日,階躍星辰發(fā)布并開源最新基座模型 Step 3.5 Flash,該模型面向?qū)崟r(shí) Agent 工作流場(chǎng)景打造,兼顧推理速度、智能水平和使用成本,為開發(fā)者提供了一個(gè)“更快更強(qiáng)更穩(wěn)
    的頭像 發(fā)表于 02-02 17:50 ?1267次閱讀
    燧原科技訓(xùn)推一體芯片L600適配階躍星辰<b class='flag-5'>基座</b><b class='flag-5'>模型</b>Step 3.5 Flash

    壁仞科技壁礪166系列產(chǎn)品適配階躍星辰基座模型Step 3.5 Flash

    NEWS 2月2日,階躍星辰發(fā)布并開源最新旗艦基座模型Step 3.5 Flash。壁仞科技(06082.HK)作為國產(chǎn)GPGPU領(lǐng)域的先進(jìn)技術(shù)領(lǐng)導(dǎo)者,壁礪 166系列產(chǎn)品在模型發(fā)布當(dāng)日快速完成適配
    的頭像 發(fā)表于 02-02 17:48 ?1196次閱讀
    壁仞科技壁礪166系列產(chǎn)品適配階躍星辰<b class='flag-5'>基座</b><b class='flag-5'>模型</b>Step 3.5 Flash

    沐曦曦云C600 GPU產(chǎn)品適配階躍星辰基座模型Step 3.5 Flash

    今天,階躍星辰技術(shù)團(tuán)隊(duì)發(fā)布并開源最新旗艦基座模型 Step 3.5 Flash。沐曦股份已實(shí)現(xiàn)曦云C600與該模型深度協(xié)同適配,為國內(nèi)首先完成與該模型Day 0適配的國產(chǎn)算力。
    的頭像 發(fā)表于 02-02 14:44 ?366次閱讀
    沐曦曦云C600 GPU產(chǎn)品適配階躍星辰<b class='flag-5'>基座</b><b class='flag-5'>模型</b>Step 3.5 Flash

    清華大學(xué)“啟·創(chuàng)”計(jì)劃走進(jìn)拓維信息,校企共探AI時(shí)代產(chǎn)學(xué)研合作新范式

    1月13日,清華大學(xué)“啟·創(chuàng)”計(jì)劃第十三期赴湘社會(huì)實(shí)踐活動(dòng)暨TalkwebHouse創(chuàng)業(yè)私董會(huì)第二期在拓維信息圓滿舉辦。清華大學(xué)創(chuàng)業(yè)團(tuán)隊(duì)20余名師生,與拓維信息團(tuán)隊(duì)深入對(duì)話,圍繞“AI+”產(chǎn)業(yè)融合
    的頭像 發(fā)表于 01-16 14:04 ?521次閱讀
    <b class='flag-5'>清華</b>大學(xué)“啟·創(chuàng)”計(jì)劃走進(jìn)拓維信息,校企共探AI時(shí)代產(chǎn)學(xué)研合作新范式

    ??低暳料嗟谌龑?b class='flag-5'>清華質(zhì)量強(qiáng)國論壇

    近日,由清華大學(xué)質(zhì)量與可靠性研究院、清華大學(xué)工業(yè)工程主辦的第三屆 “清華質(zhì)量強(qiáng)國論壇” 在京舉行。作為第五屆中國質(zhì)量獎(jiǎng)獲獎(jiǎng)企業(yè),??低暿苎麉?huì),質(zhì)量管理部總經(jīng)理石炎明圍繞《“數(shù)智質(zhì)
    的頭像 發(fā)表于 12-16 14:34 ?542次閱讀

    廣和通發(fā)布端側(cè)情感對(duì)話模型FiboEmo-LLM

    9月,廣和通正式發(fā)布自主研發(fā)的端側(cè)情感對(duì)話模型FiboEmo-LLM。該模型專注于情感計(jì)算與自然語言交互融合,致力于為AI玩具、智能陪伴設(shè)備等終端場(chǎng)景提供“情感理解-情感響應(yīng)”一體化能力,推動(dòng)終端人工智能向更具人性化、情感化的
    的頭像 發(fā)表于 09-26 13:37 ?1903次閱讀

    內(nèi)測(cè)活動(dòng)同步開啟】這么小?這么強(qiáng)?新一代大模型MCP開發(fā)板來啦!

    內(nèi)測(cè)活動(dòng)同步開啟】這么?。窟@么強(qiáng)?新一代大模型MCP開發(fā)板來啦! 聆思全新一代六合一芯片「LS26系列」,搭載WIFI / BLE & BT / NPU,與「小聆AI」強(qiáng)強(qiáng)聯(lián)合
    發(fā)表于 09-25 11:47

    米爾RK3576部署端側(cè)多模態(tài)多輪對(duì)話,6TOPS算力驅(qū)動(dòng)30億參數(shù)LLM

    rkllm_infer_params.keep_history = 1,開啟上下文記憶功能,KV-Cache 在顯存中持續(xù)追加存儲(chǔ),每輪對(duì)話僅計(jì)算新增 token,大幅提升推理效率。使模型能關(guān)聯(lián)多輪
    發(fā)表于 09-05 17:25

    清華大學(xué)TOP EE+項(xiàng)目參訪美光上海

    此前,2025年6月4日至6日,清華大學(xué)TOP EE+ 項(xiàng)目于美光上海的參訪活動(dòng)圓滿舉行。為期三天的活動(dòng)匯聚了來自清華大學(xué)電子工程的優(yōu)秀留學(xué)生與美光的多位管理者和工程師,展開了深入的技術(shù)交流與文化互動(dòng)之旅。
    的頭像 發(fā)表于 07-07 18:02 ?1496次閱讀

    輕量通信+重磅智能,利爾達(dá)全新Cat.1+AI大模型方案讓對(duì)話從此無界!

    模型對(duì)話方案,通過預(yù)集成開發(fā)框架與標(biāo)準(zhǔn)化接口助力客戶高效構(gòu)建AI生態(tài),開啟交互新紀(jì)元。兩大AI語音方案滿足多樣化需求基于Cat.1蜂窩通信模組的廣域連接與低時(shí)延特性
    的頭像 發(fā)表于 05-23 17:59 ?1485次閱讀
    輕量通信+重磅智能,利爾達(dá)全新Cat.1+AI大<b class='flag-5'>模型</b>方案讓<b class='flag-5'>對(duì)話</b>從此無界!

    2025年開放原子校源行清華大學(xué)站成功舉辦

    近日,由開放原子開源基金會(huì)、清華大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)、清華大學(xué)軟件學(xué)院主辦的開放原子“校源行”(清華站)在清華大學(xué)成功舉辦。
    的頭像 發(fā)表于 04-22 16:46 ?943次閱讀