91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

性能超越開源模型標(biāo)桿Llama2-70B,書生·浦語大模型InternLM-20B開源發(fā)布

商湯科技SenseTime ? 來源:未知 ? 2023-09-20 16:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今日,商湯科技與上海人工智能實(shí)驗(yàn)室聯(lián)合香港中文大學(xué)和復(fù)旦大學(xué)正式推出書生·浦語大模型(InternLM)200億參數(shù)版本InternLM-20B,并在阿里云魔搭社區(qū)(ModelScope)開源首發(fā)。

同時(shí),書生·浦語面向大模型研發(fā)與應(yīng)用的全鏈條工具鏈全線升級,與InternLM-20B一同繼續(xù)全面開放,向企業(yè)和開發(fā)者提供免費(fèi)商用授權(quán)。

今年6月首次發(fā)布以來,書生·浦語歷多輪升級,在開源社區(qū)和產(chǎn)業(yè)界產(chǎn)生廣泛影響。InternLM-20B模型性能先進(jìn)且應(yīng)用便捷,以不足三分之一的參數(shù)量,達(dá)到當(dāng)前被視為開源模型標(biāo)桿的Llama2-70B的能力水。

代碼庫

https://github.com/InternLM/InternLM

魔搭社區(qū)

https://modelscope.cn/organization/Shanghai_AI_Laboratory

16e52c5e-5791-11ee-939d-92fbcf53809c.png ?

書生·浦語“增強(qiáng)版”

增的不只是量

相比國內(nèi)社區(qū)之前陸續(xù)開源的7B和13B規(guī)格模型,20B量級模型具備更強(qiáng)大的綜合能力,在復(fù)雜推理和反思能力上尤為突出,因此對于實(shí)際應(yīng)用能夠帶來更有力的性能支持。

另一方面,20B量級模型可以在單卡上進(jìn)行推理,經(jīng)過低比特量化后,可以運(yùn)行在單塊消費(fèi)級GPU,給實(shí)際使用帶來很大的便利。

InternLM-20B是基于2.3T Tokens預(yù)訓(xùn)練語料從頭訓(xùn)練的中量級語言大模型。相較于InternLM-7B,訓(xùn)練語料經(jīng)過更高水平的多層次清洗,補(bǔ)充了高知識密度和用于強(qiáng)化理解及推理能力的訓(xùn)練數(shù)據(jù)。

在理解能力、推理能力、數(shù)學(xué)能力、編程能力等考驗(yàn)語言模型技術(shù)水平方面,InternLM-20B與此前已開源模型相比,性能顯著增強(qiáng):優(yōu)異的綜合性能,通過更高水平的數(shù)據(jù)清洗和高知識密度的數(shù)據(jù)補(bǔ)充,以及更優(yōu)的模型架構(gòu)設(shè)計(jì)和訓(xùn)練,顯著提升了模型的理解、推理、數(shù)學(xué)與編程能力。

InternLM-20B全面領(lǐng)先量級相近的開源模型,使之以不足三分之一的參數(shù)量,評測成績達(dá)到了被視為開源模型的標(biāo)桿Llama2-70B水平。
  • 擁有強(qiáng)大的工具調(diào)用能力,實(shí)現(xiàn)大模型與現(xiàn)實(shí)場景的有效連接,并具備代碼解釋和反思修正能力,為智能體(Agent)的構(gòu)建提供了良好的技術(shù)基礎(chǔ)。

  • 支持更長語境,支持長度達(dá)16K的語境窗口,更有效地支撐長文理解、長文生成和超長對話,長語境同時(shí)成為支撐在InternLM-20B之上打造智能體(Agent)的關(guān)鍵技術(shù)基礎(chǔ)。

  • 具備更安全的價(jià)值對齊,書生·浦語團(tuán)隊(duì)對InternLM-20B進(jìn)行了基于SFT(監(jiān)督微調(diào))和RLHF(基于人類反饋的強(qiáng)化學(xué)習(xí)方式)兩階段價(jià)值對齊以及專家紅隊(duì)的對抗訓(xùn)練,當(dāng)面對帶有偏見的提問時(shí),它能夠給出正確引導(dǎo)。

16fbe250-5791-11ee-939d-92fbcf53809c.png基于OpenCompass的InternLM-20B及相近量級開源模型測評結(jié)果

全鏈條工具體系再鞏固

各環(huán)節(jié)全面升級

今年7月,商湯科技與上海AI實(shí)驗(yàn)室聯(lián)合發(fā)布書生·浦語的同時(shí),在業(yè)內(nèi)率先開源了覆蓋數(shù)據(jù)、預(yù)訓(xùn)練、微調(diào)、部署和評測的全鏈條工具體系

歷經(jīng)數(shù)月升級,書生·浦語全鏈條開源工具體系鞏固升級,并向全社會提供免費(fèi)商用。

全面升級的全鏈條工具體系

數(shù)據(jù)-OpenDataLab開源“書生·萬卷”預(yù)訓(xùn)練語料

書生·萬卷是開源的多模態(tài)語料庫,包含文本數(shù)據(jù)集、圖文數(shù)據(jù)集、視頻數(shù)據(jù)集三部分,數(shù)據(jù)總量超過2TB。

目前,書生·萬卷1.0已被應(yīng)用于書生·多模態(tài)、書生·浦語的訓(xùn)練,為模型性能提升起到重要作用。

預(yù)訓(xùn)練-InternLM高效預(yù)訓(xùn)練框架

除了大模型外,InternLM倉庫也開源了預(yù)訓(xùn)練框架InternLM-Train。深度整合了Transformer模型算子,使訓(xùn)練效率得到提升,并提出了獨(dú)特的Hybrid Zero技術(shù),使訓(xùn)練過程中的通信效率顯著提升,實(shí)現(xiàn)了高效率千卡并行,訓(xùn)練性能達(dá)行業(yè)領(lǐng)先水平。

微調(diào)-InternLM全參數(shù)微調(diào)、XTuner輕量級微調(diào)

InternLM支持對模型進(jìn)行全參數(shù)微調(diào),支持豐富的下游應(yīng)用。同時(shí),低成本大模型微調(diào)工具箱XTuner也在近期開源,支持多種大模型及LoRA、QLoRA等微調(diào)算法

通過XTuner,最低僅需 8GB 顯存即可對7B模型進(jìn)行低成本微調(diào),在24G顯存的消費(fèi)級顯卡上就能完成20B模型的微調(diào)。

部署-LMDeploy支持十億到千億參數(shù)語言模型的高效推理

LMDeploy涵蓋了大模型的全套輕量化、推理部署和服務(wù)解決方案,支持了從十億到千億級參數(shù)的高效模型推理,在吞吐量等性能上超過FasterTransformer、vLLM和Deepspeed等社區(qū)主流開源項(xiàng)目。

評測-OpenCompass一站式、全方位大模型評測平臺

OpenCompass大模型評測平臺構(gòu)建了包含學(xué)科、語言、知識、理解、推理五大維度的評測體系,支持超過50個(gè)評測數(shù)據(jù)集和30萬道評測題目,支持零樣本、小樣本及思維鏈評測,是目前最全面的開源評測平臺。

自7月發(fā)布以來,受到學(xué)術(shù)界和產(chǎn)業(yè)界廣泛關(guān)注,目前已為阿里巴巴、騰訊、清華大學(xué)等數(shù)十所企業(yè)及科研機(jī)構(gòu)廣泛應(yīng)用于大模型研發(fā)。

應(yīng)用-Lagent輕量靈活的智能體框架

書生·浦語團(tuán)隊(duì)同時(shí)開源了智能體框架,支持用戶快速將一個(gè)大語言模型轉(zhuǎn)變?yōu)槎喾N類型的智能體,并提供典型工具為大語言模型賦能。

Lagent集合了ReAct、AutoGPT 及ReWoo等多種類型的智能體能力,支持智能體調(diào)用大語言模型進(jìn)行規(guī)劃推理和工具調(diào)用,并可在執(zhí)行中及時(shí)進(jìn)行反思和自我修正。


基于書生·浦語大模型,目前已經(jīng)發(fā)展出更豐富的下游應(yīng)用,將于近期陸續(xù)向?qū)W術(shù)及產(chǎn)業(yè)界分享。

面向大模型掀起的新一輪創(chuàng)新浪潮,商湯科技堅(jiān)持原創(chuàng)技術(shù)研究,通過前瞻性打造新型人工智能基礎(chǔ)設(shè)施,建立大模型及研發(fā)體系,持續(xù)推動AI創(chuàng)新和落地,引領(lǐng)人工智能進(jìn)入工業(yè)化發(fā)展階段,同時(shí)賦能整個(gè)AI社區(qū)生態(tài)的繁榮發(fā)展。全鏈條工具體系開源鏈接

“書生·萬卷”預(yù)訓(xùn)練語料

https://github.com/opendatalab/WanJuan1.0

InternLM預(yù)訓(xùn)練框架

https://github.com/InternLM/InternLM

XTuner微調(diào)工具箱

https://github.com/InternLM/xtuner

LMDeploy推理工具鏈

https://github.com/InternLM/lmdeploy

OpenCompas大模型評測平臺

https://github.com/open-compass/opencompass

Lagent智能體框架

https://github.com/InternLM/lagent

171a704e-5791-11ee-939d-92fbcf53809c.gif

相關(guān)閱讀,戳這里

《AI考生今日抵達(dá),商湯與上海AI實(shí)驗(yàn)室等發(fā)布“書生·浦語”大型》

《大語言模型“書生·浦語”多項(xiàng)專業(yè)評測拔頭籌》

172516d4-5791-11ee-939d-92fbcf53809c.jpg


原文標(biāo)題:性能超越開源模型標(biāo)桿Llama2-70B,書生·浦語大模型InternLM-20B開源發(fā)布

文章出處:【微信公眾號:商湯科技SenseTime】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 商湯科技
    +關(guān)注

    關(guān)注

    8

    文章

    609

    瀏覽量

    37562

原文標(biāo)題:性能超越開源模型標(biāo)桿Llama2-70B,書生·浦語大模型InternLM-20B開源發(fā)布

文章出處:【微信號:SenseTime2017,微信公眾號:商湯科技SenseTime】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    太強(qiáng)了!AI PC搭載70B模型,算力狂飆,內(nèi)存開掛

    DeepSeek-R1不同模型。相對來說,DeepSeek-R1 70B模型或許是日常AI功能的頂格需求,它也是當(dāng)前高性能AI PC的著力點(diǎn)之一。 ? AI PC跑大
    的頭像 發(fā)表于 03-24 08:52 ?3624次閱讀
    太強(qiáng)了!AI PC搭載<b class='flag-5'>70B</b>大<b class='flag-5'>模型</b>,算力狂飆,內(nèi)存開掛

    百度正式發(fā)布開源新一代文檔解析模型PaddleOCR-VL-1.5

    1 月 29 日,百度正式發(fā)布開源新一代文檔解析模型 PaddleOCR-VL-1.5。該模型以僅 0.9B 參數(shù)的輕量架構(gòu),在全球權(quán)威文
    的頭像 發(fā)表于 01-30 10:03 ?608次閱讀
    百度正式<b class='flag-5'>發(fā)布</b>并<b class='flag-5'>開源</b>新一代文檔解析<b class='flag-5'>模型</b>PaddleOCR-VL-1.5

    “明牌”對局,自變量開源模型超越pi0

    “明牌”對局,自變量開源模型超越pi0
    的頭像 發(fā)表于 01-10 12:00 ?5598次閱讀
    “明牌”對局,自變量<b class='flag-5'>開源</b><b class='flag-5'>模型</b><b class='flag-5'>超越</b>pi0

    壁仞科技壁礪166M產(chǎn)品適配騰訊混元開源翻譯模型1.5版本

    中文、英語、日語等常見語種,也包含捷克、馬拉地、愛沙尼亞、冰島等小語種。目前兩個(gè)模型均已在騰訊混元官網(wǎng)上線,在Github和Hugg
    的頭像 發(fā)表于 01-05 15:39 ?308次閱讀
    壁仞科技壁礪166M產(chǎn)品適配騰訊混元<b class='flag-5'>開源</b>翻譯<b class='flag-5'>模型</b>1.5版本

    今日看點(diǎn):小米正式發(fā)布開源模型 MiMo-V2-Flash;磷酸鐵鋰開啟漲價(jià)潮

    小米正式發(fā)布開源模型 MiMo-V2-Flash 近日小米正式發(fā)布開源
    的頭像 發(fā)表于 12-17 09:42 ?4233次閱讀

    NVIDIA ACE現(xiàn)已支持開源Qwen3-8B小語言模型

    為助力打造實(shí)時(shí)、動態(tài)的 NPC 游戲角色,NVIDIA ACE 現(xiàn)已支持開源 Qwen3-8B 小語言模型(SLM),可實(shí)現(xiàn) PC 游戲中的本地部署。
    的頭像 發(fā)表于 10-29 16:59 ?1237次閱讀

    訊飛星辰MaaS平臺率先上線OpenAI最新開源模型

    8月6日凌晨,OpenAI 時(shí)隔六年再次回歸開源發(fā)布兩款全新的大語言模型:gpt-oss-120b和gpt-oss-20b,
    的頭像 發(fā)表于 08-13 16:43 ?1575次閱讀

    阿里通義千問發(fā)布小尺寸模型Qwen3-4B,手機(jī)也能跑

    電子發(fā)燒友網(wǎng)綜合報(bào)道 8月7日,阿里通義千問宣布發(fā)布更小尺寸新模型——Qwen3-4B-Instruct-2507和Qwen3-4B-Thinking-2507。目前新
    的頭像 發(fā)表于 08-12 17:15 ?6724次閱讀
    阿里通義千問<b class='flag-5'>發(fā)布</b>小尺寸<b class='flag-5'>模型</b>Qwen3-4<b class='flag-5'>B</b>,手機(jī)也能跑

    OpenAI發(fā)布2開源模型

    OpenAI開源了兩款高性能權(quán)重語言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「
    的頭像 發(fā)表于 08-06 14:25 ?1032次閱讀

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】3、開源大語言模型部署

    1、ollama平臺搭建 ollama可以快速地部署開源模型,網(wǎng)址為https://ollama.com, 試用該平臺,可以在多平臺上部署 Deepseek-R1, Qwen3, Llama
    發(fā)表于 07-19 15:45

    華為宣布開源盤古7B稠密和72B混合專家模型

    電子發(fā)燒友網(wǎng)綜合報(bào)道 2025年6月30日,華為正式宣布開源盤古70億參數(shù)的稠密模型、盤古Pro MoE 720億參數(shù)的混合專家模型及基于昇騰的模型
    的頭像 發(fā)表于 07-06 05:51 ?7419次閱讀

    華為正式開源盤古7B稠密和72B混合專家模型

    [中國,深圳,2025年6月30日] 今日,華為正式宣布開源盤古70億參數(shù)的稠密模型、盤古Pro MoE 720億參數(shù)的混合專家模型和基于昇騰的模型
    的頭像 發(fā)表于 06-30 11:19 ?1342次閱讀

    使用 NPU 插件對量化的 Llama 3.1 8b 模型進(jìn)行推理時(shí)出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號 int 的錯(cuò)誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    NVIDIA使用Qwen3系列模型的最佳實(shí)踐

    阿里巴巴近期發(fā)布了其開源的混合推理大語言模型 (LLM) 通義千問 Qwen3,此次 Qwen3 開源模型系列包含兩款混合專家
    的頭像 發(fā)表于 05-08 11:45 ?3005次閱讀
    NVIDIA使用Qwen3系列<b class='flag-5'>模型</b>的最佳實(shí)踐

    低至¥2.27/h!就能使用全球最強(qiáng)開元模型——千問 QwQ-32B

    ABSTRACT摘要捷智算平臺上新全球最強(qiáng)開元模型——千問QwQ-32B。JAEALOT2025年3月18日3月17日,阿里通義千問發(fā)布的最新開源推理
    的頭像 發(fā)表于 03-19 12:34 ?1114次閱讀
    低至¥2.27/h!就能使用全球最強(qiáng)開元<b class='flag-5'>模型</b>——千問 QwQ-32<b class='flag-5'>B</b>