91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌開發(fā)出一個新的語言模型,包含了超過1.6萬億個參數(shù)

ss ? 來源:陳述根本 ? 作者:陳根 ? 2021-01-19 15:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

開發(fā)人工智能的語言模型,一直是人工智能的重要細(xì)分領(lǐng)域。人工智能語言模型應(yīng)用包括搜索引擎、文字生成、個性化的對話工具以及軟件生成等。

2020年5月,OpenAI的一組研究人員發(fā)布了具有里程碑意義的AI模型GPT-3。GPT-3就是在570 GB的文本數(shù)據(jù)上訓(xùn)練的語言模型,因此,就訓(xùn)練數(shù)據(jù)和生成能力而言,GPT-3截至2020年都是最龐大的公開發(fā)布的語言模型。

此外,OpenAI的GPT-3一反之前死守基礎(chǔ)研究的思路,將 GPT-3 做成了一個服務(wù),提供可以調(diào)用的 OpenAI API,并且向開放了少量體驗資格,使得拿到體驗資格的業(yè)界人士或?qū)W者等,開發(fā)出了一眾驚人的演示。

包括答題、翻譯、寫文章,甚至是數(shù)學(xué)計算和編寫代碼。而由GPT-3所寫的文章幾乎達到了以假亂真的地步,在 OpenAI 的測試中,人類評估人員也很難判斷出這篇新聞的真假,檢測準(zhǔn)確率僅為 12%。

但現(xiàn)在,谷歌研究人員開發(fā)出一個新的語言模型,它包含了超過 1.6 萬億個參數(shù),遠(yuǎn)超 Open AI 開發(fā)的 GTP-3 的規(guī)模(1750 億個參數(shù)),成為迄今為止最大規(guī)模的人工智能語言模型,比之前谷歌開發(fā)過最大的語言模型 T5-XXL 的效率提高了 4 倍。

該語言模型使用 Switch Transformer 方法進行大規(guī)模訓(xùn)練,這是一種“稀疏激活”技術(shù),它只使用模型權(quán)重的子集或在模型中轉(zhuǎn)換輸入數(shù)據(jù)的參數(shù),以有效降低計算密集度。

盡管在部分實驗中,該模型相比規(guī)模更小的模型得到了較低分?jǐn)?shù)。但在相同的計算資源下,預(yù)訓(xùn)練速度提高了7倍。這些改進擴展到多語言設(shè)置中,我們在所有101種語言中測量mT5基本版本的增益。最后,我們通過在“巨大的干凈的爬蟲語料庫”上預(yù)先訓(xùn)練多達萬億個參數(shù)的模型,提高了語言模型的當(dāng)前規(guī)模,并實現(xiàn)了比T5-XXL模型4倍的加速。

研究人員認(rèn)為,稀疏性可以在未來賦予該模型在一系列不同媒體下多模態(tài)的優(yōu)勢。這也為人工智能語言模型的深入研究提供了更多方向的參考。

責(zé)任編輯:xj

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39789

    瀏覽量

    301379
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50097

    瀏覽量

    265317
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    571

    瀏覽量

    11310
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    《當(dāng) MCU 原廠的型號超過 100 ,會發(fā)生什么?》

    當(dāng) MCU 型號只有幾十時, 很多問題是感知不到的。 但超過 100 ,變化會非常明顯。 第件事:復(fù)制開始失效 簡單復(fù)制配置: 會
    發(fā)表于 02-27 10:04

    什么是大模型,智能體...?大模型100問,快速全面了解!

    、概念篇1.什么是大模型?大模型是指參數(shù)規(guī)模巨大(通常達到數(shù)十億甚至萬億級別)、使用海量數(shù)據(jù)訓(xùn)練而成的人工智能
    的頭像 發(fā)表于 02-02 16:36 ?891次閱讀
    什么是大<b class='flag-5'>模型</b>,智能體...?大<b class='flag-5'>模型</b>100問,快速全面了解!

    C語言與C++的區(qū)別及聯(lián)系

    創(chuàng)建源文件時什么都不給,默認(rèn)是.cpp。 3、返回值 C語言中,如果函數(shù)沒有指定返回值類型,默認(rèn)返回int類型;C++中,如果
    發(fā)表于 12-24 07:23

    谷歌與耶魯大學(xué)合作發(fā)布最新C2S-Scale 27B模型

    我們很榮幸發(fā)布與耶魯大學(xué)合作研究的 Cell2Sentence-Scale 27B (C2S-Scale),這是新的 270 億參數(shù)基礎(chǔ)模型,旨在理解單個細(xì)胞的 "
    的頭像 發(fā)表于 11-06 10:35 ?852次閱讀

    文讀懂大模型常見的10核心概念

    這些常見的專業(yè)術(shù)語,你又了解多少?這篇文章將幫助你快速掌握AI行業(yè)常見的核心概念。1、大模型型號每個大模型都有其獨特的設(shè)計和功能,有些大模型可能在語言理解方面表現(xiàn)出
    的頭像 發(fā)表于 09-22 17:02 ?1282次閱讀
    <b class='flag-5'>一</b>文讀懂大<b class='flag-5'>模型</b>常見的10<b class='flag-5'>個</b>核心概念

    谷歌AI模型點亮開發(fā)無限可能

    在 2025 年的 Google 谷歌開發(fā)者大會上,AI 不是門“技術(shù)”,更是股徹底改變開發(fā)范式的“力量”,助力
    的頭像 發(fā)表于 08-29 09:29 ?1134次閱讀

    ?Groq LPU 如何讓萬億參數(shù)模型「飛」起來?揭秘 Kimi K2 40 倍提速背后的黑科技

    Groq LPU 如何讓萬億參數(shù)模型「飛」起來?揭秘 Kimi K2 40 倍提速背后的黑科技? 最近,Moonshot AI 的千億參數(shù)模型 ?Kimi K2? 在 ?GroqCl
    的頭像 發(fā)表于 08-07 10:01 ?973次閱讀

    面向萬億參數(shù)模型,“超節(jié)點”涌現(xiàn)

    UniPoD系列超節(jié)點產(chǎn)品,旨在為萬億參數(shù)模型的訓(xùn)練與推理提供更強勁、更智能且更綠色的算力支持。 ? H3C UniPoD系列超節(jié)點產(chǎn)品基于領(lǐng)先的Scale-up南向互聯(lián)技術(shù),可實現(xiàn)單機柜最高64卡GPU間的高速互聯(lián)互通,
    的頭像 發(fā)表于 08-03 02:37 ?8901次閱讀
    面向<b class='flag-5'>萬億</b>級<b class='flag-5'>參數(shù)</b>大<b class='flag-5'>模型</b>,“超節(jié)點”涌現(xiàn)

    【HZ-T536開發(fā)板免費體驗】3 - Cangjie Magic調(diào)用視覺語言模型(VLM)真香,是不是可以沒有YOLO和OCR了?

    Sampling)全面提升模型能力, 達到 10B 參數(shù)級別的視覺語言模型的最強性能,在18榜單任務(wù)中持平甚至
    發(fā)表于 08-01 22:15

    利用自壓縮實現(xiàn)大型語言模型高效縮減

    隨著語言模型規(guī)模日益龐大,設(shè)備端推理變得越來越緩慢且耗能巨大。直接且效果出人意料的解決方案是剪除那些對任務(wù)貢獻甚微的完整通道(channel)。我們早期的研究提出了
    的頭像 發(fā)表于 07-28 09:36 ?553次閱讀
    利用自壓縮實現(xiàn)大型<b class='flag-5'>語言</b><b class='flag-5'>模型</b>高效縮減

    萬億參數(shù)!元腦企智體機率先支持Kimi K2大模型

    北京2025年7月21日 /美通社/ --?浪潮信息宣布元腦企智體機已率先完成對Kimi K2 萬億參數(shù)模型的適配支持,并實現(xiàn)單用戶70 tokens/s的流暢輸出速度,為企業(yè)客戶
    的頭像 發(fā)表于 07-22 09:27 ?557次閱讀
    <b class='flag-5'>萬億</b><b class='flag-5'>參數(shù)</b>!元腦企智<b class='flag-5'>一</b>體機率先支持Kimi K2大<b class='flag-5'>模型</b>

    FA模型卡片和Stage模型卡片切換

    卡片切換 卡片切換主要包含如下三部分: 卡片頁面布局:FA模型卡片和Stage模型卡片的布局都采用類web范式開發(fā)可以直接復(fù)用。 卡片配置文件:FA
    發(fā)表于 06-06 08:10

    如何將FA模型開發(fā)的聲明式范式應(yīng)用切換到Stage模型

    模型切換概述 本文介紹如何將FA模型開發(fā)的聲明式范式應(yīng)用切換到Stage模型,您需要完成如
    發(fā)表于 06-04 06:22

    小白學(xué)大模型:從零實現(xiàn) LLM語言模型

    在當(dāng)今人工智能領(lǐng)域,大型語言模型(LLM)的開發(fā)已經(jīng)成為熱門話題。這些模型通過學(xué)習(xí)大量的文本
    的頭像 發(fā)表于 04-30 18:34 ?1305次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:從零實現(xiàn) LLM<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    聆思CSK6大模型語音開發(fā)板接入DeepSeek資料匯總(包含深度求索/火山引擎/硅基流動華為昇騰滿血版)

    板調(diào)用DeepSeek節(jié)點,最終將大模型輸出的結(jié)果進行語音合成實現(xiàn)端側(cè)播報 下載工程模板導(dǎo)入,配置參數(shù)后綁定開發(fā)板ID即可。 關(guān)鍵參數(shù)說明(以火山引擎版為例): HOST
    發(fā)表于 03-06 17:02