91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌推出1.6萬億參數(shù)的人工智能語言模型,打破GPT-3記錄

hl5C_deeptechch ? 來源:DeepTech深科技 ? 作者:DeepTech深科技 ? 2021-01-18 17:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

古諺道:“熟讀唐詩(shī)三百首,不會(huì)作詩(shī)也會(huì)吟。” 這句話放在目前的人工智能語言模型中也非常適用。

此前,OpenAI 的研究人員開發(fā)出 “GPT-3”,這是一個(gè)由 1750 億個(gè)參數(shù)組成的 AI 語言模型,堪稱有史以來訓(xùn)練過的最大的語言模型,可以進(jìn)行原始類比、生成配方、甚至完成基本代碼編寫。

如今,這一記錄被打破了。近日,谷歌研究人員開發(fā)出一個(gè)新的語言模型,它包含了超過 1.6 萬億個(gè)參數(shù),這是迄今為止最大規(guī)模的人工智能語言模型,比之前谷歌開發(fā)的語言模型 T5-XXL 的規(guī)模大了 4 倍。

6735ad0e-584e-11eb-8b86-12bb97331649.png

參數(shù)是機(jī)器學(xué)習(xí)算法的關(guān)鍵所在,它們是從歷史訓(xùn)練數(shù)據(jù)中學(xué)習(xí)到的模型的一部分。一般而言,在語言領(lǐng)域中參數(shù)的數(shù)量和復(fù)雜度之間的相關(guān)性非常好。這一點(diǎn)類似于 GPU晶體管的數(shù)量,在同樣的制程工藝下,晶體管越多其算力便越強(qiáng),而語言模型包含的參數(shù)愈多就愈接近人類自然語言。

正如研究人員在一篇論文中指出的那樣,大規(guī)模的訓(xùn)練是通向強(qiáng)大模型的有效途徑,在大數(shù)據(jù)集和參數(shù)計(jì)數(shù)的支持下,簡(jiǎn)單的體系結(jié)構(gòu)遠(yuǎn)遠(yuǎn)超過了更復(fù)雜的算法。但是,有效的大規(guī)模培訓(xùn)在計(jì)算上非常密集。這就是為什么研究人員熱衷于他們所說的 “開關(guān)變壓器”,這是一種 “稀疏激活” 技術(shù),它只使用模型權(quán)重的一個(gè)子集或者在模型中轉(zhuǎn)換輸入數(shù)據(jù)的參數(shù)。

“開關(guān)變壓器” 是早在 90 年代初首次提出的一種人工智能模型范例,大體意思是將多個(gè)專家或?qū)iT處理不同任務(wù)的模型放在一個(gè)更大的模型中,并有一個(gè) “門控網(wǎng)絡(luò)” 來選擇為任何給定數(shù)據(jù)咨詢哪些專家。

在一項(xiàng)實(shí)驗(yàn)中,研究人員使用 32 個(gè) TPU 內(nèi)核對(duì)幾個(gè)不同的 “開關(guān)變壓器” 模型進(jìn)行了預(yù)訓(xùn)練,這些 TPU 內(nèi)核位于一個(gè)從 Reddit、Wikipedia 和其他網(wǎng)絡(luò)資源中搜集的 750GB 大小的文本數(shù)據(jù)語料庫(kù)中,任務(wù)則是讓這些模型預(yù)測(cè)段落中 15% 的單詞被遮住的缺失單詞,以及其他挑戰(zhàn),比如檢索文本來回答一系列越來越難的問題。

研究人員稱,包含了 1.6 萬億參數(shù)和 2048 名專家的模型 Switch-C 顯示 “完全沒有訓(xùn)練不穩(wěn)定性”。然而,在桑福德問答數(shù)據(jù)集的基準(zhǔn)測(cè)試中,Switch-C 的得分居然比僅包含 3950 億個(gè)參數(shù)和 64 名專家的模型 Switch-XXL 還要低一點(diǎn),對(duì)此,研究人員認(rèn)為是因?yàn)槲⒄{(diào)質(zhì)量、計(jì)算要求和參數(shù)數(shù)量之間的不透明關(guān)系所致。

在這種情況下,“開關(guān)變壓器” 導(dǎo)致了一些下游任務(wù)的收益。例如,研究人員稱在使用相同數(shù)量的計(jì)算資源的情況下,它可以使訓(xùn)練前的加速速度提高 7 倍以上。他們還證明 “稀疏激活” 技術(shù)可以用來創(chuàng)建更小、更密集的模型,這些模型可以對(duì)任務(wù)進(jìn)行微調(diào),其質(zhì)量增益為大型模型的 30%。

對(duì)此他們表示:雖然這項(xiàng)工作主要集中在超大模型上,但我們也發(fā)現(xiàn)只有兩名專家的模型可以提高性能,同時(shí)很容易適應(yīng)通用 GPU 或 TPU 的內(nèi)存限制。另外,通過將稀疏模型提取為稠密模型,可以實(shí)現(xiàn) 10 到 100 倍的壓縮率,同時(shí)獲得專家模型約 30% 的質(zhì)量增益。

在另一個(gè)測(cè)試中,“開關(guān)變壓器” 模型被訓(xùn)練在 100 多種不同語言之間進(jìn)行翻譯,研究人員觀察到 101 種語言的 “普遍改善”,91% 的語言受益于比基線模型快 4 倍以上的速度。未來,研究人員還計(jì)劃將 “開關(guān)變壓器” 應(yīng)用于新的領(lǐng)域,比如圖像和文本。他們認(rèn)為,模型稀疏性可以賦予優(yōu)勢(shì),在一系列不同的媒體以及多模態(tài)模型。

美中不足的是,研究人員的工作沒有考慮到這些語言模型在現(xiàn)實(shí)世界中的影響,比如模型通常會(huì)放大一些公開數(shù)據(jù)中的偏見。對(duì)此,OpenAI 公司指出,這可能導(dǎo)致在女性代詞附近放置 “淘氣”;而在 “恐怖主義” 等詞附近放置 “伊斯蘭” 等。根據(jù)米德爾伯里國(guó)際研究所的說法,這種偏見可能被惡意行為者利用,通過散布錯(cuò)誤信息、造謠和謊言來煽動(dòng)不和。

而路透社也曾報(bào)道稱,谷歌的研究人員現(xiàn)在被要求在研究人臉和情緒分析以及種族分類等話題之前,先咨詢法律、政策和公關(guān)團(tuán)隊(duì),性別或政治派別。

綜上所述,盡管谷歌訓(xùn)練的 1.6 萬億參數(shù)的人工智能語言模型還沒辦法做到真正意義上的人工智能,存在一些不足之處需要完善和優(yōu)化,但隨著在摩爾定律下電子設(shè)備算力的不斷提升,近些年 AI 語言模型參數(shù)量級(jí)呈指數(shù)倍發(fā)展,相信在不久的將來,或許真的會(huì)出現(xiàn)一個(gè)無限接近熟讀人類歷史所有文明記錄的超級(jí)模型,能夠和人類完全實(shí)現(xiàn)自然語言交流,不妨讓我們好好期待一下吧!

原文標(biāo)題:GPT-3記錄被打破!谷歌推出1.6萬億參數(shù)的人工智能語言模型

文章出處:【微信公眾號(hào):DeepTech深科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6254

    瀏覽量

    111446
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50102

    瀏覽量

    265520

原文標(biāo)題:GPT-3記錄被打破!谷歌推出1.6萬億參數(shù)的人工智能語言模型

文章出處:【微信號(hào):deeptechchina,微信公眾號(hào):deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    GPT-5震撼發(fā)布:AI領(lǐng)域的重大飛躍

    躍升重新定義了人工智能的能力邊界。OpenAI首席執(zhí)行官山姆·奧特曼在發(fā)布會(huì)上直言:“這不僅是模型的升級(jí),更是通往通用人工智能(AGI)的關(guān)鍵里程碑?!?? ? GPT-5:集成
    的頭像 發(fā)表于 08-09 07:44 ?1w次閱讀
    <b class='flag-5'>GPT</b>-5震撼發(fā)布:AI領(lǐng)域的重大飛躍

    淺談人工智能(2)

    接前文《淺談人工智能(1)》。 (5)什么是弱人工智能、強(qiáng)人工智能以及超人工智能? 弱人工智能(Weak AI),也稱限制領(lǐng)域
    的頭像 發(fā)表于 02-22 08:24 ?139次閱讀
    淺談<b class='flag-5'>人工智能</b>(2)

    什么是大模型,智能體...?大模型100問,快速全面了解!

    一、概念篇1.什么是大模型?大模型是指參數(shù)規(guī)模巨大(通常達(dá)到數(shù)十億甚至萬億級(jí)別)、使用海量數(shù)據(jù)訓(xùn)練而成的人工智能
    的頭像 發(fā)表于 02-02 16:36 ?925次閱讀
    什么是大<b class='flag-5'>模型</b>,<b class='flag-5'>智能</b>體...?大<b class='flag-5'>模型</b>100問,快速全面了解!

    人工智能應(yīng)用開發(fā)-中級(jí)(大模型)》認(rèn)證證書含金量如何?怎么考?

    ,且能完成智能體系統(tǒng)設(shè)計(jì)與任務(wù)編排的工程師備受企業(yè)青睞?!?b class='flag-5'>人工智能應(yīng)用開發(fā)-中級(jí)(大模型)》專業(yè)技術(shù)人才培訓(xùn)授證項(xiàng)目正是為應(yīng)對(duì)這一趨勢(shì)推出,項(xiàng)目依托中國(guó)電子學(xué)會(huì)“
    的頭像 發(fā)表于 01-28 15:11 ?728次閱讀
    《<b class='flag-5'>人工智能</b>應(yīng)用開發(fā)-中級(jí)(大<b class='flag-5'>模型</b>)》認(rèn)證證書含金量如何?怎么考?

    上海交大發(fā)布國(guó)產(chǎn)光學(xué)大模型Optics GPT

    電子發(fā)燒友網(wǎng)綜合報(bào)道 1月25日,上海交通大學(xué)正式推出光學(xué)領(lǐng)域垂直大語言模型——Optics GPT(光學(xué)大模型),這是一款完全自主研發(fā)的國(guó)
    的頭像 發(fā)表于 01-26 09:59 ?1137次閱讀
    上海交大發(fā)布國(guó)產(chǎn)光學(xué)大<b class='flag-5'>模型</b>Optics <b class='flag-5'>GPT</b>

    谷歌正式推出Gemini 3 Flash模型

    我們正式推出了 Gemini 3 Flash,這是以較低成本打造的高效前沿智能,成功地進(jìn)一步擴(kuò)展了 Gemini 3 模型系列。
    的頭像 發(fā)表于 01-22 16:04 ?505次閱讀

    利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能

    的框架小 10 倍,速度也快 10 倍,甚至可以在最先進(jìn)的邊緣設(shè)備上進(jìn)行人工智能處理。在這篇博文中,我們將介紹這對(duì)開發(fā)人員意味著什么,以及使用 Neuton 模型如何改進(jìn)您的開發(fā)和終端
    發(fā)表于 08-31 20:54

    挖到寶了!人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器

    應(yīng)用場(chǎng)景。從數(shù)據(jù)采集,到模型推理,都能完整且自如地參與,輕松解鎖人工智能全流程實(shí)訓(xùn),讓你深度體驗(yàn)AI技術(shù)的魅力 。 四、九門課程全覆蓋,滿足多元學(xué)習(xí)需求 對(duì)于高校教學(xué)或者技術(shù)學(xué)習(xí)來說,課程覆蓋的廣度
    發(fā)表于 08-07 14:30

    挖到寶了!比鄰星人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器!

    應(yīng)用場(chǎng)景。從數(shù)據(jù)采集,到模型推理,都能完整且自如地參與,輕松解鎖人工智能全流程實(shí)訓(xùn),讓你深度體驗(yàn)AI技術(shù)的魅力 。 四、九門課程全覆蓋,滿足多元學(xué)習(xí)需求 對(duì)于高校教學(xué)或者技術(shù)學(xué)習(xí)來說,課程覆蓋的廣度
    發(fā)表于 08-07 14:23

    超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級(jí)芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    Neuton 是一家邊緣AI 公司,致力于讓機(jī)器 學(xué)習(xí)模型更易于使用。它創(chuàng)建的模型比競(jìng)爭(zhēng)對(duì)手的框架小10 倍,速度也快10 倍,甚至可以在最先進(jìn)的邊緣設(shè)備上進(jìn)行人工智能處理。在這篇博文中,我們將介紹
    發(fā)表于 07-31 11:38

    人工智能技術(shù)的現(xiàn)狀與未來發(fā)展趨勢(shì)

    人工智能技術(shù)的現(xiàn)狀與未來發(fā)展趨勢(shì) ? ? 近年來,人工智能(AI)技術(shù)迅猛發(fā)展,深刻影響著各行各業(yè)。從計(jì)算機(jī)視覺到自然語言處理,從自動(dòng)駕駛到醫(yī)療診斷,AI的應(yīng)用場(chǎng)景不斷擴(kuò)展,推動(dòng)社會(huì)向智能
    的頭像 發(fā)表于 07-16 15:01 ?1885次閱讀

    最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門學(xué)習(xí)課程參考2025版(大模型篇)

    人工智能模型重塑教育與社會(huì)發(fā)展的當(dāng)下,無論是探索未來職業(yè)方向,還是更新技術(shù)儲(chǔ)備,掌握大模型知識(shí)都已成為新時(shí)代的必修課。從職場(chǎng)上輔助工作的智能助手,到課堂用于學(xué)術(shù)研究的
    發(fā)表于 07-04 11:10

    如何借助大語言模型打造人工智能生態(tài)系統(tǒng)

    、硬件需求以及所涉及的財(cái)務(wù)影響這三者之間的內(nèi)在聯(lián)系。我們將深入探究現(xiàn)實(shí)中大語言模型的發(fā)展趨勢(shì),并共同探討如何借助規(guī)模更小、效能更高的模型,打造一個(gè)更具可持續(xù)性的人工智能生態(tài)系統(tǒng)。
    的頭像 發(fā)表于 04-27 09:19 ?1098次閱讀
    如何借助大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>打造<b class='flag-5'>人工智能</b>生態(tài)系統(tǒng)

    Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺(tái),加速企業(yè)人工智能應(yīng)用

    -Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺(tái),加速企業(yè)人工智能應(yīng)用 Cognizant將在關(guān)鍵增長(zhǎng)領(lǐng)域提供解決方案,包括企業(yè)級(jí)AI智能體、定制化行業(yè)大型語言
    的頭像 發(fā)表于 03-26 14:42 ?746次閱讀
    Cognizant將與NVIDIA合作部署神經(jīng)<b class='flag-5'>人工智能</b>平臺(tái),加速企業(yè)<b class='flag-5'>人工智能</b>應(yīng)用

    ?VLM(視覺語言模型)?詳細(xì)解析

    視覺語言模型(Visual Language Model, VLM)是一種結(jié)合視覺(圖像/視頻)和語言(文本)處理能力的多模態(tài)人工智能模型,
    的頭像 發(fā)表于 03-17 15:32 ?8888次閱讀
    ?VLM(視覺<b class='flag-5'>語言</b><b class='flag-5'>模型</b>)?詳細(xì)解析