91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于xLSTM和Transformer的模型評(píng)估:xLSTM在“語言能力”的表現(xiàn)

微云疏影 ? 來源:綜合整理 ? 作者:綜合整理 ? 2024-05-13 10:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

據(jù)了解,1997年,兩位科學(xué)家Sepp Hochreiter和Jürgen Schmidhuber共同創(chuàng)建了長短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),用于改善循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的長期記憶功能。

近期,Hochreiter在arXiv平臺(tái)發(fā)表論文,推出了一款新型的XLSTM(擴(kuò)展LSTM)架構(gòu),有效克服了傳統(tǒng)LSTM互聯(lián)網(wǎng)結(jié)構(gòu)“僅能按時(shí)間順序處理信息”的局限性,有望挑戰(zhàn)當(dāng)前熱門的Transformer架構(gòu)。

該論文指出,Hochreiter在新的XLSTM架構(gòu)中運(yùn)用了指數(shù)型門控循環(huán)網(wǎng)絡(luò),并引入了“sLSTM”和“mLSTM”兩種記憶規(guī)則,使神經(jīng)網(wǎng)絡(luò)能夠更高效地利用RAM,實(shí)現(xiàn)類似于Transformer的并行化處理。

研究團(tuán)隊(duì)通過對(duì)基于XLSTM和Transformer架構(gòu)的兩款模型進(jìn)行150億個(gè)Token的訓(xùn)練和測試,結(jié)果顯示,XLSTM表現(xiàn)更為出色,特別是在“語言能力”方面表現(xiàn)尤為突出。因此,研究人員預(yù)測,未來XLSTM有可能與Transformer展開競爭。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107897
  • RAM
    RAM
    +關(guān)注

    關(guān)注

    8

    文章

    1399

    瀏覽量

    120681
  • 架構(gòu)
    +關(guān)注

    關(guān)注

    1

    文章

    533

    瀏覽量

    26600
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Transformer 入門:從零理解 AI 大模型的核心原理

    分:Transformer 架構(gòu)詳解 現(xiàn)在你已經(jīng)了解了數(shù)學(xué)基礎(chǔ)和語言模型概念,讓我們來看 Transformer 是如何工作的! Transform
    發(fā)表于 02-10 16:33

    AI基礎(chǔ)設(shè)施中部署大語言模型的三大舉措

    文:Gartner研究副總裁周玲中國企業(yè)機(jī)構(gòu)已逐步在生產(chǎn)環(huán)境中運(yùn)行或者計(jì)劃運(yùn)行大語言模型,但在AI基礎(chǔ)設(shè)施的生產(chǎn)部署與高效運(yùn)營方面仍面臨諸多挑戰(zhàn)。目前,中國正加速提升其生成式AI能力,覆蓋大
    的頭像 發(fā)表于 02-09 16:28 ?442次閱讀
    <b class='flag-5'>在</b>AI基礎(chǔ)設(shè)施中部署大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的三大舉措

    Transformer如何讓自動(dòng)駕駛大模型獲得思考能力?

    在談及自動(dòng)駕駛時(shí),Transformer一直是非常關(guān)鍵的技術(shù),為何Transformer自動(dòng)駕駛行業(yè)一直被提及?
    的頭像 發(fā)表于 02-01 09:15 ?4225次閱讀

    基于NVIDIA Alpamayo構(gòu)建具備推理能力的輔助駕駛汽車

    輔助駕駛研究領(lǐng)域正經(jīng)歷一場快速變革。視覺-語言-動(dòng)作推理模型(Reasoning VLA) 的出現(xiàn)正重塑該領(lǐng)域,這些模型為輔助駕駛決策賦予了類人的思維能力。這類
    的頭像 發(fā)表于 01-14 09:41 ?2107次閱讀
    基于NVIDIA Alpamayo構(gòu)建具備推理<b class='flag-5'>能力</b>的輔助駕駛汽車

    自動(dòng)駕駛大模型中常提的泛化能力是指啥?

    [首發(fā)于智駕最前沿微信公眾號(hào)]討論自動(dòng)駕駛大模型時(shí),常會(huì)有幾個(gè)評(píng)價(jià)維度,如感知是否準(zhǔn)確、決策是否穩(wěn)定、系統(tǒng)是否足夠魯棒,以及模型有沒有“泛化能力”。相比準(zhǔn)確率、延遲這些容易量化的指標(biāo)
    的頭像 發(fā)表于 12-10 09:15 ?629次閱讀
    自動(dòng)駕駛大<b class='flag-5'>模型</b>中常提的泛化<b class='flag-5'>能力</b>是指啥?

    Transformer如何讓自動(dòng)駕駛變得更聰明?

    ]自動(dòng)駕駛中常提的Transformer本質(zhì)上是一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),最早在自然語言處理里火起來。與卷積神經(jīng)網(wǎng)絡(luò)(CNN)或循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)不同,Transformer能夠自動(dòng)審視所有輸入信息,并動(dòng)態(tài)判斷哪些部分更為關(guān)鍵,同時(shí)
    的頭像 發(fā)表于 11-19 18:17 ?2312次閱讀

    如何評(píng)估電能質(zhì)量在線監(jiān)測裝置的硬件能力?

    對(duì)測量精度、長期運(yùn)行的支撐能力。以下是具體評(píng)估維度與實(shí)操方法: 一、核心部件性能:硬件能力的 “基礎(chǔ)門檻” 核心部件(傳感器接口、ADC、電源)直接決定測量下限,需重點(diǎn)核查關(guān)鍵參數(shù)與實(shí)測表現(xiàn)
    的頭像 發(fā)表于 11-09 17:18 ?1295次閱讀

    小白學(xué)大模型:國外主流大模型匯總

    )領(lǐng)域。論文的核心是提出了一種名為Transformer的全新模型架構(gòu),它完全舍棄了以往序列模型(如循環(huán)神經(jīng)網(wǎng)絡(luò)RNNs和卷積神經(jīng)網(wǎng)絡(luò)CNNs)中常用的循環(huán)和卷積結(jié)構(gòu)
    的頭像 發(fā)表于 08-27 14:06 ?1001次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:國外主流大<b class='flag-5'>模型</b>匯總

    自動(dòng)駕駛中Transformer模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”
    的頭像 發(fā)表于 08-13 09:15 ?4220次閱讀
    自動(dòng)駕駛中<b class='flag-5'>Transformer</b>大<b class='flag-5'>模型</b>會(huì)取代深度學(xué)習(xí)嗎?

    Transformer端到端自動(dòng)駕駛架構(gòu)中是何定位?

    典型的Transformer架構(gòu)已被用于構(gòu)建“感知-規(guī)劃-控制統(tǒng)一建模”的方案。如Waymo和小馬智行正在研發(fā)的多模態(tài)大模型(MultimodalLargeModels,MLLMs),將來自攝像頭
    的頭像 發(fā)表于 08-03 11:03 ?1424次閱讀

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】3、開源大語言模型部署

    ,對(duì)算力的要求越高,模型表現(xiàn)越好。 我這里就使用最小的Qwen0.5b來試一下: 拉取完畢之后,就可以命令行輸入你想問的問題: 我讓它幫我寫一首詩,指定了主題和要表現(xiàn)的內(nèi)容:
    發(fā)表于 07-19 15:45

    Transformer架構(gòu)概述

    由于Transformer模型的出現(xiàn)和快速發(fā)展,深度學(xué)習(xí)領(lǐng)域正在經(jīng)歷一場翻天覆地的變化。這些突破性的架構(gòu)不僅重新定義了自然語言處理(NLP)的標(biāo)準(zhǔn),而且拓寬了視野,徹底改變了AI的許多方面。
    的頭像 發(fā)表于 06-10 14:24 ?1310次閱讀
    <b class='flag-5'>Transformer</b>架構(gòu)概述

    DeepSeek 引領(lǐng)邊緣 AI 芯片向更高性能、更低功耗、更強(qiáng)泛化能力的方向演進(jìn)

    量從十億量級(jí)到數(shù)百億甚至千億級(jí)不等。例如,DeepSeek LLM 67B 多項(xiàng)評(píng)測中已超過同級(jí)別開源模型。這些模型通常采用 Transformer 架構(gòu)及如多頭潛在注意力(MLA)
    的頭像 發(fā)表于 05-09 10:27 ?2256次閱讀

    小白學(xué)大模型:從零實(shí)現(xiàn) LLM語言模型

    在當(dāng)今人工智能領(lǐng)域,大型語言模型(LLM)的開發(fā)已經(jīng)成為一個(gè)熱門話題。這些模型通過學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然語言文本,完成各種復(fù)雜的任務(wù),如寫作、翻譯、問答等。https
    的頭像 發(fā)表于 04-30 18:34 ?1334次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:從零實(shí)現(xiàn) LLM<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    ?VLM(視覺語言模型)?詳細(xì)解析

    視覺語言模型(Visual Language Model, VLM)是一種結(jié)合視覺(圖像/視頻)和語言(文本)處理能力的多模態(tài)人工智能模型
    的頭像 發(fā)表于 03-17 15:32 ?8973次閱讀
    ?VLM(視覺<b class='flag-5'>語言</b><b class='flag-5'>模型</b>)?詳細(xì)解析