91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

日本超算富岳助力構(gòu)建大規(guī)模語(yǔ)言模型Fugaku-LLM

微云疏影 ? 來源:綜合整理 ? 作者:綜合整理 ? 2024-05-11 17:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

日本多企業(yè)聯(lián)合科研組于昨日宣布推出Fugaku-LLM大模型,此模型基于Arm架構(gòu)的“富岳”超級(jí)計(jì)算機(jī)進(jìn)行培訓(xùn),呈現(xiàn)出顯著特性。

Fugaku-LLM模型項(xiàng)目自2023年5月起啟動(dòng),初始參加方包括富士通、東京工業(yè)大學(xué)、日本東北大學(xué)及日本理化學(xué)研究所(簡(jiǎn)稱理研)。至同年8月,又有三家合作伙伴——名古屋大學(xué)、CyberAgent(Cygames母公司)以及HPC-AI領(lǐng)域創(chuàng)新企業(yè)Kotoba Technologies加入。

在昨日公布的新聞稿中,研究團(tuán)隊(duì)表示他們成功發(fā)掘了富岳超級(jí)計(jì)算機(jī)的潛能,使矩陣乘法運(yùn)算速度提升六倍,通信速度提高三倍,從而證實(shí)大型純CPU超級(jí)計(jì)算機(jī)同樣適用于大模型訓(xùn)練。

Fugaku-LLM模型參數(shù)規(guī)模達(dá)13B,成為日本國(guó)內(nèi)最大的大型語(yǔ)言模型。該模型利用13824個(gè)富岳超級(jí)計(jì)算機(jī)節(jié)點(diǎn),在3800億個(gè)Token上進(jìn)行訓(xùn)練,其中60%為日語(yǔ)數(shù)據(jù),其余40%涵蓋英語(yǔ)、數(shù)學(xué)、代碼等內(nèi)容。

研究團(tuán)隊(duì)表示,F(xiàn)ugaku-LLM模型能夠在交流過程中自然運(yùn)用日語(yǔ)敬語(yǔ)等特殊表達(dá)方式。

在測(cè)試結(jié)果方面,該模型在日語(yǔ)MT-Bench模型基準(zhǔn)測(cè)試中的平均得分高達(dá)5.5,位列基于日本語(yǔ)料資源的開放模型之首;同時(shí),在人文社科類別的測(cè)試中獲得9.18的高分。

目前,F(xiàn)ugaku-LLM模型已在GitHub和Hugging Face平臺(tái)公開發(fā)布,外部研究人員和工程師可以在遵循許可協(xié)議的前提下,將該模型應(yīng)用于學(xué)術(shù)和商業(yè)領(lǐng)域。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11288

    瀏覽量

    225252
  • 超級(jí)計(jì)算機(jī)

    關(guān)注

    2

    文章

    482

    瀏覽量

    43399
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3667

    瀏覽量

    5197
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    中科曙光scaleX萬(wàn)卡集群筑牢超大規(guī)模硬核底座

    3月5日,2026年《政府工作報(bào)告》為力產(chǎn)業(yè)劃下重點(diǎn):深化拓展“人工智能+”,實(shí)施超大規(guī)模集群、電協(xié)同等新型基礎(chǔ)設(shè)施工程,并加強(qiáng)全國(guó)一體化
    的頭像 發(fā)表于 03-10 14:35 ?418次閱讀

    中科曙光3套scaleX萬(wàn)卡集群落地國(guó)家互聯(lián)網(wǎng)鄭州核心節(jié)點(diǎn)

    2月5日,由中科曙光提供的3套萬(wàn)卡集群系統(tǒng)在國(guó)家互聯(lián)網(wǎng)鄭州核心節(jié)點(diǎn)同時(shí)上線試運(yùn)行,成為全國(guó)首個(gè)實(shí)現(xiàn)3萬(wàn)卡部署、且實(shí)際投入運(yùn)營(yíng)的最大國(guó)產(chǎn)AI力池,全面覆蓋萬(wàn)億參數(shù)
    的頭像 發(fā)表于 02-09 10:32 ?535次閱讀

    什么是大模型,智能體...?大模型100問,快速全面了解!

    一、概念篇1.什么是大模型?大模型是指參數(shù)規(guī)模巨大(通常達(dá)到數(shù)十億甚至萬(wàn)億級(jí)別)、使用海量數(shù)據(jù)訓(xùn)練而成的人工智能模型。2.什么是大語(yǔ)言
    的頭像 發(fā)表于 02-02 16:36 ?955次閱讀
    什么是大<b class='flag-5'>模型</b>,智能體...?大<b class='flag-5'>模型</b>100問,快速全面了解!

    中科曙光scaleX萬(wàn)卡集群重塑超大規(guī)模力基礎(chǔ)設(shè)施

    在“人工智能+”行動(dòng)深入推進(jìn)的當(dāng)下,力基礎(chǔ)設(shè)施已成為國(guó)家戰(zhàn)略競(jìng)爭(zhēng)力的核心,而超大規(guī)模集群的運(yùn)維管控難題卻日益凸顯。中科曙光scaleX萬(wàn)卡集群打造的智能管理體系,正以“能管住-管得穩(wěn)-用得好”的進(jìn)階邏輯,重塑超
    的頭像 發(fā)表于 01-30 15:43 ?783次閱讀

    TensorRT-LLM大規(guī)模專家并行架構(gòu)設(shè)計(jì)

    之前文章已介紹引入大規(guī)模 EP 的初衷,本篇將繼續(xù)深入介紹 TensorRT-LLM大規(guī)模專家并行架構(gòu)設(shè)計(jì)與創(chuàng)新實(shí)現(xiàn)。
    的頭像 發(fā)表于 09-23 14:42 ?1139次閱讀
    TensorRT-<b class='flag-5'>LLM</b>的<b class='flag-5'>大規(guī)模</b>專家并行架構(gòu)設(shè)計(jì)

    大規(guī)模專家并行模型在TensorRT-LLM的設(shè)計(jì)

    DeepSeek-V3 / R1 等模型采用大規(guī)模細(xì)粒度混合專家模型 (MoE) 架構(gòu),大幅提升了開源模型的質(zhì)量。Llama 4 和 Qwen3 等新發(fā)布的開源
    的頭像 發(fā)表于 09-06 15:21 ?1259次閱讀
    <b class='flag-5'>大規(guī)模</b>專家并行<b class='flag-5'>模型</b>在TensorRT-<b class='flag-5'>LLM</b>的設(shè)計(jì)

    米爾RK3576部署端側(cè)多模態(tài)多輪對(duì)話,6TOPS力驅(qū)動(dòng)30億參數(shù)LLM

    通過硬件力優(yōu)化與軟件棧協(xié)同,將視覺編碼、語(yǔ)言推理、對(duì)話管理三大核心能力封裝為可落地的工程方案,而本文將聚焦其多輪對(duì)話的部署全流程,拆解從模型加載到交互推理的每一個(gè)關(guān)鍵環(huán)節(jié)。 RK3576 多輪對(duì)
    發(fā)表于 09-05 17:25

    3萬(wàn)字長(zhǎng)文!深度解析大語(yǔ)言模型LLM原理

    我們正在參加全球電子成就獎(jiǎng)的評(píng)選,歡迎大家?guī)臀覀兺镀薄x謝支持本文轉(zhuǎn)自:騰訊技術(shù)工程作者:royceshao大語(yǔ)言模型LLM的精妙之處在于很好地利用數(shù)學(xué)解決了工業(yè)場(chǎng)景的問題,筆者基于過往工程經(jīng)驗(yàn)
    的頭像 發(fā)表于 09-02 13:34 ?3500次閱讀
    3萬(wàn)字長(zhǎng)文!深度解析大<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b><b class='flag-5'>LLM</b>原理

    中國(guó)智能規(guī)模增長(zhǎng)將40%

    表示預(yù)計(jì)在2025年,中國(guó)智能規(guī)模增長(zhǎng)將超過40%。 據(jù)中國(guó)信息通信研究院副院長(zhǎng) 魏亮表示:目前,中國(guó)力平臺(tái)實(shí)現(xiàn)了100多個(gè)力服務(wù)商入駐,完成1000余家行業(yè)用戶注冊(cè),接入主流
    的頭像 發(fā)表于 08-25 19:28 ?946次閱讀

    Votee AI借助NVIDIA技術(shù)加速方言小語(yǔ)種LLM開發(fā)

    了精準(zhǔn)的方言及小語(yǔ)種大語(yǔ)言模型 (LLM)。此舉成功解決了數(shù)據(jù)稀缺、語(yǔ)言復(fù)雜及計(jì)算效率等挑戰(zhàn),為全球數(shù)以百萬(wàn)計(jì)、缺乏數(shù)字化資源的語(yǔ)言使用者提
    的頭像 發(fā)表于 08-20 14:21 ?871次閱讀

    歐洲借助NVIDIA Nemotron優(yōu)化主權(quán)大語(yǔ)言模型

    NVIDIA 正攜手歐洲和中東的模型構(gòu)建商與云提供商,共同優(yōu)化主權(quán)大語(yǔ)言模型 (LLM),加速該地區(qū)各行業(yè)采用企業(yè)級(jí) AI。
    的頭像 發(fā)表于 06-12 15:42 ?1221次閱讀

    小白學(xué)大模型:從零實(shí)現(xiàn) LLM語(yǔ)言模型

    在當(dāng)今人工智能領(lǐng)域,大型語(yǔ)言模型LLM)的開發(fā)已經(jīng)成為一個(gè)熱門話題。這些模型通過學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然語(yǔ)言文本,完成各種復(fù)雜的任
    的頭像 發(fā)表于 04-30 18:34 ?1334次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:從零實(shí)現(xiàn) <b class='flag-5'>LLM</b><b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>

    AI原生架構(gòu)升級(jí):RAKsmart服務(wù)器在超大規(guī)模模型訓(xùn)練中的力突破

    近年來,隨著千億級(jí)參數(shù)模型的崛起,AI訓(xùn)練對(duì)力的需求呈現(xiàn)指數(shù)級(jí)增長(zhǎng)。傳統(tǒng)服務(wù)器架構(gòu)在應(yīng)對(duì)分布式訓(xùn)練、高并發(fā)計(jì)算和顯存優(yōu)化等場(chǎng)景時(shí)逐漸顯露瓶頸。而RAKsmart為超大規(guī)模模型訓(xùn)練提供
    的頭像 發(fā)表于 04-24 09:27 ?810次閱讀

    詳解 LLM 推理模型的現(xiàn)狀

    2025年,如何提升大型語(yǔ)言模型LLM)的推理能力成了最熱門的話題之一,大量?jī)?yōu)化推理能力的新策略開始出現(xiàn),包括擴(kuò)展推理時(shí)間計(jì)算、運(yùn)用強(qiáng)化學(xué)習(xí)、開展監(jiān)督微調(diào)和進(jìn)行提煉等。本文將深入探討LLM
    的頭像 發(fā)表于 04-03 12:09 ?1647次閱讀
    詳解 <b class='flag-5'>LLM</b> 推理<b class='flag-5'>模型</b>的現(xiàn)狀

    新品 | Module LLM Kit,離線大語(yǔ)言模型推理模塊套裝

    推理與數(shù)據(jù)交互需求。ModuleLLM是一款集成化的離線大語(yǔ)言模型(LLM)推理模塊,專為需要高效、智能交互的終端設(shè)備設(shè)計(jì)。Module13.2LLMMate模塊
    的頭像 發(fā)表于 03-28 18:49 ?1241次閱讀
    新品 | Module <b class='flag-5'>LLM</b> Kit,離線大<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>推理模塊套裝