91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

摩爾線程完成DeepSeek開源庫FlashMLA和DeepGEMM適配

摩爾線程 ? 來源:摩爾線程 ? 2025-02-27 14:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自DeepSeek啟動“開源周”以來,已陸續(xù)開源三個代碼庫。摩爾線程基于全新MUSA Compute Capability 3.1計算架構,可提供原生FP8計算能力,同時升級了高性能線性代數(shù)模板庫MUTLASS,快速支持了FlashMLA。不僅如此,摩爾線程還基于MUTLASS在全新GPU架構上優(yōu)化實現(xiàn)了FP8矩陣乘法,支持DeepGEMM的相應功能,充分展示了摩爾線程MUSA架構和全功能GPU在生態(tài)兼容與快速適配上的強大優(yōu)勢。

FlashMLA是一款高效的MLA(Multi-Head Latent Attention)推理內核開源倉庫,旨在加速MLA機制的計算,特別適用于DeepSeek系列模型(如DeepSeek-V2、V3和R1)。DeepGEMM是一個支持密集矩陣與混合專家(MoE)矩陣乘法的FP8 GEMM庫,為 V3/R1的訓練與推理提供強大動力。這兩個重要的開源倉庫均基于高性能通用矩陣乘法(GEMM)的C++模板庫進行開發(fā)。

摩爾線程基于新一代計算架構MUSA Compute Capability 3.1的全功能GPU,具備全新的Tensor計算引擎及數(shù)據(jù)搬運引擎,能夠提供原生FP8計算能力。升級的MUTLASS高性能線性代數(shù)模板庫支持MUSA Compute Capability 3.1的全新特性,并提供了若干算子的優(yōu)化參考實現(xiàn),包括基于FlashAttention3思想實現(xiàn)的FlashMLA以及FP8矩陣乘算子,特別支持DeepSeek訓練所需的Groupwise Scaling FP8矩陣乘法內核函數(shù)。得益于全新的Tensor計算引擎,F(xiàn)P8計算具有足夠高的累加精度,無需額外的二次精度修正,為前沿算法的探索打下了堅實基礎。

借助MUTLASS 0.2.0,摩爾線程發(fā)布開源倉庫MT-FlashMLA,能夠快速對DeepSeek FlashMLA進行兼容部署。同時摩爾線程MUTLASS提供了一個全新的參考實現(xiàn),充分汲取FlashAttention3的先進算法思想,針對摩爾線程GPU設計了全新的計算流水線。這一設計能夠有效掩藏數(shù)據(jù)搬運的延遲和Softmax計算的開銷,充分發(fā)揮摩爾線程MUSA Compute Capability 3.1全功能GPU的Tensor計算效率。

作為國內率先原生支持FP8計算精度的國產GPU企業(yè),摩爾線程迅速響應,并快速適配DeepSeek的各個開源倉庫,旨在為更多GPU開發(fā)者賦能。摩爾線程始終致力于推動開源生態(tài)的發(fā)展,通過技術開放與生態(tài)共建,加速國產全功能GPU在AI計算領域的規(guī)?;瘧茫瑸楦嘤脩籼峁└悄?、高效的解決方案。

關于摩爾線程

摩爾線程成立于2020年10月,以全功能GPU為核心,致力于向全球提供加速計算的基礎設施和一站式解決方案,為各行各業(yè)的數(shù)智化轉型提供強大的AI計算支持。

我們的目標是成為具備國際競爭力的GPU領軍企業(yè),為融合人工智能和數(shù)字孿生的數(shù)智世界打造先進的加速計算平臺。我們的愿景是為美好世界加速。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    5194

    瀏覽量

    135481
  • 開源
    +關注

    關注

    3

    文章

    4207

    瀏覽量

    46151
  • 摩爾線程
    +關注

    關注

    2

    文章

    279

    瀏覽量

    6456
  • DeepSeek
    +關注

    關注

    2

    文章

    835

    瀏覽量

    3271

原文標題:原生FP8計算 + MUTLASS|摩爾線程高效完成DeepSeek開源庫FlashMLA和DeepGEMM的適配

文章出處:【微信號:moorethreads,微信公眾號:摩爾線程】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    摩爾線程MTT S5000全面適配Qwen3.5三款新模型

    第一時間做出極速響應,宣布已在旗艦級AI訓推一體全功能GPU MTT S5000上,完成對這三款全新模型的全方位適配。 ? 此次高效支持充分展示了摩爾線程MUSA生態(tài)的成熟度與完備性。
    的頭像 發(fā)表于 02-26 16:23 ?374次閱讀

    摩爾線程快速完成對Qwen3.5模型全面適配

    2月17日,摩爾線程宣布已在旗艦級AI訓推一體全功能GPU MTT S5000上完成對阿里最新大模型Qwen3.5的全方位適配。此次支持充分展示了
    發(fā)表于 02-18 08:32 ?170次閱讀

    Day-0支持|摩爾線程完成MiniMax M2.5模型極速適配

    2月14日,摩爾線程在其旗艦級AI訓推一體全功能GPU MTT S5000上,成功實現(xiàn)了對MiniMax新一代大模型MiniMax M2.5的Day-0極速適配。 在此次適配工作中,
    發(fā)表于 02-15 08:01 ?656次閱讀

    摩爾線程MTT S5000率先完成對GLM-5的適配

    2月11日,智譜正式發(fā)布新一代大模型GLM-5。摩爾線程基于SGLang推理框架,在旗艦級AI訓推一體全功能GPU MTT S5000上,Day-0完成了全流程適配與驗證。 憑借MUS
    的頭像 發(fā)表于 02-12 10:34 ?668次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>MTT S5000率先<b class='flag-5'>完成</b>對GLM-5的<b class='flag-5'>適配</b>

    Day-0支持|摩爾線程MTT S5000率先完成對GLM-5的適配

    2月11日,智譜正式發(fā)布新一代大模型GLM-5。摩爾線程基于SGLang推理框架,在旗艦級AI訓推一體全功能GPU MTT S5000上,Day-0完成了全流程適配與驗證。 憑借MUS
    發(fā)表于 02-12 09:15 ?503次閱讀
    Day-0支持|<b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>MTT S5000率先<b class='flag-5'>完成</b>對GLM-5的<b class='flag-5'>適配</b>

    摩爾線程正式開源TileLang-MUSA項目

    近日,摩爾線程正式開源TileLang-MUSA項目,實現(xiàn)對TileLang編程語言的完整支持。該項目已成功在摩爾線程多代全功能GPU上
    的頭像 發(fā)表于 02-11 16:57 ?1261次閱讀

    摩爾線程發(fā)布Torch-MUSA v2.7.0版本

    近日,摩爾線程正式發(fā)布PyTorch深度學習框架的MUSA擴展——Torch-MUSA v2.7.0,新版本在功能集成、性能優(yōu)化與硬件支持方面實現(xiàn)進一步突破。Torch-MUSA在短短一個月
    的頭像 發(fā)表于 12-04 09:05 ?1131次閱讀

    摩爾線程亮相GOTC 2025全球開源技術峰會

    。摩爾線程高級副總裁楊上山在主論壇發(fā)表《摩爾線程全功能GPU原生支持開源生態(tài)》的主題演講,系統(tǒng)闡述了摩爾
    的頭像 發(fā)表于 11-04 10:43 ?2162次閱讀

    國家信息中心與摩爾線程達成戰(zhàn)略合作

    10月21日上午,國家信息中心與摩爾線程在北京舉行戰(zhàn)略合作協(xié)議簽約儀式。國家信息中心主任徐強,摩爾線程創(chuàng)始人、董事長兼首席執(zhí)行官張建中出席簽約儀式。國家信息中心副主任周民與
    的頭像 發(fā)表于 10-23 15:52 ?552次閱讀

    【「DeepSeek 核心技術揭秘」閱讀體驗】書籍介紹+第一章讀后心得

    進行了深入的分析。通過對 FlashMLA、DeepEP、DeepGEMM、DualPipe 與 EPLB、3FS 等項目的介紹,展示了 DeepSeek開源領域的積極探索,體現(xiàn)了
    發(fā)表于 07-17 11:59

    摩爾線程率先支持騰訊混元-A13B模型

    近日,騰訊正式開源基于專家混合(MoE)架構的大語言模型混元-A13B。同日,摩爾線程團隊憑借技術前瞻性,率先完成該模型在全功能GPU的深度適配
    的頭像 發(fā)表于 07-04 14:10 ?907次閱讀

    摩爾線程MTT S4000完成DeepSeek R1-671B大模型適配驗證

    我國人工智能技術產業(yè)近來取得顯著進步,多款新發(fā)布的大模型已達到國際先進水平。我國AI芯片企業(yè)也在積極行動,和各國產大模型開展適配,共同構建智能計算產業(yè)生態(tài)。作為國家權威技術驗證平臺,中國信息通信
    的頭像 發(fā)表于 05-10 09:49 ?1333次閱讀

    摩爾線程GPU成功適配Deepseek-V3-0324大模型

    架構和全功能GPU的強大技術實力,摩爾線程迅速響應并完成了對DeepSeek-V3的無縫升級,實現(xiàn)了零報錯、零兼容性問題的光速部署,充分展現(xiàn)了摩爾
    的頭像 發(fā)表于 03-31 11:34 ?1282次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>GPU成功<b class='flag-5'>適配</b><b class='flag-5'>Deepseek</b>-V3-0324大模型

    摩爾線程與當虹科技達成深度合作

    近日,摩爾線程與當虹科技達成深度合作,基于國產GPU成功完成了與BlackEye多模態(tài)視聽大模型的深度融合。雙方聯(lián)手打造專業(yè)級視聽“引擎”,并在超高清GPU算力場景中成功落地。
    的頭像 發(fā)表于 03-20 15:22 ?1506次閱讀

    摩爾線程GPU原生FP8計算助力AI訓練

    近日,摩爾線程正式開源MT-MegatronLM與MT-TransformerEngine兩大AI框架。通過深度融合FP8混合訓練策略和高性能算子,這兩大框架在國產全功能GPU上實現(xiàn)
    的頭像 發(fā)表于 03-17 17:05 ?1528次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>GPU原生FP8計算助力AI訓練