chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

摩爾線程完成DeepSeek開源庫FlashMLA和DeepGEMM適配

摩爾線程 ? 來源:摩爾線程 ? 2025-02-27 14:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自DeepSeek啟動“開源周”以來,已陸續(xù)開源三個代碼庫。摩爾線程基于全新MUSA Compute Capability 3.1計算架構(gòu),可提供原生FP8計算能力,同時升級了高性能線性代數(shù)模板庫MUTLASS,快速支持了FlashMLA。不僅如此,摩爾線程還基于MUTLASS在全新GPU架構(gòu)上優(yōu)化實現(xiàn)了FP8矩陣乘法,支持DeepGEMM的相應(yīng)功能,充分展示了摩爾線程MUSA架構(gòu)和全功能GPU在生態(tài)兼容與快速適配上的強大優(yōu)勢。

FlashMLA是一款高效的MLA(Multi-Head Latent Attention)推理內(nèi)核開源倉庫,旨在加速MLA機制的計算,特別適用于DeepSeek系列模型(如DeepSeek-V2、V3和R1)。DeepGEMM是一個支持密集矩陣與混合專家(MoE)矩陣乘法的FP8 GEMM庫,為 V3/R1的訓(xùn)練與推理提供強大動力。這兩個重要的開源倉庫均基于高性能通用矩陣乘法(GEMM)的C++模板庫進(jìn)行開發(fā)。

摩爾線程基于新一代計算架構(gòu)MUSA Compute Capability 3.1的全功能GPU,具備全新的Tensor計算引擎及數(shù)據(jù)搬運引擎,能夠提供原生FP8計算能力。升級的MUTLASS高性能線性代數(shù)模板庫支持MUSA Compute Capability 3.1的全新特性,并提供了若干算子的優(yōu)化參考實現(xiàn),包括基于FlashAttention3思想實現(xiàn)的FlashMLA以及FP8矩陣乘算子,特別支持DeepSeek訓(xùn)練所需的Groupwise Scaling FP8矩陣乘法內(nèi)核函數(shù)。得益于全新的Tensor計算引擎,F(xiàn)P8計算具有足夠高的累加精度,無需額外的二次精度修正,為前沿算法的探索打下了堅實基礎(chǔ)。

借助MUTLASS 0.2.0,摩爾線程發(fā)布開源倉庫MT-FlashMLA,能夠快速對DeepSeek FlashMLA進(jìn)行兼容部署。同時摩爾線程MUTLASS提供了一個全新的參考實現(xiàn),充分汲取FlashAttention3的先進(jìn)算法思想,針對摩爾線程GPU設(shè)計了全新的計算流水線。這一設(shè)計能夠有效掩藏數(shù)據(jù)搬運的延遲和Softmax計算的開銷,充分發(fā)揮摩爾線程MUSA Compute Capability 3.1全功能GPU的Tensor計算效率。

作為國內(nèi)率先原生支持FP8計算精度的國產(chǎn)GPU企業(yè),摩爾線程迅速響應(yīng),并快速適配DeepSeek的各個開源倉庫,旨在為更多GPU開發(fā)者賦能。摩爾線程始終致力于推動開源生態(tài)的發(fā)展,通過技術(shù)開放與生態(tài)共建,加速國產(chǎn)全功能GPU在AI計算領(lǐng)域的規(guī)?;瘧?yīng)用,為更多用戶提供更智能、高效的解決方案。

關(guān)于摩爾線程

摩爾線程成立于2020年10月,以全功能GPU為核心,致力于向全球提供加速計算的基礎(chǔ)設(shè)施和一站式解決方案,為各行各業(yè)的數(shù)智化轉(zhuǎn)型提供強大的AI計算支持。

我們的目標(biāo)是成為具備國際競爭力的GPU領(lǐng)軍企業(yè),為融合人工智能和數(shù)字孿生的數(shù)智世界打造先進(jìn)的加速計算平臺。我們的愿景是為美好世界加速。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5258

    瀏覽量

    136032
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    4323

    瀏覽量

    46422
  • 摩爾線程
    +關(guān)注

    關(guān)注

    2

    文章

    285

    瀏覽量

    6631
  • DeepSeek
    +關(guān)注

    關(guān)注

    2

    文章

    837

    瀏覽量

    3390

原文標(biāo)題:原生FP8計算 + MUTLASS|摩爾線程高效完成DeepSeek開源庫FlashMLA和DeepGEMM的適配

文章出處:【微信號:moorethreads,微信公眾號:摩爾線程】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    MiniMax M2.7全球開源,摩爾線程、沐曦等完成Day0適配

    電子發(fā)燒友網(wǎng)綜合報道 4月12日,MiniMax M2.7在全球正式開源。華為昇騰、摩爾線程、沐曦股份、昆侖芯、NVIDIA,以及TogetherAI、Fireworks、Ollama等海內(nèi)外芯片
    的頭像 發(fā)表于 04-14 11:05 ?1566次閱讀

    Day-0支持|摩爾線程率先完成MiniMax M2.7大模型適配

    4月12日,摩爾線程旗艦級AI訓(xùn)推一體全功能GPU?MTT S5000已完成對新一代大模型MiniMax M2.7的Day-0極速適配,再次驗證了國產(chǎn)全功能GPU對前沿AI大模型的快速
    發(fā)表于 04-13 07:57 ?1031次閱讀
    Day-0支持|<b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>率先<b class='flag-5'>完成</b>MiniMax M2.7大模型<b class='flag-5'>適配</b>

    Day-0支持|摩爾線程完成智譜GLM-5.1極速適配,高效支撐長程任務(wù)與代碼生成

    ? 今日,摩爾線程在其旗艦級AI訓(xùn)推一體全功能GPU MTT S5000上,成功實現(xiàn)了對智譜新一代旗艦?zāi)P虶LM-5.1的Day-0極速適配,提供推理部署和訓(xùn)練復(fù)現(xiàn)全流程支持。 ? 依托MUSA軟件
    的頭像 發(fā)表于 04-08 14:47 ?918次閱讀
    Day-0支持|<b class='flag-5'>摩爾</b><b class='flag-5'>線程</b><b class='flag-5'>完成</b>智譜GLM-5.1極速<b class='flag-5'>適配</b>,高效支撐長程任務(wù)與代碼生成

    摩爾線程正式開源MuJoCo Warp MUSA

    3月30日,摩爾線程正式開源MuJoCo Warp MUSA。這是具身智能領(lǐng)域首個基于MUSA架構(gòu)的全功能GPU加速物理仿真后端,補齊了國產(chǎn)算力在強化學(xué)習(xí)仿真訓(xùn)練底層生態(tài)中的關(guān)鍵一環(huán)。
    的頭像 發(fā)表于 04-01 10:40 ?1902次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>正式<b class='flag-5'>開源</b>MuJoCo Warp MUSA

    摩爾線程斬獲6.6億元合同訂單

    3月30日晚間,摩爾線程(688795)智能科技(北京)股份有限公司(簡稱“摩爾線程”)披露重大合同公告,公司于近日與某客戶簽訂了產(chǎn)品銷售協(xié)議(以下簡稱“合同”),合同標(biāo)的為
    發(fā)表于 03-31 07:42 ?1058次閱讀

    摩爾線程MTT S5000全面適配Qwen3.5三款新模型

    第一時間做出極速響應(yīng),宣布已在旗艦級AI訓(xùn)推一體全功能GPU MTT S5000上,完成對這三款全新模型的全方位適配。 ? 此次高效支持充分展示了摩爾線程MUSA生態(tài)的成熟度與完備性。
    的頭像 發(fā)表于 02-26 16:23 ?701次閱讀

    摩爾線程快速完成對Qwen3.5模型全面適配

    2月17日,摩爾線程宣布已在旗艦級AI訓(xùn)推一體全功能GPU MTT S5000上完成對阿里最新大模型Qwen3.5的全方位適配。此次支持充分展示了
    發(fā)表于 02-18 08:32 ?1113次閱讀

    Day-0支持|摩爾線程完成MiniMax M2.5模型極速適配

    2月14日,摩爾線程在其旗艦級AI訓(xùn)推一體全功能GPU MTT S5000上,成功實現(xiàn)了對MiniMax新一代大模型MiniMax M2.5的Day-0極速適配。 在此次適配工作中,
    發(fā)表于 02-15 08:01 ?1577次閱讀

    摩爾線程MTT S5000率先完成對GLM-5的適配

    2月11日,智譜正式發(fā)布新一代大模型GLM-5。摩爾線程基于SGLang推理框架,在旗艦級AI訓(xùn)推一體全功能GPU MTT S5000上,Day-0完成了全流程適配與驗證。 憑借MUS
    的頭像 發(fā)表于 02-12 10:34 ?924次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>MTT S5000率先<b class='flag-5'>完成</b>對GLM-5的<b class='flag-5'>適配</b>

    Day-0支持|摩爾線程MTT S5000率先完成對GLM-5的適配

    2月11日,智譜正式發(fā)布新一代大模型GLM-5。摩爾線程基于SGLang推理框架,在旗艦級AI訓(xùn)推一體全功能GPU MTT S5000上,Day-0完成了全流程適配與驗證。 憑借MUS
    發(fā)表于 02-12 09:15 ?1576次閱讀
    Day-0支持|<b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>MTT S5000率先<b class='flag-5'>完成</b>對GLM-5的<b class='flag-5'>適配</b>

    摩爾線程正式開源TileLang-MUSA項目

    近日,摩爾線程正式開源TileLang-MUSA項目,實現(xiàn)對TileLang編程語言的完整支持。該項目已成功在摩爾線程多代全功能GPU上
    的頭像 發(fā)表于 02-11 16:57 ?1640次閱讀

    摩爾線程發(fā)布Torch-MUSA v2.7.0版本

    近日,摩爾線程正式發(fā)布PyTorch深度學(xué)習(xí)框架的MUSA擴(kuò)展——Torch-MUSA v2.7.0,新版本在功能集成、性能優(yōu)化與硬件支持方面實現(xiàn)進(jìn)一步突破。Torch-MUSA在短短一個月
    的頭像 發(fā)表于 12-04 09:05 ?1250次閱讀

    摩爾線程亮相GOTC 2025全球開源技術(shù)峰會

    。摩爾線程高級副總裁楊上山在主論壇發(fā)表《摩爾線程全功能GPU原生支持開源生態(tài)》的主題演講,系統(tǒng)闡述了摩爾
    的頭像 發(fā)表于 11-04 10:43 ?2261次閱讀

    摩爾線程率先支持騰訊混元-A13B模型

    近日,騰訊正式開源基于專家混合(MoE)架構(gòu)的大語言模型混元-A13B。同日,摩爾線程團(tuán)隊?wèi){借技術(shù)前瞻性,率先完成該模型在全功能GPU的深度適配
    的頭像 發(fā)表于 07-04 14:10 ?990次閱讀

    摩爾線程MTT S4000完成DeepSeek R1-671B大模型適配驗證

    我國人工智能技術(shù)產(chǎn)業(yè)近來取得顯著進(jìn)步,多款新發(fā)布的大模型已達(dá)到國際先進(jìn)水平。我國AI芯片企業(yè)也在積極行動,和各國產(chǎn)大模型開展適配,共同構(gòu)建智能計算產(chǎn)業(yè)生態(tài)。作為國家權(quán)威技術(shù)驗證平臺,中國信息通信
    的頭像 發(fā)表于 05-10 09:49 ?1459次閱讀