chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Arm Neoverse N2平臺實現(xiàn)DeepSeek-R1滿血版部署

Arm社區(qū) ? 來源:Arm社區(qū) ? 2025-07-03 14:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今年年初,開源大語言模型 (LLM) DeepSeek 在國內外人工智能 (AI) LLM 領域掀起熱議。它在模型架構和訓練、推理方法上實現(xiàn)創(chuàng)新,在性能和工程效率上帶來了顯著提升,并在成本效率方面頗具優(yōu)勢。Arm 攜手合作伙伴,在 Arm Neoverse N2 平臺上使用開源推理框架 llama.cpp 實現(xiàn) DeepSeek-R1 滿血版的部署,目前已可提供線上服務。

在基于 Neoverse N2 平臺設計的服務器級 CPU 上,通過對軟硬件架構的合理適配,以及出色調優(yōu)來充分發(fā)揮平臺的計算能力和內存帶寬,能夠以 INT8 的量化版本提供業(yè)界可用的詞元 (token) 生成速度,并以更具競爭力的性價比為中小微企業(yè)提供業(yè)界頂尖的 LLM 服務。

在部署 DeepSeek 大模型過程中,Arm 結合底層架構特性進行了深度優(yōu)化:模型本身跨多 ?NUMA(非統(tǒng)一內存訪問)節(jié)點以交錯 (interleave) 方式加載,以便充分利用所有內存帶寬;除 INT8 量化外,通過開啟 KV 量化,以及激活 Flash Attention 機制,以此進一步降低計算量和壓縮內存占用。通過技術團隊的努力,DeepSeek 滿血版的整體性能相較優(yōu)化前提升了 67%。工程團隊后續(xù)也會持續(xù)投入,提高多節(jié)點上的計算并發(fā)度及帶寬利用率,并通過開發(fā)者社區(qū)不斷完善 Arm 架構的軟件生態(tài)。

細究 DeepSeek 的模型架構創(chuàng)新,它針對大模型運行時的痛點進行計算、內存訪問和算法流水線上的效率提升,比如 MLA 和 FP8 訓練和推理減少了內存占用和帶寬需求,DeepSeekMoE 降低了計算強度、提高計算效率,DualPipe 提高了多計算節(jié)點間的通信和計算效率。這些工程優(yōu)化思維與 Arm 一貫倡導的高能效設計目標不謀而合,也使得在純 CPU 平臺上運行如此大規(guī)模的模型成為可能。

Arm 平臺致力于助力合作伙伴提高性能,并降低總體擁有成本 (TCO),在 Neoverse N2 平臺運行 DeepSeek 大模型推理也淋漓盡致地體現(xiàn)了這一原則。在為中小微企業(yè)提供大模型服務時,并發(fā)需求降低,成本敏感度提高。在基于 Neoverse N2 平臺上運行的 DeepSeek-R1 為他們提供了一個更為均衡的選擇。相較傳統(tǒng)多卡 GPU/加速器平臺,這能極大地降低訂閱服務成本,使用戶能以較低代價快速啟動業(yè)務部署。下圖是兩種方案訂閱服務的價格對比:

826368a6-532f-11f0-b715-92fbcf53809c.png

搭載 Neoverse N2 平臺的服務器平臺能把部署成本降低約八倍。此外,對數(shù)據(jù)中心來說,在 CPU 上部署 LLM 也能充分利用在線的空閑算力,提高整體資源利用率。與此同時,基于 Neoverse N2 平臺的服務器功耗僅為傳統(tǒng)八卡 GPU 服務器的 1/12,能極大地降低數(shù)據(jù)中心的能耗壓力。

如此大規(guī)模的模型(6,710億參數(shù))能夠在數(shù)據(jù)中心服務器級 CPU 上運行,并迅速上線為客戶提供快速部署,得益于 Neoverse 平臺對 AI 推理負載的一貫思考和設計,包括 2 x 128 位的可伸縮向量擴展 (SVE2) 特性、BF16/INT8 數(shù)據(jù)格式支持,以及點積和矩陣乘法等指令的支持,加之多通道高帶寬內存配置,和低延遲 CMN 互聯(lián)等等。

隨著 AI 領域的飛速發(fā)展,LLM 在持續(xù)的工程創(chuàng)新和優(yōu)化之下應用領域不斷變廣。Arm 將持續(xù)通過 Neoverse 平臺為行業(yè)賦能,并在這一新的技術紀元中引領變革。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • ARM
    ARM
    +關注

    關注

    135

    文章

    9582

    瀏覽量

    393431
  • 人工智能
    +關注

    關注

    1819

    文章

    50284

    瀏覽量

    266784
  • DeepSeek
    +關注

    關注

    2

    文章

    837

    瀏覽量

    3390

原文標題:在 Arm Neoverse N2 平臺上以更優(yōu)成本、更低功耗,充分釋放 DeepSeek-R1 滿血版性能

文章出處:【微信號:Arm社區(qū),微信公眾號:Arm社區(qū)】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    百度騰訊搶灘布局!DeepSeek-R1升級和開源背后,國產AI的逆襲之路

    電子發(fā)燒友網報道(文/李彎彎)日前,DeepSeek官方宣布DeepSeek-R1模型已完成小版本試升級,當前版本為DeepSeek-R1-0528。次日,DeepSeek-R1-05
    的頭像 發(fā)表于 06-03 06:34 ?6345次閱讀

    如何在Arm Neoverse N2平臺上提升llama.cpp擴展性能

    跨 NUMA 內存訪問可能會限制 llama.cpp 在 Arm Neoverse 平臺上的擴展能力。本文將為你詳細分析這一問題,并通過引入原型驗證補丁來加以解決。測試結果表明,在基于 Neo
    的頭像 發(fā)表于 02-11 10:06 ?287次閱讀

    廣和通成功部署DeepSeek-R1-0528-Qwen3-8B模型

    近日,廣和通在MediaTek MT8893平臺上成功部署并運行了DeepSeek-R1-0528-Qwen3-8B模型,顯著提升了端側AI設備的處理效率與智能化水平,特別是在本地化復雜
    的頭像 發(fā)表于 09-26 13:35 ?974次閱讀

    DeepSeek R1 MTP在TensorRT-LLM中的實現(xiàn)與優(yōu)化

    TensorRT-LLM 在 NVIDIA Blackwell GPU 上創(chuàng)下了 DeepSeek-R1 推理性能的世界紀錄,Multi-Token Prediction (MTP) 實現(xiàn)了大幅提速
    的頭像 發(fā)表于 08-30 15:47 ?4649次閱讀
    <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b> MTP在TensorRT-LLM中的<b class='flag-5'>實現(xiàn)</b>與優(yōu)化

    速看!EASY-EAI教你離線部署Deepseek R1大模型

    1.Deepseek簡介DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研發(fā)的推理模型。DeepSeek-R1采用強化學習進行后訓練,旨在提升推理能力,尤其擅
    的頭像 發(fā)表于 07-25 15:22 ?1550次閱讀
    速看!EASY-EAI教你離線<b class='flag-5'>部署</b><b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大模型

    【「DeepSeek 核心技術揭秘」閱讀體驗】--全書概覽

    講解Deepseek的使用方法 第三章 深入剖析Deepseek-V3的模型架構、訓練框架、推理階段優(yōu)化、后訓練優(yōu)化等關鍵技術 第四章關于DeepSeek-R1的技術剖析 第五章 從宏觀角度分析
    發(fā)表于 07-21 00:04

    【VisionFive 2單板計算機試用體驗】3、開源大語言模型部署

    1、ollama平臺搭建 ollama可以快速地部署開源大模型,網址為https://ollama.com, 試用該平臺,可以在多平臺上部署
    發(fā)表于 07-19 15:45

    【「DeepSeek 核心技術揭秘」閱讀體驗】書籍介紹+第一章讀后心得

    ,并同步開源了 模型權重。DeepSeek-R1是基于DeepSeek-V3基座模型開發(fā)的,專門針對高級推理任務進行 了優(yōu)化。該模型在后訓練階段大規(guī)模使用強化學習技術,通過創(chuàng)新的訓練方法,實現(xiàn)了強大
    發(fā)表于 07-17 11:59

    NVIDIA Blackwell GPU優(yōu)化DeepSeek-R1性能 打破DeepSeek-R1在最小延遲場景中的性能紀錄

    本文將探討 NVIDIA TensorRT-LLM 如何基于 8 個 NVIDIA Blackwell GPU 的配置,打破 DeepSeek-R1 在最小延遲場景中的性能紀錄:在 GTC 2025
    的頭像 發(fā)表于 07-02 19:31 ?3533次閱讀
    NVIDIA Blackwell GPU優(yōu)化<b class='flag-5'>DeepSeek-R1</b>性能 打破<b class='flag-5'>DeepSeek-R1</b>在最小延遲場景中的性能紀錄

    【書籍評測活動NO.62】一本書讀懂 DeepSeek 全家桶核心技術:DeepSeek 核心技術揭秘

    2025年年初,DeepSeek 成為全球人工智能(AI)領域的焦點,其DeepSeek-V3 和DeepSeek-R1 版本在行業(yè)內引發(fā)了結構性震動。 DeepSeek-V3 是一個
    發(fā)表于 06-09 14:38

    瑞薩RZ/V2H平臺支持部署離線版DeepSeek -R1大語言模型

    瑞薩RZ/V2H平臺支持部署離線版DeepSeek -R1大語言模型
    的頭像 發(fā)表于 05-13 17:07 ?1832次閱讀
    瑞薩RZ/V<b class='flag-5'>2</b>H<b class='flag-5'>平臺</b>支持<b class='flag-5'>部署</b>離線版<b class='flag-5'>DeepSeek</b> -<b class='flag-5'>R1</b>大語言模型

    AMD實現(xiàn)首個基于積電N2制程的硅片里程碑

    代號為“Venice”的新一代AMD EPYC CPU是首款基于積電新一代N2制程的高性能計算產品。 ? AMD表示,其代號為“Venice”的新一代AMD EPYC?處理器是業(yè)界首款完成流片并
    的頭像 發(fā)表于 05-06 14:46 ?883次閱讀
    AMD<b class='flag-5'>實現(xiàn)</b>首個基于<b class='flag-5'>臺</b>積電<b class='flag-5'>N2</b>制程的硅片里程碑

    SAP實施專家解答:如何用DeepSeek-R1實現(xiàn)需求溝通效率倍增

    工博科技分享AI工具鏈在IT項目中的深度應用:通過DeepSeek-R1實現(xiàn)智能會議記錄結構化(2小時會議5分鐘生成決策表)和精準多語言文檔翻譯(錯誤率降低14%),幫助IT團隊將重復性工作耗時減少
    的頭像 發(fā)表于 04-28 09:13 ?800次閱讀

    解讀基于Arm Neoverse V2平臺的Google Axion處理器

    云計算需求在人工智能 (AI) 時代的爆發(fā)式增長,推動了開發(fā)者尋求性能優(yōu)化且高能效的解決方案,以降低總體擁有成本 (TCO)。Arm 致力于通過 Arm Neoverse 平臺滿足不斷
    的頭像 發(fā)表于 04-21 13:47 ?1188次閱讀

    【幸狐Omni3576邊緣計算套件試用體驗】CPU部署DeekSeek-R1模型(1B和7B)

    優(yōu)化:動態(tài)分配計算資源至關鍵token 中文優(yōu)化:在Wudao Corpus等中文數(shù)據(jù)集上強化訓練 技術突破: 相比傳統(tǒng)LLM,DeepSeek-R1通過以下創(chuàng)新實現(xiàn)低資源部署: MoE架構:專家混合層
    發(fā)表于 04-21 00:39