chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大規(guī)模推理時代深度學習加速的天花板在哪?

智能計算芯世界 ? 來源:智能計算芯世界 ? 作者:智能計算芯世界 ? 2022-12-15 10:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

從數(shù)據(jù)分析、經(jīng)典機器學習到搜索、推薦,再到語言處理和圖像識別,每個 AI 任務(wù)運行的背后都需要海量的數(shù)學計算。可以說,AI 真的就是數(shù)學,但卻是很多很多的數(shù)學。 尤其是在 AI 進入大模型時代的當下,模型的大規(guī)模訓練和推理更是對計算資源有著巨大的需求。但同時,算力的掣肘正在阻礙著 AI 走向大規(guī)模落地。 當前 AI 面臨的“數(shù)學題”都是何種難度?“算珠”又該如何撥弄得更快才能追得上不斷增長的計算需求呢? 讓我們從 CPU 的 AI 算力談起。

1

大規(guī)模推理時代

深度學習加速的天花板在哪?

人工智能迎來第三次浪潮后,以深度學習為代表的AI已經(jīng)進入應(yīng)用階段。而深度學習 AI 需要進行大量矩陣乘法以訓練神經(jīng)網(wǎng)絡(luò)模型,并利用推理將這些模型應(yīng)用于實際任務(wù)。

也就是說,深度學習分為訓練和推理兩個階段,而推理則是推動AI大規(guī)模走向落地的關(guān)鍵。

訓練深度學習模型可能需要數(shù)小時或數(shù)天的算力。而深度學習推理可能需要幾分之一秒到幾分鐘,具體取決于模型的復雜程度和對結(jié)果的準確度的要求。在推理過程中,計算機將輸入數(shù)據(jù)與模型進行比較,然后推斷數(shù)據(jù)的含義。

讓人工智能落地更多是推理層面的工作,無論是推薦引擎、圖像識別、媒體分析、語言翻譯 、自然語言處理、強化學習等負載中推理性能的大幅提升對落地應(yīng)用的貢獻都十分重要。

在此背景下,硬件架構(gòu)將成為AI落地的重中之重。

而做大規(guī)模推理,CPU平臺具有較大優(yōu)勢——用戶學習門檻低、部署速度快等,在類似推薦系統(tǒng)的應(yīng)用中,CPU也擔當著算力支撐,那么如何提升CPU的AI算力?

CPU的算力取決于 CPU 特定加速指令集或運算單元的持續(xù)引入及改進,那么通過強化算力單元和增加算力單元數(shù)量并舉,即Scale-Up與Scale-Out相結(jié)合,提升CPU的AI算力。

回望英特爾歷代至強 可擴展處理器的深度學習加速技術(shù)(即DL Boost),已經(jīng)將這一提升路徑充分實踐并拉高優(yōu)化天花板:從第一代至強可擴展處理器引入的AVX-512——中低端型號每核心配備1個FMA單元、高端型號每核心配備2個FMA單元,到代號Ice Lake-SP的雙路第三代至強可擴展處理器將此類配置擴展到全系列產(chǎn)品,并將最高核心數(shù)從28增加至40個,CPU的向量處理能力得以大幅提升。

6ac25558-7c19-11ed-8abf-dac502259ad0.png

指令優(yōu)化方面,第二代英特爾至強 可擴展處理器引入了簡稱VNNI(Vector Neural Network Instruction,矢量神經(jīng)網(wǎng)絡(luò)指令)的擴展,提高了數(shù)據(jù)格式INT8推理的效率;代號Cooper Lake的第三代英特爾至強可擴展處理器又引入了數(shù)據(jù)格式bfloat16(BF16)加速功能,可以用于推理和訓練。 目前,前三代英特爾至強 可擴展處理器的加速路徑,主要依靠現(xiàn)有的計算單元,即AVX-512,配合指令集、算法和數(shù)據(jù)上的優(yōu)化,輸出AI算力。 但加速的天花板就到此為止了嗎?

還有別的思路——內(nèi)置硬件加速器,且與本就高性能的CPU內(nèi)核無縫配合,疊加buff推高天花板。

2

硬件直接“貼貼”加速

第四代至強內(nèi)置多種專用加速器

在今年11月,英特爾宣布將在2023年1月11日發(fā)布代號為Sapphire Rapids的全新第四代英特爾至強 可擴展處理器。

Sapphire Rapids將為廣泛的標量和并行工作負載提供跨越式的性能提升,更重要的是,它的基本架構(gòu)旨在實現(xiàn)彈性計算模型(如容器化微服務(wù))的突破性性能,以及在所有形式的以數(shù)據(jù)為中心的計算中快速擴展 AI 的使用。

第四代英特爾至強可擴展處理器的核心數(shù)量有顯著增長,并支持DDR5、PCIe 5.0和CXL 1.1等下一代內(nèi)存和接口標準,在內(nèi)置硬件加速上,Sapphire Rapids也集成了5項加速器:

用于AI的高級矩陣擴展(Advanced Matrix Extensions),簡稱AMX;

用于數(shù)據(jù)分析的存內(nèi)分析加速器(In-Memory Analytics Accelerator),簡稱IAA;

用于5G/網(wǎng)絡(luò)的數(shù)據(jù)流加速器(Data Streaming Accelerator),簡稱DSA;

用于存儲的動態(tài)負載均衡器(Dynamic Load Balancer),簡稱DLB;

用于數(shù)據(jù)壓縮和加解密的QuickAssist技術(shù),英特爾數(shù)據(jù)保護與壓縮加速技術(shù),簡稱QAT。

首先,內(nèi)置加速器可以消除在將數(shù)據(jù)從 CPU 移至協(xié)處理器加速器時產(chǎn)生的大部分開銷。

同時,Sapphire Rapids還引入了加速器接口架構(gòu) (AIA),解決了無縫集成加速引擎和高性能核心時面臨的關(guān)鍵挑戰(zhàn)——能夠處理 CPU 內(nèi)核與內(nèi)置加速器之間的數(shù)據(jù)高效調(diào)度、同步和信令傳遞,而不是高開銷內(nèi)核模式。

內(nèi)置的硬件加速器也易獲得更出色的性能,而不必將時間浪費在進行片外傳輸設(shè)置上。

AMX與上述其他4個加速器的一大區(qū)別,就是它本身就集成在了CPU核心內(nèi),與AVX-512一樣,隨核心數(shù)同步增長,線性提升處理能力。

3

開啟全新計算單元

AMX升維加速深度學習工作負載

AMX與AVX-512又有什么區(qū)別?

AMX是全新的計算單元,有自己的存儲和操作電路,并行度高,以便為AI工作負載加速Tensor運算,支持bfloat16和INT8兩種數(shù)據(jù)類型。

Tensor處理是深度學習算法的核心,AMX功能可以實現(xiàn)每個循環(huán)2000次int8運算和1000次bfloat16運算。

同時,AMX的寄存器(名為Tile)是二維的,寄存器組是三維的,均比AVX-512高一個維度,寄存器組存儲的數(shù)據(jù)相當于一個小型矩陣,這樣AMX 能夠在每個時鐘周期執(zhí)行更多矩陣乘法以每時鐘周期來看。

理論上,AMX的TMUL(矩陣乘法運算)對AVX-512的2個FMA(融合乘加操作)單元,INT8性能高達8倍;處理浮點數(shù)據(jù),AMX使用動態(tài)范圍與FP32相當?shù)腂F16,性能可達AVX-512的16倍。

如此,有全新可擴展二維寄存器文件和全新矩陣乘法指令,可增強各種深度學習工作負載中推理及訓練性能,也就代表著計算能力的大幅提升,這些計算能力可以通過行業(yè)標準框架和運行時無縫訪問。

據(jù)今年1月數(shù)據(jù)表明,基于TensorFlow框架,INT8 精度下每秒檢測的圖像的數(shù)量增幅以及高達 6 倍多 BF16 精度下進行對象檢測時每秒檢測的圖像的數(shù)量增幅明顯增加:

56核的第四代英特爾 至強可擴展處理器全新的AMX,對比40核的第三代英特爾 至強可擴展處理器,在SSD-ResNet34上進行實時推理時,每秒處理的圖像數(shù)量增加高達4.5倍。(注:實際性能受使用情況、配置和其他因素的差異影響,且性能測試結(jié)果基于配置信息中顯示的日期進行的測試[1])

當然AVX-512本身就以FP32、FP64等高精度浮點數(shù)據(jù)的運算見長,依然可以專注于如數(shù)據(jù)分析、科學計算、經(jīng)典機器學習等高精度計算。

如今第三代人工智能浪潮是以深度學習為代表,并非只有深度學習,AI的范圍正在不斷擴大,計算需求也在多元化,當人工智能的工作負載出現(xiàn)混合精度計算需求,AMX和AVX-512就可搭配使用,發(fā)展各自長處。

對于數(shù)據(jù)精度不高但要求高準確度的推理場景,如圖像識別、推薦引擎、媒體分析、語言翻譯、自然語言處理(NLP)、強化學習等典型AI應(yīng)用場景,AMX其實屬于降維打擊,可發(fā)揮空間很大。

根據(jù)預(yù)告,英特爾第四代至強可擴展處理器是處理AI等更現(xiàn)代化、更新興并行工作負載的基礎(chǔ)設(shè)施,在進行整體設(shè)計時也考慮到了未來技術(shù)發(fā)展趨勢——絕大多數(shù)新的可擴展服務(wù)將采用容器化微服務(wù)等彈性計算模型進行開發(fā)。

新版Windows、Linux Kernel和虛擬化軟件也確實都具備支持AMX指令集的條件,所謂“引領(lǐng)”就是要更先一步到達未來。

1月11號,讓我們期待至強新品的發(fā)布和更多信息吧~可以先點擊閱讀原文,提前了解至強產(chǎn)品組合~

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11270

    瀏覽量

    224755
  • 人工智能
    +關(guān)注

    關(guān)注

    1816

    文章

    50064

    瀏覽量

    264975
  • 算力
    +關(guān)注

    關(guān)注

    2

    文章

    1514

    瀏覽量

    16716

原文標題:明年1月,推高CPU人工智能算力天花板

文章出處:【微信號:AI_Architect,微信公眾號:智能計算芯世界】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    車企激戰(zhàn)高壓平臺!比亞迪要把“超充戰(zhàn)”打到天花板

    引領(lǐng)的800V平臺競賽,到如今比亞迪直指1000V電壓天花板,這場圍繞“充電效率”展開的科技軍備競賽,正在重構(gòu)新能源汽車產(chǎn)業(yè)的技術(shù)格局。 ? ? 比亞迪 1000V 高壓平臺來襲 進入2025年,電動汽車的“充電革命”又進入新的階段。就在近期特斯拉公
    的頭像 發(fā)表于 03-07 01:13 ?2828次閱讀
    車企激戰(zhàn)高壓平臺!比亞迪要把“超充戰(zhàn)”打到<b class='flag-5'>天花板</b>

    商湯開源SenseNova-MARS:突破多模態(tài)搜索推理天花板

    )、GPT-5.2(67.64 分)。 SenseNova-MARS是首個支持動態(tài)視覺推理和圖文搜索深度融合的 Agentic VLM 模型,它能自己規(guī)劃步驟、調(diào)用工具,輕松搞定各種復雜任務(wù),讓AI真正具備
    的頭像 發(fā)表于 01-29 23:53 ?143次閱讀
    商湯開源SenseNova-MARS:突破多模態(tài)搜索<b class='flag-5'>推理</b><b class='flag-5'>天花板</b>

    AMD Alveo MA35D加速器:開啟大規(guī)模交互式流媒體新時代

    AMD Alveo MA35D加速器:開啟大規(guī)模交互式流媒體新時代 在當今全球視頻市場被直播主導的背景下,低延遲應(yīng)用不斷涌現(xiàn),對基礎(chǔ)設(shè)施和視頻處理技術(shù)的成本結(jié)構(gòu)及部署策略產(chǎn)生了深遠影響。AMD推出
    的頭像 發(fā)表于 12-15 14:35 ?345次閱讀

    破解“散熱天花板”:金剛石銅復合材料的百億征程(附分析報告)

    在AI算力爆發(fā)、新能源汽車普及、6G通信加速落地的今天,電子設(shè)備正以前所未有的速度向高功率、高密度演進。隨之而來的,是“散熱”這一曾經(jīng)被邊緣化的技術(shù)環(huán)節(jié),正悄然成為制約設(shè)備性能與可靠性的“天花板
    的頭像 發(fā)表于 11-05 06:34 ?1094次閱讀
    破解“散熱<b class='flag-5'>天花板</b>”:金剛石銅復合材料的百億征程(附分析報告)

    大規(guī)模專家并行模型在TensorRT-LLM的設(shè)計

    DeepSeek-V3 / R1 等模型采用大規(guī)模細粒度混合專家模型 (MoE) 架構(gòu),大幅提升了開源模型的質(zhì)量。Llama 4 和 Qwen3 等新發(fā)布的開源模型的設(shè)計原則也采用了類似的大規(guī)模細粒度 MoE 架構(gòu)。但大規(guī)模 M
    的頭像 發(fā)表于 09-06 15:21 ?1199次閱讀
    <b class='flag-5'>大規(guī)模</b>專家并行模型在TensorRT-LLM的設(shè)計

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡(luò)智能診斷邁向 “自愈”時代

    學習大規(guī)模數(shù)據(jù)分析等前沿技術(shù)。DeepSeek-R1具備卓越的邏輯推理、多模態(tài)分析(文本/圖像/語音)和實時交互能力,能夠高效處理代碼生成、復雜問題求解、跨模態(tài)學習等高階任務(wù)。憑借其
    發(fā)表于 07-16 15:29

    大模型推理顯存和計算量估計方法研究

    隨著人工智能技術(shù)的飛速發(fā)展,深度學習大模型在各個領(lǐng)域得到了廣泛應(yīng)用。然而,大模型的推理過程對顯存和計算資源的需求較高,給實際應(yīng)用帶來了挑戰(zhàn)。為了解決這一問題,本文將探討大模型推理顯存和
    發(fā)表于 07-03 19:43

    突破無風扇工控機技術(shù)天花板,聚徽廠家這些方案你知道嗎?

    ,隨著技術(shù)的迅猛發(fā)展以及應(yīng)用場景需求的不斷攀升,無風扇工控機在散熱、性能、防護等方面面臨著諸多挑戰(zhàn),亟待突破技術(shù)天花板。接下來,讓我們一同探尋那些能夠突破無風扇工控機技術(shù)瓶頸的創(chuàng)新方案。 一、高效散熱方案革新
    的頭像 發(fā)表于 06-03 15:01 ?618次閱讀
    突破無風扇工控機技術(shù)<b class='flag-5'>天花板</b>,聚徽廠家這些方案你知道嗎?

    閃迪天花板級PCIe5.0 SSD上市,性能與能效均位于行業(yè)前沿

    PCIe 5.0 SSD的上市,正是能夠滿足未來高性能與主流應(yīng)用場景的更優(yōu)存儲選擇,同時也是閃迪固態(tài)硬盤組合的天花板級產(chǎn)品。這款產(chǎn)品不僅為消費者帶來卓越的存儲體驗,也進一步推動了當前PCIe Gen 5.0
    的頭像 發(fā)表于 05-29 12:09 ?742次閱讀
    閃迪<b class='flag-5'>天花板</b>級PCIe5.0 SSD上市,性能與能效均位于行業(yè)前沿

    思嵐科技AI工業(yè)機器人開放底盤Phoebus P350全新發(fā)布:深度學習導航+300KG負載

    工業(yè)4.0時代,智能搬運的“底盤力”決定效率天花板。 SLAMTEC全新推出 Phoebus P350工業(yè)級機器人底盤 ,以 “開放AI架構(gòu)+深度學習導航” 為核心,融合300KG超強
    的頭像 發(fā)表于 05-12 11:33 ?1309次閱讀
    思嵐科技AI工業(yè)機器人開放底盤Phoebus P350全新發(fā)布:<b class='flag-5'>深度</b><b class='flag-5'>學習</b>導航+300KG負載

    大模型時代深度學習框架

    量是約為 25.63M,在ImageNet1K數(shù)據(jù)集上,使用單張消費類顯卡 RTX-4090只需大約35~40個小時 ,即可完成ResNet50模型的預(yù)訓練。在 大模型時代 ,由于大模型參數(shù)規(guī)模龐大,無法跟CNN時代的小模型一樣
    的頭像 發(fā)表于 04-25 11:43 ?824次閱讀
    大模型<b class='flag-5'>時代</b>的<b class='flag-5'>深度</b><b class='flag-5'>學習</b>框架

    谷歌第七代TPU Ironwood深度解讀:AI推理時代的硬件革命

    谷歌第七代TPU Ironwood深度解讀:AI推理時代的硬件革命 Google 發(fā)布了 Ironwood,這是其第七代張量處理單元 (TPU),專為推理而設(shè)計。這款功能強大的 AI
    的頭像 發(fā)表于 04-12 11:10 ?3652次閱讀
    谷歌第七代TPU Ironwood<b class='flag-5'>深度</b>解讀:AI<b class='flag-5'>推理</b><b class='flag-5'>時代</b>的硬件革命

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理的 AI 模型新引擎?

    Cloud 客戶開放,將提供 256 芯片集群以及 9,216 芯片集群兩種配置選項。 ? 在核心亮點層面,Ironwood 堪稱谷歌首款專門為 AI 推理精心設(shè)計的 TPU 芯片,能夠有力支持大規(guī)模思考
    的頭像 發(fā)表于 04-12 00:57 ?3657次閱讀

    適用于數(shù)據(jù)中心和AI時代的800G網(wǎng)絡(luò)

    ,成為新一代AI數(shù)據(jù)中心的核心驅(qū)動力。 AI時代的兩大數(shù)據(jù)中心:AI工廠與AI云 AI時代催生了兩類數(shù)據(jù)中心架構(gòu): AI工廠:用于大規(guī)模模型訓練和推理,如GPT-4和圖像生
    發(fā)表于 03-25 17:35

    電子連接器的天花板

    電子連接器
    通天電子科技(東莞市)有限公司
    發(fā)布于 :2025年03月18日 19:16:09