chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

發(fā)展大模型,是否解決算力問題就夠了?

半導體產(chǎn)業(yè)縱橫 ? 來源:半導體產(chǎn)業(yè)縱橫 ? 2023-08-21 16:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著大模型概念火熱,算力成為各行各業(yè)關(guān)注的熱門話題。英偉達顯卡被搶爆,媒體關(guān)注“大模型時代到來,算力夠不夠”,行業(yè)想要解決AIGC時代的算力瓶頸問題。然而,發(fā)展大模型,是否解決算力問題就夠了?

01 算力是大模型的底座

大模型是在智能算力驅(qū)動下最為典型的重大創(chuàng)新。得益于模型泛化能力強、長尾數(shù)據(jù)的低依賴性、以及下游模型使用效率的提升,大模型被認為具備了“通用智能”的雛形,并成為業(yè)內(nèi)探索實現(xiàn)普惠人工智能的重要途徑之一。從算力的視角看,語言類、視覺類模型容量和相應的算力需求都在快速擴大,大模型發(fā)展的背后是龐大的算力支撐。作為算法的結(jié)晶,需要處理大量的數(shù)據(jù)。人工智能背后需要大量的硬件支撐,已經(jīng)成了新時代的“重工業(yè)”產(chǎn)品。

算力決定了數(shù)據(jù)處理能力的強弱。算力芯片是算力的具體載體,高算力芯片能夠提供超算算力、通用算力、智能算力和邊緣算力。搭載率最高的GPU芯片多用于圖形圖像處理、復雜的數(shù)學計算等場景,可較好支持高度并行的工作負載,經(jīng)常用于數(shù)據(jù)中心的模型訓練,或用于邊緣側(cè)和端側(cè)的推理工作負載。

服務(wù)器是算力的基礎(chǔ)設(shè)施之一。服務(wù)器的邏輯架構(gòu)和普通計算機類似,但是由于需要提供高性能計算,因此在處理能力、穩(wěn)定性、可靠性、安全性、可擴展性、可管理性等方面要求較高。人工智能服務(wù)器由于具備圖形渲染和海量數(shù)據(jù)的并行運算等優(yōu)勢,能夠快速準確地處理大量數(shù)據(jù),市場價值逐漸凸顯。

隨著數(shù)據(jù)應用的搭載率較低的NPU芯片,設(shè)計邏輯則更為簡單,常用于邊側(cè)和端側(cè)的模型推理,并生成結(jié)果,在處理推理工作負載時,具有顯著的能耗節(jié)約優(yōu)勢。根據(jù)IDC統(tǒng)計,2021年中國仍以GPU為主實現(xiàn)數(shù)據(jù)中心計算加速,市場占有率近90%,ASICFPGA、NPU等非GPU芯片市場占有率超過10%。據(jù)IDC預計,到2025年人工智能芯片市場規(guī)模或?qū)⑦_726億美元。

IDC數(shù)據(jù)顯示,2021年全球人工智能服務(wù)器市場的同比增速超過全球整體人工智能市場的增速,是整體人工智能市場增長的推動力。IDC發(fā)布的《全球人工智能市場半年度追蹤報告》顯示,2021年全球人工智能服務(wù)器市場規(guī)模達156.3億美元,約合人民幣1,045億元,這是全球年度人工智能服務(wù)器市場首次突破千億元人民幣,同比2020年增速達39.1%。

這樣的背景下,國內(nèi)算力芯片公司“快馬揚鞭”。例如,龍芯中科計劃明年下半年將完成兼顧顯卡和算力加速功能的專用芯片流片;龍芯GPU的定位主要是為了與CPU形成自我配套,形成系統(tǒng)優(yōu)勢,降低系統(tǒng)成本。

02 國產(chǎn)存力需要重視

數(shù)據(jù)存力指的是以存儲容量為核心,包含性能表現(xiàn)、安全可靠、綠色低碳在內(nèi)的綜合能力。

在國家數(shù)字經(jīng)濟大戰(zhàn)略下,數(shù)據(jù)作為生產(chǎn)要素,已成為重要的資產(chǎn)。隨著海量數(shù)據(jù)呈指數(shù)級增長,數(shù)據(jù)流動加速,存儲作為承載數(shù)據(jù)的關(guān)鍵設(shè)施,其重要性更加凸顯。作為數(shù)據(jù)大國,數(shù)據(jù)存儲產(chǎn)業(yè)就需要跟上。大模型正在帶動各地建設(shè)AI算力中心,但是產(chǎn)業(yè)主要關(guān)心的都是運算力。倪光南院士認為算力中心的計算能力由三個因素決定:存力、算力、運力。倪光南院士認為,用廣義算力去定義一個算力中心,才更準確。如果去計算存算比的話,美國的算力中心存算比為1.11TB/GFlops,中國約為美國的37.8%。

我國數(shù)據(jù)存力發(fā)展總體水平與發(fā)達國家相比仍有一定差距。據(jù)羅蘭公司測算,美國單位GDP存儲容量高于我國,我國存儲在經(jīng)濟發(fā)展中的支撐作用有待加強。據(jù)中國信通院統(tǒng)計,2021年我國存儲總量容量已達800EB,出貨量年均增長速度已達50%。

為了發(fā)展國產(chǎn)算力,在技術(shù)方面,需要加快部署下一代存儲技術(shù),推動存儲核心技術(shù)底層研發(fā)和技術(shù)攻關(guān),提升存儲介質(zhì)、安全設(shè)計、數(shù)據(jù)防護等關(guān)鍵技術(shù)水平,打造全球存儲的創(chuàng)新高地。存儲領(lǐng)域正在發(fā)生一場新的技術(shù)變革,即基于半導體技術(shù)的新型產(chǎn)品替代基于機械技術(shù)的傳統(tǒng)產(chǎn)品,這一個正在加速進行的客觀趨勢。SSD可以實現(xiàn)用先進的壓縮算法,把數(shù)據(jù)更好地壓縮,可以去重,可以更好的加密解密,用新的文件系統(tǒng)等等。

在標準方面,應盡快研究建立存儲的行業(yè)規(guī)范和標準,完善數(shù)據(jù)存儲效率、數(shù)據(jù)保護、數(shù)據(jù)災備、綠色低碳等數(shù)據(jù)存力關(guān)鍵標準體系。存儲相關(guān)企業(yè)及研究機構(gòu)進行標準和評估體系研究,鼓勵行業(yè)龍頭企業(yè)通過硬件開放、軟件開源、使能生態(tài)伙伴等策略,給予合作伙伴尤其是創(chuàng)新型小微企業(yè)充分的發(fā)展空間,共同摸索形成存儲行業(yè)標準;另一方面,推進數(shù)據(jù)存儲產(chǎn)業(yè)國際交流與合作,加強與國際標準組織的合作,加速我國技術(shù)標準的國際化進程,積極參與數(shù)據(jù)存儲國際規(guī)則和技術(shù)標準制定。

在人才培養(yǎng)方面,存力市場有必要進一步完善數(shù)據(jù)產(chǎn)業(yè)人才培養(yǎng)機制,建立多層次、多元化的人才培養(yǎng)系統(tǒng),鼓勵培養(yǎng)專業(yè)理論與行業(yè)知識兼?zhèn)涞膹秃闲腿瞬?,鼓勵地方政府引導企業(yè)完善人才激勵機制,引進和留住高端存儲專業(yè)人才,優(yōu)化人才的地域和行業(yè)布局。存力產(chǎn)業(yè),包括數(shù)據(jù)存儲,數(shù)據(jù)管理技術(shù)。目前國內(nèi)對存儲的概念還停留在一個小的部件,沒有把它上升到一個產(chǎn)業(yè)的高度。

有強大先進的數(shù)據(jù)存儲產(chǎn)業(yè)作為支撐,才能有發(fā)展算力主動權(quán)。

03 國產(chǎn)運力,沉默的搬運工

如果說存力已經(jīng)開始逐漸受到重視,那么國產(chǎn)運力相對來說可能還是一個“小透明”。但對于大模型訓練來說,“運力”已經(jīng)成為關(guān)鍵因素。英特爾公司高級副總裁兼網(wǎng)絡(luò)與邊緣事業(yè)部總經(jīng)理Sachin Katti表示,在云端訓練大模型,單個服務(wù)器已無法承載,對網(wǎng)絡(luò)需求的高要求前所未有,“我們訓練一個大模型就需要5萬-20萬臺服務(wù)器,需要通過網(wǎng)絡(luò)來把這些服務(wù)器連接起來然后進行訓練,這個量是非常大的。”

數(shù)字世界的運力,指的是數(shù)據(jù)傳輸流轉(zhuǎn)的能力,由帶寬、時延、安全可靠等要素組成。面對強勁的算力需求,英偉達推出了云算力平臺,企業(yè)可以租用算力,谷歌、微軟AZURE等云算力平臺會為其提供算力支持。而與租用的服務(wù)器的鏈接也會成為影響企業(yè)模型訓練的因素。

各類智能化應用的普及,導致大量視頻數(shù)據(jù)、科研數(shù)據(jù)需要流動、調(diào)度、分析處理,帶來的網(wǎng)絡(luò)壓力和運力負擔也越來越大。

中國移動通信研究院發(fā)布的《面向AI大模型的智算中心網(wǎng)絡(luò)演進白皮書》測算,以1750億參數(shù)規(guī)模的GPT-3模型訓練為例,從理論估算模型分析,當動態(tài)時延從10us提升至1000us時,GPU有效計算時間占比將降低接近10%;當網(wǎng)絡(luò)丟包率為千分之一時,GPU有效計算時間占比將下降13%;當網(wǎng)絡(luò)丟包率達到1%時,GPU有效計算時間占比將低于5%?!叭绾谓档陀嬎阃ㄐ艜r延、提升網(wǎng)絡(luò)吞吐是AI大模型智算中心能夠充分釋放算力的核心問題?!?/p>

對于大模型來說,在訓練大模型時,模型參數(shù)存儲于加速器(如GPU顯卡)的片外緩存中,隨著訓練進程對模型參數(shù)進行不斷更新迭代。在訓練過程中,不同加速器之間需要進行頻繁且大量的數(shù)據(jù)交換,在數(shù)據(jù)交換完成之后,才能夠去算下一步的訓練結(jié)果。從這個角度來說,好“運”,才能好“算”。在這一點上,英特爾除了提供CPU、獨立顯卡等芯片,滿足人工智能模型訓練、推理對算力的要求外,也提供了針對網(wǎng)絡(luò)的IPU(Infrastructure Processing Unit)產(chǎn)品。

從這一角度來看,在AI芯片賽道已經(jīng)有巨頭把控且新玩家層出不窮的情況下,布局運力系統(tǒng)或許是另一片藍海。更重要的是,從宏觀角度來看,運力是將算力和存力高效傳輸給終端用戶,它在基礎(chǔ)設(shè)施中起到非常重要的作用。以被熟知的“東數(shù)西算”工程為例,它還包含西數(shù)西算、南數(shù)南算、東數(shù)西存等,而實現(xiàn)這些規(guī)劃的前提是要有強有力的運力做支撐。運力網(wǎng)絡(luò)要讓用戶在調(diào)用成百上千公里以外的計算資源時的體驗與調(diào)用隔壁工作站的資源沒什么區(qū)別。對于一個城市的大數(shù)據(jù)中心,就需要實現(xiàn)城市乃至國家層面綜合調(diào)度的能力。

在“三力”基礎(chǔ)上打造智慧管控能力,實現(xiàn)高效調(diào)度,才有希望實現(xiàn)算力一體化服務(wù)。不久前,成都最新發(fā)布政策,指出將圍繞“算力”“存力”“運力”等關(guān)鍵領(lǐng)域,大力發(fā)展芯片、服務(wù)器整機、液冷設(shè)備等高端硬件。顯然,行業(yè)已經(jīng)意識到,對于發(fā)展大模型,全面發(fā)展不能僅堆算力芯片。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 存儲器
    +關(guān)注

    關(guān)注

    39

    文章

    7753

    瀏覽量

    172149
  • 加速器
    +關(guān)注

    關(guān)注

    2

    文章

    841

    瀏覽量

    40231
  • 數(shù)據(jù)存儲
    +關(guān)注

    關(guān)注

    5

    文章

    1037

    瀏覽量

    53002
  • 人工智能
    +關(guān)注

    關(guān)注

    1819

    文章

    50284

    瀏覽量

    266807
  • GPU芯片
    +關(guān)注

    關(guān)注

    1

    文章

    307

    瀏覽量

    6553

原文標題:發(fā)展國產(chǎn)大模型,不能只堆算力

文章出處:【微信號:ICViews,微信公眾號:半導體產(chǎn)業(yè)縱橫】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    想用RK3588在邊緣端跑大模型?你的算還差多少?

    在邊緣計算與嵌入式AI應用飛速發(fā)展的今天,瑞芯微RK3588平臺憑借其強大的多媒體處理能力和6TOPS的NPU算,已成為高端AIoT項目的首選之一。然而,面對日益復雜的大模型(LLM)部署需求與高
    的頭像 發(fā)表于 04-10 17:31 ?2040次閱讀
    想用RK3588在邊緣端跑大<b class='flag-5'>模型</b>?你的算<b class='flag-5'>力</b>還差多少?

    憶聯(lián)UH812a以極致存破局大模型載入瓶頸

    隨著大模型技術(shù)規(guī)?;涞?,AI應用的實時性正成為企業(yè)競爭的核心。然而,在算力持續(xù)升級的同時,模型從存儲層加載至計算單元的環(huán)節(jié)卻日漸成為制約系統(tǒng)效率與彈性的關(guān)鍵瓶頸。緩慢或波動的加載過程,不僅會導致
    的頭像 發(fā)表于 03-04 16:22 ?1034次閱讀
    憶聯(lián)UH812a以極致存<b class='flag-5'>力</b>破局大<b class='flag-5'>模型</b>載入瓶頸

    從訓練到推理:大模型需求的新拐點已至

    在大模型產(chǎn)業(yè)發(fā)展的早期階段,行業(yè)焦點主要集中在大模型訓練所需的算投入。一個萬億參數(shù)大模型的訓練可能需要數(shù)千張GPU芯片連續(xù)運行數(shù)月,成本高
    的頭像 發(fā)表于 02-05 16:07 ?999次閱讀
    從訓練到推理:大<b class='flag-5'>模型</b>算<b class='flag-5'>力</b>需求的新拐點已至

    從數(shù)據(jù)到模型:如何預測細節(jié)距鍵合的剪切?

    在微電子封裝領(lǐng)域,細節(jié)距鍵合工藝的開發(fā)與質(zhì)量控制面臨著巨大挑戰(zhàn)。工程師們常常需要在缺乏大量破壞性測試的前提下,快速評估或預測一個鍵合點的剪切性能。能否根據(jù)焊球的表觀尺寸,通過一個可靠的數(shù)學模型
    發(fā)表于 01-08 09:45

    華為發(fā)布AI容器技術(shù)Flex:ai,算平均利用率提升30%

    電子發(fā)燒友網(wǎng)綜合報道 2025年11月21日,在上海舉辦的“2025 AI容器應用落地與發(fā)展論壇”上,華為正式發(fā)布并開源了創(chuàng)新AI容器技術(shù)Flex:ai,為解決算資源利用難題帶來了全新的思路和解
    的頭像 發(fā)表于 11-26 08:31 ?7762次閱讀

    湘軍,讓算變成生產(chǎn)?

    腦極體
    發(fā)布于 :2025年11月25日 22:56:58

    開源大模型革命下:電子谷連接技術(shù)的堅守與未來

    隨著開源大模型參數(shù)規(guī)模邁入萬億級時代,算基礎(chǔ)設(shè)施正面臨前所未有的挑戰(zhàn)。2025年以來,DeepSeekR1、Qwen2.5-72B等開源模型在核心任務(wù)上的表現(xiàn)已超越95%的專有模型,
    的頭像 發(fā)表于 09-19 08:03 ?612次閱讀
    開源大<b class='flag-5'>模型</b>算<b class='flag-5'>力</b>革命下:電子谷連接技術(shù)的堅守與未來

    模型工具的 “京東答案”

    隨著大模型技術(shù)的迅猛發(fā)展,AI工具已成為重要的輔助生產(chǎn)工具和工作伙伴。它能夠顯著提升工作效率、幫助解決業(yè)務(wù)痛點,甚至能通過知識延展與智能協(xié)同,幫助團隊突破傳統(tǒng)認知邊界。掌握大模型工具
    的頭像 發(fā)表于 08-25 16:09 ?659次閱讀

    商湯大裝置躋身中國大模型推理算廠商第一梯隊

    近日,IDC發(fā)布首個《2025中國大模型推理算市場分析報告》。
    的頭像 發(fā)表于 08-14 09:29 ?5026次閱讀

    積算科技上線赤兔推理引擎服務(wù),創(chuàng)新解鎖FP8大模型

    模型輕量化部署方案。用戶通過遠程算平臺預置的模型鏡像與AI工具,僅需50%的GPU算即可解鎖大模型推理、企業(yè)知識庫搭建、智能體開發(fā),加
    的頭像 發(fā)表于 07-30 21:44 ?1023次閱讀

    模型推理顯存和計算量估計方法研究

    ,如乘法、加法等; (2)根據(jù)各層計算操作的類型和復雜度,確定每層所需的計算量; (3)將各層計算量相加,得到模型總的計算量。 基于硬件加速的算估計 隨著硬件加速技術(shù)的發(fā)展,許多深度學習框架支持
    發(fā)表于 07-03 19:43

    從FA模型切換到Stage模型時:module的切換說明

    。/Stage模型不支持。 targetAbility標識當前Ability重用的目標Ability。/Stage模型不支持。 multiUserShared標識Ability是否支持多用戶狀態(tài)進行共享,該標簽
    發(fā)表于 06-05 08:16

    FA模型訪問Stage模型DataShareExtensionAbility說明

    FA模型訪問Stage模型DataShareExtensionAbility 概述 無論FA模型還是Stage模型,數(shù)據(jù)讀寫功能都包含客戶端和服務(wù)端兩部分。 FA
    發(fā)表于 06-04 07:53

    明晚開播 | 數(shù)據(jù)智能系列講座第6期:大模型革命背后的算架構(gòu)創(chuàng)新

    背后的算架構(gòu)創(chuàng)新報告簡介本報告回顧了AI技術(shù)演進的歷程。隨著人工智能技術(shù)的迅猛發(fā)展,特別是大模型的革命推動了計算架構(gòu)的深刻變革,技術(shù)的突破依賴于從通用CPU到GP
    的頭像 發(fā)表于 05-20 08:04 ?569次閱讀
    明晚開播 | 數(shù)據(jù)智能系列講座第6期:大<b class='flag-5'>模型</b>革命背后的算<b class='flag-5'>力</b>架構(gòu)創(chuàng)新

    直播預約 | 數(shù)據(jù)智能系列講座第6期:大模型革命背后的算架構(gòu)創(chuàng)新

    模型革命背后的算架構(gòu)創(chuàng)新報告簡介本報告回顧了AI技術(shù)演進的歷程。隨著人工智能技術(shù)的迅猛發(fā)展,特別是大模型的革命推動了計算架構(gòu)的深刻變革,技術(shù)的突破依賴于從通用C
    的頭像 發(fā)表于 05-12 14:05 ?705次閱讀
    直播預約 | 數(shù)據(jù)智能系列講座第6期:大<b class='flag-5'>模型</b>革命背后的算<b class='flag-5'>力</b>架構(gòu)創(chuàng)新