chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

AI產(chǎn)能虹吸效應:通用服務器面臨結(jié)構(gòu)性挑戰(zhàn),出貨預期下調(diào)至+13%

Felix分析 ? 來源:電子發(fā)燒友網(wǎng) ? 作者:吳子鵬 ? 2026-04-17 09:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報道(文 / 吳子鵬)在人工智能AI)浪潮席卷全球科技產(chǎn)業(yè)的背景下,市場對高性能計算設備的需求持續(xù)攀升。然而,這種旺盛的需求正對傳統(tǒng)服務器市場形成擠壓。根據(jù)知名市場研究機構(gòu) TrendForce 發(fā)布的最新報告,2026 年全球整體服務器出貨量增幅預估從此前的 + 20% 下調(diào)至 + 13%。這一調(diào)整的核心原因,在于 AI 服務器的強勁需求擠占了通用服務器所需的關(guān)鍵零部件產(chǎn)能,進而拖累了后者的交付能力。

產(chǎn)能分配失衡:AI 服務器成 “產(chǎn)能黑洞”

TrendForce 的研究揭示了通用型服務器供應鏈面臨的嚴峻挑戰(zhàn)。盡管 2026 年通用型服務器訂單需求穩(wěn)健,且 AI 推理服務的普及本應帶動通用型服務器進入替換與擴張周期,但核心零部件供應瓶頸正在抑制其成長動能。出貨量調(diào)整背后,是 AI 服務器需求爆發(fā)引發(fā)的零部件產(chǎn)能 “虹吸效應”。一方面,廠商大幅調(diào)整產(chǎn)能向 AI 服務器傾斜。數(shù)據(jù)顯示,AI 服務器對 DRAM 和 NAND 閃存的需求分別達到普通服務器的 8 倍和 3 倍,尤其是高帶寬內(nèi)存(HBM)已成為 AI 芯片的 “標配”。三星、SK 海力士、美光等存儲巨頭紛紛將晶圓產(chǎn)能和研發(fā)資源轉(zhuǎn)向 HBM、DDR5 等高端產(chǎn)品,直接擠壓了面向智能手機、PC 及通用服務器的 LPDDR、DDR4 等通用型芯片的供應。

另一方面,通用服務器與 AI 服務器在 PCB、CPUPMIC、BMC 等關(guān)鍵零部件上產(chǎn)能共享,而上游供應商優(yōu)先保障利潤更高的 AI 產(chǎn)品線,導致通用服務器交付能力嚴重受限。

具體零部件交期情況:
·PCB 和 CPU:兩項核心零部件交期已拉長至近一年
·PMIC(電源管理芯片):交貨周期達到 35~40 周,較此前 21~26 周大幅延長
·BMC(基板管理控制器):交貨周期從過往 11~16 周拉長至 21~26 周

更為嚴峻的是,三星計劃關(guān)閉位于韓國的 S7 八英寸晶圓廠,該廠月產(chǎn)能約 5 萬片,關(guān)閉后三星八英寸晶圓總月產(chǎn)能將從 25 萬片降至 20 萬片以下。臺積電自 2025 年起啟動八英寸產(chǎn)能削減計劃,目標 2027 年部分廠區(qū)全面停產(chǎn)。8 英寸產(chǎn)能短缺已然成為 “死結(jié)”,廠商因多重原因不愿擴產(chǎn),甚至不愿維護現(xiàn)有產(chǎn)能,而終端需求卻愈發(fā)旺盛,需求端量價齊升已成為常態(tài)。

AI 服務器自身增長強勁,ASIC 方案嶄露頭角

TrendForce 的這一預測調(diào)整,清晰揭示了當前服務器產(chǎn)業(yè)正在經(jīng)歷的結(jié)構(gòu)性變化。AI 技術(shù)的爆發(fā)式發(fā)展不僅催生了新的市場增長點,也在深刻改變供應鏈的資源配置邏輯。對于通用服務器廠商而言,如何應對零部件短缺、保障產(chǎn)品交付,將成為未來一段時間內(nèi)的重要課題。

盡管 AI 服務器對通用服務器市場形成 “擠出效應”,但其自身發(fā)展勢頭依然迅猛。TrendForce 預計,2026 年全球 AI 服務器出貨量將實現(xiàn) 28% 的同比增長。這一增長主要來自數(shù)據(jù)中心、云服務提供商以及各行業(yè)企業(yè)對 AI 算力的迫切需求。

在 AI 服務器的芯片方案選擇上,報告也透露出新趨勢。目前,圖形處理器GPU)仍是 AI 加速主流方案,但專用集成電路(ASIC)方案增速被認為將高于 GPU 方案。主要原因是部分大型科技公司為優(yōu)化特定工作負載、降低長期運營成本并減少對單一供應商依賴,正積極投入自研 AI ASIC 開發(fā)。

不過,ASIC 方案推廣仍面臨挑戰(zhàn)。TrendForce 提到,自研 AI ASIC 的調(diào)校和優(yōu)化過程更為耗時復雜,一定程度上限制了其短期普及速度。因此,該機構(gòu)將 ASIC 方案在整體 AI 服務器中的占比預估從此前接近 28% 微調(diào)至 27% 左右。這表明,盡管 ASIC 前景廣闊,但 GPU 短期內(nèi)仍將占據(jù) AI 加速市場主導地位。

同時,存儲芯片市場自 2025 年起邁入一輪史無前例的 “超級牛市”。國金證券研究報告指出,2025 年存儲芯片價格迎來暴漲行情,其中 DDR4 16Gb 內(nèi)存條漲幅高達 1800%。應用于算力調(diào)度和系統(tǒng)調(diào)度的通用計算芯片(CPU)也將面臨供不應求,英特爾AMD 2026 年服務器 CPU 產(chǎn)能已基本售罄。

未來展望:供應鏈重構(gòu)與市場分化

當前困局也孕育著產(chǎn)業(yè)變革新契機。TrendForce 分析師指出,本輪調(diào)整本質(zhì)是科技產(chǎn)業(yè)從 “傳統(tǒng)計算” 向 “AI 原生” 轉(zhuǎn)型的陣痛期。雖然短期服務器出貨增長承壓,但 AI 驅(qū)動的算力需求長期高企將倒逼供應鏈重構(gòu) —— 上游產(chǎn)能分配將更趨動態(tài)平衡,中游廠商需強化庫存管理與供應鏈韌性,下游應用則需適應成本結(jié)構(gòu)新常態(tài)。未來,技術(shù)迭代速度、地緣政治影響及市場需求彈性,將成為決定產(chǎn)業(yè)格局的關(guān)鍵變量。

如上所述,AI 服務器芯片市場正經(jīng)歷從 GPU 一家獨大向多元架構(gòu)并存的結(jié)構(gòu)性轉(zhuǎn)變。2023 年至 2026 年間,GPU 在 AI 服務器中的占比從 72.2% 逐步降至 69.7%,ASIC 方案則從 24.3% 提升至 27.8%,創(chuàng)下 2023 年以來最高占比。展望未來,異構(gòu)計算與綠色算力將系統(tǒng)性重塑服務器行業(yè)的技術(shù)范式與價值創(chuàng)造模式。計算架構(gòu)從 CPU 中心向 CPU+GPU+DSA 的異構(gòu)融合演進,Chiplet 與先進封裝技術(shù)支撐算力密度持續(xù)提升。此外,Compute Express Link(CXL)技術(shù)正成為重塑數(shù)據(jù)中心內(nèi)存架構(gòu)的關(guān)鍵力量,CXL 允許跨服務器共享內(nèi)存資源,解決處理器性能增速遠超內(nèi)存帶寬和容量增速的瓶頸。

在供應鏈重構(gòu)背景下,國產(chǎn)替代正加速推進。國產(chǎn) GPU 服務器在政策推動下加速滲透,2026 年上半年,政務、電信領域采購占比持續(xù)提升;“東數(shù)西算” 工程加速落地,上海、北京、浙江等地出臺專項政策支持生成式 AI,推動智算中心集群化部署。同時,在半導體設備等 “卡脖子” 環(huán)節(jié),北方華創(chuàng)、中微公司等國產(chǎn)設備商在刻蝕、薄膜沉積領域取得突破,有望借助 AI 基建浪潮實現(xiàn)市占率提升。

結(jié)語

2026 年全球服務器市場正經(jīng)歷 AI 浪潮與供應鏈瓶頸的雙重考驗。TrendForce 的下調(diào)預測,本質(zhì)反映了產(chǎn)能分配失衡對市場增長的制約。短期內(nèi),通用服務器仍將面臨交付難題;但長期來看,AI 服務器的高增長與通用服務器的補漲需求將共同推動服務器市場整體復蘇。對于產(chǎn)業(yè)鏈企業(yè)而言,精準把握產(chǎn)能釋放節(jié)奏與技術(shù)發(fā)展趨勢,是應對市場變化、抓住發(fā)展機遇的關(guān)鍵。尤其在 ASIC 崛起、液冷普及、供應鏈重構(gòu)的大背景下,提前布局的企業(yè)有望在 2027-2030 年新一輪增長周期中搶占先機。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    AI服務器PCBA加工技術(shù)解析:高算力時代的核心制造能力

    AI服務器PCBA加工 是AI服務器硬件制造的重要環(huán)節(jié),也是支撐人工智能算力基礎設施的重要技術(shù)能力。隨著大模型訓練和數(shù)據(jù)中心建設加速,AI
    的頭像 發(fā)表于 04-16 22:57 ?43次閱讀

    LabCompanion宏展全新推出高發(fā)熱大負載Walk-in試驗箱,助力AI算力用大型服務器測試驗

    AI服務器挑戰(zhàn)AI浪潮下,服務器已從單純的數(shù)據(jù)處理機,演進為現(xiàn)今智能時代的核心基礎設施。無論是訓練大型語言模型(LLM)、即時推論
    的頭像 發(fā)表于 02-07 10:03 ?873次閱讀
    LabCompanion宏展全新推出高發(fā)熱大負載Walk-in試驗箱,助力<b class='flag-5'>AI</b>算力用大型<b class='flag-5'>服務器</b>測試驗

    國產(chǎn)AI服務器核心工藝突破,高密度貼片良率創(chuàng)新高

    信號完整與熱管理方案的同步驗證。業(yè)界領先的貼片打樣服務已形成從設計協(xié)同到多維測試的全流程支撐體系,為AI算力設備的快速迭代提供制造側(cè)加速度。 核心挑戰(zhàn)在于超高密度互連與異構(gòu)集成。當前
    的頭像 發(fā)表于 02-04 20:37 ?277次閱讀
    國產(chǎn)<b class='flag-5'>AI</b><b class='flag-5'>服務器</b>核心工藝突破,高密度貼片良率創(chuàng)新高

    普通服務器電源與AI服務器電源的區(qū)別(上)

    引言服務器是數(shù)據(jù)中心的核心設備,其穩(wěn)定運行依賴可靠的電源供應。隨著AI技術(shù)的飛速發(fā)展,AI服務器大量涌現(xiàn),與普通服務器在應用場景等方面存在顯
    的頭像 發(fā)表于 01-12 09:31 ?1351次閱讀
    普通<b class='flag-5'>服務器</b>電源與<b class='flag-5'>AI</b><b class='flag-5'>服務器</b>電源的區(qū)別(上)

    1U AI 服務器電源設計的突破:電容小型化如何不翻車?

    隨著AI算力需求不斷增長,服務器電源的設計面臨著前所未有的挑戰(zhàn)。在1U高度的服務器電源設計中,如何滿足高功率密度、高負載穩(wěn)定性,并且在有限的
    的頭像 發(fā)表于 01-09 14:15 ?477次閱讀
    1U <b class='flag-5'>AI</b> <b class='flag-5'>服務器</b>電源設計的突破:電容小型化如何不翻車?

    AI 服務器電源測試項目研究報告

    01項目背景隨著人工智能技術(shù)的飛速發(fā)展,AI服務器的需求急劇增加。電源作為AI服務器的關(guān)鍵組件,其性能直接影響服務器的穩(wěn)定性、可靠
    的頭像 發(fā)表于 12-16 10:22 ?931次閱讀
    <b class='flag-5'>AI</b> <b class='flag-5'>服務器</b>電源測試項目研究報告

    AVX TAJ系列鉭電容產(chǎn)地、產(chǎn)能與交期分析(2025.12.8)

    220美元/公斤漲至2025年365美元/公斤(+65.9%) 設備與工藝:高精度生產(chǎn)線建設周期長(18-24個月),且受環(huán)保限制 AI需求爆發(fā):AI服務器單機用量是傳統(tǒng)服務器的3-8
    發(fā)表于 12-09 10:44

    液冷散熱時代:AI服務器如何重構(gòu)磁元件設計

    隨著AI服務器功率密度的快速提升,傳統(tǒng)的風冷散熱方案在熱管理方面逐漸面臨挑戰(zhàn)。在此背景下,液冷散熱技術(shù)正加速應用于數(shù)據(jù)中心,特別是高算力的AI
    的頭像 發(fā)表于 11-21 11:42 ?1027次閱讀
    液冷散熱時代:<b class='flag-5'>AI</b><b class='flag-5'>服務器</b>如何重構(gòu)磁元件設計

    對話|AI服務器電源對磁性元件提出的新需求

    尚未拉開,整體處于同一起跑線。 面對AI服務器電源向“三高”——高功率密度、高效率、高可靠發(fā)展的趨勢,AI服務器電源產(chǎn)業(yè)鏈各環(huán)節(jié)——無論是
    的頭像 發(fā)表于 10-11 14:55 ?1201次閱讀
    對話|<b class='flag-5'>AI</b><b class='flag-5'>服務器</b>電源對磁性元件提出的新需求

    AI 服務器備用電源:高效、可靠與智能的未來保障

    電子發(fā)燒友網(wǎng)綜合報道 隨著人工智能技術(shù)的飛速發(fā)展,AI 服務器已成為數(shù)據(jù)中心的核心引擎。然而,算力需求的指數(shù)級增長也帶來了前所未有的電源挑戰(zhàn)。在 AI
    的頭像 發(fā)表于 10-09 02:38 ?5418次閱讀

    德州儀器方案 | 使用熱插拔控制應對48V AI服務器的保護挑戰(zhàn)

    新興的 48V AI 服務器在峰值和穩(wěn)定狀態(tài)下都需要更大的功率。在使用熱插拔控制和并聯(lián) MOSFET 設計前端保護時,高功耗以及快速和瞬態(tài)動態(tài)特性帶來了挑戰(zhàn)
    的頭像 發(fā)表于 07-05 10:39 ?3595次閱讀
    德州儀器方案 | 使用熱插拔控制<b class='flag-5'>器</b>應對48V <b class='flag-5'>AI</b><b class='flag-5'>服務器</b>的保護<b class='flag-5'>挑戰(zhàn)</b>

    AI服務器電源技術(shù)研討會部分演講嘉賓確認

    AI服務器電源是2025-2026年AI硬件確定的增量,英偉達超級芯片GB200功率到2700W,是傳統(tǒng)服務器電源的5-7倍,但其面臨
    的頭像 發(fā)表于 06-24 10:07 ?1368次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>服務器</b>電源技術(shù)研討會部分演講嘉賓確認

    AI 服務器電源如何迭代升級?

    AI 算力需求增長的今天,AI 服務器電源正陷入 “性能瓶頸與國產(chǎn)替代并行、場景適配與技術(shù)創(chuàng)新交織” 的雙重挑戰(zhàn)。 由Big-Bit商務網(wǎng)、廣東省磁性元器件行業(yè)協(xié)會主辦的2025中國
    的頭像 發(fā)表于 06-23 14:51 ?1648次閱讀

    總功率超198kW,AI服務器電源對元器件提出了哪些要求?

    芯片GB200功率到2700W,是傳統(tǒng)服務器電源的5-7倍,但其面臨挑戰(zhàn)同樣不小。 超高功率需求與空間限制。 AI服務器(如搭載英偉達Bl
    的頭像 發(fā)表于 06-17 10:36 ?1482次閱讀
    總功率超198kW,<b class='flag-5'>AI</b><b class='flag-5'>服務器</b>電源對元器件提出了哪些要求?

    RAKsmart服務器如何賦能AI開發(fā)與部署

    AI開發(fā)與部署的復雜不僅體現(xiàn)在算法設計層面,更依賴于底層基礎設施的支撐能力。RAKsmart服務器憑借其高性能硬件架構(gòu)、靈活的資源調(diào)度能力以及面向AI場景的深度優(yōu)化,正在成為企業(yè)突破
    的頭像 發(fā)表于 04-30 09:22 ?918次閱讀