chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

聯(lián)想集團與NVIDIA推出全新液冷AI服務(wù)器

聯(lián)想中國 ? 來源:聯(lián)想中國 ? 2024-10-17 09:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在今天的年度全球創(chuàng)新活動Tech World上,聯(lián)想集團推出了第六代垂直液冷突破性產(chǎn)品ThinkSystem N1380 Neptune,為生成式人工智能的高效計算提供了新時代的動力。聯(lián)想集團的創(chuàng)新使各地的組織能夠為生成式人工智能構(gòu)建和運行加速計算,同時將數(shù)據(jù)中心功耗降低高達40%。

大會上,聯(lián)想集團宣布與NVIDIA合作推出聯(lián)想混合式AI全面優(yōu)勢集,并推出ThinkSystem SC777 V4 Neptune,進一步擴大了與NVIDIA的長期合作。這個強大的新系統(tǒng)利用新的ThinkSystem N1380 Neptune,將NVIDIA領(lǐng)先的加速計算和AI 技術(shù)帶給企業(yè)市場,在緊湊的設(shè)計中實現(xiàn)萬億參數(shù)的AI模型。

在今年4月上海舉辦的聯(lián)想創(chuàng)新科技大會上,聯(lián)想正式發(fā)布萬全異構(gòu)智算平臺。聯(lián)想Hybrid AI Advantage的推出,將增強聯(lián)想萬全異構(gòu)智算平臺的能力。

●聯(lián)想集團宣布與NVIDIA合作推出聯(lián)想混合式AI全面優(yōu)勢集。

隨著人工智能應(yīng)用的增加,數(shù)據(jù)中心需要重新設(shè)計以適應(yīng)更高的熱密度。憑借ThinkSystem N1380 Neptune和新的ThinkSystem SC777 V4 Neptune,聯(lián)想率先在不需要專用數(shù)據(jù)中心空調(diào)的情況下運行100KW以上的服務(wù)器機架。

十多年來,聯(lián)想一直引領(lǐng)液冷創(chuàng)新,目標(biāo)是將高性能計算的力量帶給每個組織。通過突破性的液冷工程和技術(shù)集成,ThinkSystem N1380 Neptune開啟了數(shù)據(jù)中心效率和設(shè)計的新時代,將有助于為所有人帶來NVIDIA 領(lǐng)先的加速計算和萬億參數(shù)的人工智能,同時從根本上改變數(shù)據(jù)中心的電力使用方式。

——楊元慶

聯(lián)想集團董事長兼CEO

有了ThinkSystem N1380 Neptune,數(shù)據(jù)中心的電力被最大化用于AI和研究,而不是系統(tǒng)冷卻。這項革命性技術(shù)使用重新設(shè)計的垂直液冷機箱,高效率提供加速計算,專為行業(yè)標(biāo)準(zhǔn)19英寸機架而設(shè)計,在100%直接溫水冷卻的緊湊系統(tǒng)中消除了耗電風(fēng)扇的需求。

NVIDIA 加速計算平臺是推動生成式人工智能的引擎,并定義了一場新的工業(yè)革命。憑借聯(lián)想ThinkSystem N1380 Neptune和NVIDIA領(lǐng)先的加速計算平臺的突破性功能,我們正在支持世界上技術(shù)最先進的加速工作負(fù)載,同時大幅降低運營成本和能耗,以幫助實現(xiàn)AI對每個行業(yè)的承諾。

——Bob Pette

NVIDIA企業(yè)平臺副總裁

ThinkSystem SC777 V4 Neptune支持下一代NVIDIA Quantum-X800 InfiniBand和Spectrum-X800以太網(wǎng)平臺,可實現(xiàn)高性能加速網(wǎng)絡(luò)。此外,ThinkSystem SC777 V4 Neptune支持NVIDIA AI Enterprise,這是一個云原生軟件平臺,可簡化生產(chǎn)級人工智能解決方案的開發(fā)和部署,包括生成人工智能、計算機視覺和語音人工智能。

以100%直接溫水冷卻

將NVIDIA 領(lǐng)先的加速計算平臺帶入企業(yè)市場

聯(lián)想將提供 NVIDIA 領(lǐng)先的AI 機架系統(tǒng),為人工智能訓(xùn)練、數(shù)據(jù)處理、工程設(shè)計和仿真提供強力支持。通過采用開放循環(huán),直接溫水冷卻,任何規(guī)模的企業(yè)客戶都可以使用聯(lián)想ThinkSystem SC777 V4 Neptune運行萬億參數(shù)的人工智能模型,以更低的成本和更高的能源效率將產(chǎn)品更快地推向市場。

●聯(lián)想集團與NVIDIA聯(lián)合發(fā)布全新液冷AI服務(wù)器

借助先進的水冷技術(shù),新的ThinkSystem服務(wù)器使關(guān)鍵組件能夠在更低的溫度下運行,并有效地去除所有組件的所有熱量,包括GPU,內(nèi)存,I/O,本地存儲和電壓調(diào)節(jié)器。這些創(chuàng)新技術(shù)的綜合運用,使得AI訓(xùn)練和實時LLM推理能力得到提升,支持模型擴展至10萬億參數(shù),同時在緊湊、超靜音的系統(tǒng)中提高性能、能效和可靠性。

全新聯(lián)想Neptune液冷技術(shù)

開啟HPC和AI高性能計算新紀(jì)元

聯(lián)想幫助組織以任何規(guī)模部署高性能人工智能。從緊湊的13U機柜擴展到整個機架和數(shù)據(jù)中心,ThinkSystem N1380 Neptune具有8個托盤槽,4個15kW功率轉(zhuǎn)換站,具有精密的Neptune水流分配系統(tǒng),所有這些都被精巧地封裝,以實現(xiàn)最佳的空間、電力和冷卻效率:

?最大化的標(biāo)準(zhǔn)外形尺寸:N1380外形設(shè)計可在不違反數(shù)據(jù)中心標(biāo)準(zhǔn)的情況下提供所需的額外空間,同時為各種規(guī)模的客戶提供可擴展性。

?降低功耗:獨特的設(shè)計消除了對內(nèi)部氣流和耗電風(fēng)扇的需求,與典型數(shù)據(jù)中心的例如風(fēng)冷系統(tǒng)相比,可將功耗降低高達40%。機架隔熱也顯著減少輻射熱。

?先進的轉(zhuǎn)換電源(PCS):除了Neptune水冷基礎(chǔ)設(shè)施,N1380機箱容納多達四個ThinkSystem 15kW鈦金轉(zhuǎn)換電源(PCS),為48V母線供電。這種創(chuàng)新的設(shè)計將將電源轉(zhuǎn)換、整流和配電合并到一個封裝中,這與傳統(tǒng)的需要單獨單元的設(shè)置有著天壤之別,從而實現(xiàn)了同類最佳效率。

?可靠的冷卻:N1380采用集成歧管,該歧管采用獲得專利的盲配機制,并使用航空級防滴連接器與計算托盤緊密相連,確保安全無縫的運作。。

?完全散熱:提高水流安全性,高效連接可實現(xiàn)100%直接溫水冷卻。

?電力再利用:Neptune可在露點溫度到45°C這一范圍內(nèi)以進水溫度運行,這種設(shè)計無需進行額外冷卻,并允許在建筑供暖或吸附冷水生產(chǎn)中有效地再利用產(chǎn)生的熱能。

超過十年的液體冷卻領(lǐng)導(dǎo)力

聯(lián)想Neptune?十多年來在液冷技術(shù)方面一直處于世界領(lǐng)先地位,與傳統(tǒng)的風(fēng)冷系統(tǒng)相比,它采用了一種開創(chuàng)性的方法來去除熱量并降低功耗。憑借40多項專利和為全球范圍內(nèi)提供性能可靠的水冷解決方案,聯(lián)想以革命性的工程技術(shù)完善了其液冷技術(shù)。聯(lián)想Neptune?采用最先進的材料,包括定制的銅質(zhì)水環(huán)路和獲得專利的CPU冷板,實現(xiàn)全系統(tǒng)水冷。與使用低質(zhì)量FEP塑料的系統(tǒng)不同,Neptune采用耐用的不銹鋼和可靠的EPDM軟管。

聯(lián)想AI支持全球網(wǎng)絡(luò)

為了幫助各行業(yè)實現(xiàn)AI的承諾,第六代聯(lián)想Neptune現(xiàn)已全面覆蓋聯(lián)想服務(wù)器、解決方案和服務(wù)的端到端混合AI產(chǎn)品組合。

為了幫助各行業(yè)實現(xiàn)AI的承諾,第六代聯(lián)想Neptune現(xiàn)已全面覆蓋聯(lián)想服務(wù)器、解決方案和服務(wù)的端到端混合AI產(chǎn)品組合。

借助新的GPU資源、AI驅(qū)動的系統(tǒng)管理和先進的液體冷卻服務(wù),企業(yè)可以根據(jù)您的環(huán)境優(yōu)化聯(lián)想Neptune,從而更快地構(gòu)建、擴展和發(fā)展私有AI。聯(lián)想TruScale GPUaaS通過簡單的可擴展、即用即付模式,按需提供閃電般快速的GPU算力,而聯(lián)想電源和冷卻服務(wù)可幫助組織降低優(yōu)化苛刻的人工智能工作負(fù)載的復(fù)雜性。聯(lián)想TruScale GPUaaS將可用于廣泛的NVIDIA Tensor Core GPU選項,這提高了NVIDIA加速計算的可用性,使企業(yè)中的AI案例更加易于獲取,推動快速的現(xiàn)實世界創(chuàng)新。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5581

    瀏覽量

    109625
  • 聯(lián)想集團
    +關(guān)注

    關(guān)注

    0

    文章

    56

    瀏覽量

    9402
  • AI服務(wù)器
    +關(guān)注

    關(guān)注

    3

    文章

    171

    瀏覽量

    5529

原文標(biāo)題:聯(lián)想集團與NVIDIA擴大合作:聯(lián)合發(fā)布全新液冷AI服務(wù)器

文章出處:【微信號:聯(lián)想中國,微信公眾號:聯(lián)想中國】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    液冷服務(wù)器系統(tǒng)架構(gòu)設(shè)計案例分享

    服務(wù)器的全液冷,一般都需要液冷板覆蓋CPU、內(nèi)存(DIMM)、硬盤(SSD)、電源、IO以及其他SOC的散熱。今天給大家分享一款浪潮的全液冷冷板服務(wù)
    的頭像 發(fā)表于 01-27 15:33 ?338次閱讀
    全<b class='flag-5'>液冷</b><b class='flag-5'>服務(wù)器</b>系統(tǒng)架構(gòu)設(shè)計案例分享

    普通服務(wù)器電源與AI服務(wù)器電源的區(qū)別(上)

    引言服務(wù)器是數(shù)據(jù)中心的核心設(shè)備,其穩(wěn)定運行依賴可靠的電源供應(yīng)。隨著AI技術(shù)的飛速發(fā)展,AI服務(wù)器大量涌現(xiàn),與普通服務(wù)器在應(yīng)用場景等方面存在顯
    的頭像 發(fā)表于 01-12 09:31 ?963次閱讀
    普通<b class='flag-5'>服務(wù)器</b>電源與<b class='flag-5'>AI</b><b class='flag-5'>服務(wù)器</b>電源的區(qū)別(上)

    聯(lián)想集團在CES 206發(fā)布全新戰(zhàn)略成果

    2026年1月6日,拉斯維加斯——全球數(shù)字經(jīng)濟領(lǐng)導(dǎo)企業(yè)聯(lián)想集團在CES 2026上震撼發(fā)布全新“Smarter AI for all”戰(zhàn)略成果。
    的頭像 發(fā)表于 01-09 16:25 ?683次閱讀
    <b class='flag-5'>聯(lián)想</b><b class='flag-5'>集團</b>在CES 206發(fā)布<b class='flag-5'>全新</b>戰(zhàn)略成果

    液冷重塑AI服務(wù)器電源?對材料器件有何要求

    隨著AI服務(wù)器功率密度持續(xù)攀升,傳統(tǒng)風(fēng)冷方案正逐步逼近極限。單機柜功率從過去的二三十千瓦,快速躍升至如今的幾百千瓦,對散熱提出了極致要求。高熱流密度使散熱系統(tǒng)成為制約服務(wù)器性能釋放的關(guān)鍵瓶頸。在這一背景下,
    的頭像 發(fā)表于 12-13 16:46 ?1641次閱讀
    <b class='flag-5'>液冷</b>重塑<b class='flag-5'>AI</b><b class='flag-5'>服務(wù)器</b>電源?對材料器件有何要求

    聯(lián)想四大重磅發(fā)布加速AI工廠落地

    的優(yōu)勢布局,正式推出聯(lián)想AI工廠”解決方案,旨在幫助企業(yè)數(shù)據(jù)中心完成從傳統(tǒng)“算力中心”向高效“AI工廠”的智能化轉(zhuǎn)型,同時重磅發(fā)布新一代高端大模型訓(xùn)練
    的頭像 發(fā)表于 12-13 15:39 ?935次閱讀

    液冷服務(wù)器成為AI黃金賽道!華為力挺,兩大國際芯片巨頭下場

    2024年以來,全球AI液冷服務(wù)器快速增長,中國液冷服務(wù)器市場進展如何?液冷技術(shù)出現(xiàn)哪些主流路線
    的頭像 發(fā)表于 11-27 09:22 ?6809次閱讀
    <b class='flag-5'>液冷</b><b class='flag-5'>服務(wù)器</b>成為<b class='flag-5'>AI</b>黃金賽道!華為力挺,兩大國際芯片巨頭下場

    液冷散熱時代:AI服務(wù)器如何重構(gòu)磁元件設(shè)計

    隨著AI服務(wù)器功率密度的快速提升,傳統(tǒng)的風(fēng)冷散熱方案在熱管理方面逐漸面臨挑戰(zhàn)。在此背景下,液冷散熱技術(shù)正加速應(yīng)用于數(shù)據(jù)中心,特別是高算力的AI集群中。 這一散熱方式的變革,并不僅僅是冷
    的頭像 發(fā)表于 11-21 11:42 ?651次閱讀
    <b class='flag-5'>液冷</b>散熱時代:<b class='flag-5'>AI</b><b class='flag-5'>服務(wù)器</b>如何重構(gòu)磁元件設(shè)計

    NVIDIA推出全新BlueField-4 DPU

    全新 NVIDIA BlueField DPU 具有 800Gb/s 的吞吐量,其集成的 NVIDIA ConnectX-9 SuperNIC 和 NVIDIA DOCA 微
    的頭像 發(fā)表于 11-03 14:48 ?917次閱讀

    數(shù)據(jù)中心液冷服務(wù)器該配什么樣的 UPS 不間斷電源?

    在當(dāng)今數(shù)字化飛速發(fā)展的時代,數(shù)據(jù)中心就像是整個數(shù)字世界的心臟,承載著海量的數(shù)據(jù)存儲與處理任務(wù)。而液冷服務(wù)器作為數(shù)據(jù)中心的核心設(shè)備之一,因其高效的散熱性能,正越來越廣泛地被應(yīng)用。不過,要保障液冷
    的頭像 發(fā)表于 08-21 11:01 ?923次閱讀
    數(shù)據(jù)中心<b class='flag-5'>液冷</b><b class='flag-5'>服務(wù)器</b>該配什么樣的 UPS 不間斷電源?

    多達 48 個計算節(jié)點!Firefly 推出 CSC2-N48 AI 算力服務(wù)器

    Firefly最新推出CSC2-N48算力服務(wù)器,內(nèi)置48個分布式計算節(jié)點,單節(jié)點可提供6TOPS-157TOPS算力,可選瑞芯微、算能、NVIDIA等芯片平臺,具有強大的AI運算能力
    的頭像 發(fā)表于 08-20 16:37 ?1583次閱讀
    多達 48 個計算節(jié)點!Firefly <b class='flag-5'>推出</b> CSC2-N48 <b class='flag-5'>AI</b> 算力<b class='flag-5'>服務(wù)器</b>

    NVIDIA通過全新 Omniverse庫、Cosmos物理AI模型及AI計算基礎(chǔ)設(shè)施,為機器人領(lǐng)域開啟新篇章

    Gaussian Splatting(3DGS)庫支持大規(guī)模世界重建 ·?全新 NVIDIA Cosmos 模型支持世界生成與空間推理 ·?全新 NVIDIA RTX PRO Bla
    的頭像 發(fā)表于 08-12 11:29 ?1746次閱讀
    <b class='flag-5'>NVIDIA</b>通過<b class='flag-5'>全新</b> Omniverse庫、Cosmos物理<b class='flag-5'>AI</b>模型及<b class='flag-5'>AI</b>計算基礎(chǔ)設(shè)施,為機器人領(lǐng)域開啟新篇章

    新品 | 破局散熱困境!捷智算5090 浸沒式液冷服務(wù)器全新來襲!

    在算力需求呈爆發(fā)式增長的當(dāng)下,服務(wù)器硬件適配困難與散熱不暢這兩大難題,一直困擾著許多用戶。不過,曙光已現(xiàn)!捷智算全新推出的5090液冷浸沒式服務(wù)器
    的頭像 發(fā)表于 08-06 17:12 ?2079次閱讀
    新品 | 破局散熱困境!捷智算5090 浸沒式<b class='flag-5'>液冷</b><b class='flag-5'>服務(wù)器</b><b class='flag-5'>全新</b>來襲!

    AI 服務(wù)器電源如何迭代升級?

    AI 算力需求增長的今天,AI 服務(wù)器電源正陷入 “性能瓶頸與國產(chǎn)替代并行、場景適配與技術(shù)創(chuàng)新交織” 的雙重挑戰(zhàn)。 由Big-Bit商務(wù)網(wǎng)、廣東省磁性元器件行業(yè)協(xié)會主辦的2025中國電子熱點
    的頭像 發(fā)表于 06-23 14:51 ?1307次閱讀

    曙光數(shù)創(chuàng)推出液冷數(shù)據(jù)中心全生命周期定制新服務(wù)

    AI 算力爆發(fā)式增長的當(dāng)下,液冷技術(shù)已成為數(shù)據(jù)中心突破散熱瓶頸、支撐高密度算力的必選項。但液冷服務(wù)落地面臨著多重挑戰(zhàn):服務(wù)器選型難匹配、設(shè)
    的頭像 發(fā)表于 06-13 14:45 ?1387次閱讀

    AI服務(wù)器液冷散熱如何實現(xiàn)動態(tài)平衡?

    ? 隨著AI大模型訓(xùn)練與推理需求的爆發(fā)式增長,高功率密度服務(wù)器的熱管理正面臨前所未有的挑戰(zhàn)。當(dāng)GPU集群功率突破20kW/柜時,傳統(tǒng)風(fēng)冷系統(tǒng)的散熱效率已逼近物理極限,液冷技術(shù)憑借其單位體積散熱
    的頭像 發(fā)表于 03-06 17:32 ?1306次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>服務(wù)器</b><b class='flag-5'>液冷</b>散熱如何實現(xiàn)動態(tài)平衡?