chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

英偉達GH200、特斯拉Dojo超級算力集群,性能爆棚!算力之爭加??!

Carol Li ? 來源:電子發(fā)燒友網(wǎng) ? 作者:李彎彎 ? 2023-09-14 09:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報道(文/李彎彎)今年8月,在計算機圖形學頂會SIGGRAPH 2023現(xiàn)場,英偉達發(fā)布了新一代GH200 Grace Hopper平臺,該平臺專為處理大語言模型、推薦系統(tǒng)、矢量數(shù)據(jù)庫等全球最復雜的生成式 AI 工作負載而構建。

日前,這款GH200 Grace Hopper超級芯片首次亮相MLPerf行業(yè)基準測試,在此次測試中,具有更高的內(nèi)存帶寬和更大的內(nèi)存容量的GH200與H100 GPU相比,性能高出17%。要知道,英偉達的H100 GPU產(chǎn)品性能在業(yè)界已經(jīng)是處于遙遙領先的水平。

相比于H100 GPU,英偉達新一代GH200性能高出17%

英偉達在去年3月推出了第一代Grace Hopper超級芯片平臺,首次將CPU和GPU融合在一個平臺上。相比較之下,其今年8月推出的新一代產(chǎn)品配備了HBM3e,內(nèi)存容量和帶寬都有顯著提高。HBM3e內(nèi)存是一種新型的高帶寬內(nèi)存技術,可以在更小的空間內(nèi)提供更高的數(shù)據(jù)傳輸速率。

具體來看,HBM3e比當前的HBM3快50%,可提供總計10TB/s的帶寬。這使得新平臺能夠運行比上一版本大3.5倍的模型,同時憑借快3倍的內(nèi)存帶寬提升性能。

黃仁勛此前表示,為了滿足對生成式AI不斷激增的需求,數(shù)據(jù)中心需要能夠滿足特定需求的加速計算平臺。全新GH200 Grace Hopper超級芯片平臺以出色的內(nèi)存技術和帶寬,提高了吞吐量,在不影響性能的情況下可連接多GPU 以整合性能,并且具有可以輕松部署到整個數(shù)據(jù)中心的服務器設計。

此外,新平臺可以通過 NVIDIA NVLink與其他超級芯片連接,使它們能夠協(xié)同工作,從而部署當下大型生成式AI模型。

新平臺和芯片的加持,能讓大模型訓練的成本得到有效降低。據(jù)黃仁勛介紹,一臺服務器可以同時裝載兩個GH200超級芯片。而投資800萬美元Grace Hopper,相當于8800個價值1億美元的x86 GPU,意味著成本降低12倍,能耗降低20倍。

在此次MLPerf行業(yè)基準測試,英偉達這款GH200 Grace Hopper超級芯片將其性能之高展示無余。MLPerf是影響力廣泛的國際AI性能基準評測,其推理性能評測涵蓋使用廣泛的六大AI場景,比如計算機視覺、自然語言處理、推薦系統(tǒng)、語音識別等,每個場景采用最主流的AI模型作為測試任務,每一任務又分為數(shù)據(jù)中心和邊緣兩類場景。

其由MLCommons由來自學術界、研究實驗室和行業(yè)的人工智能領導者組成的聯(lián)盟開發(fā),旨在對硬件、軟件和服務的訓練和推理性能“構建公平和有用的基準測試”。

據(jù)介紹,此次MLPerf Inference v3.1基準測試是繼4月發(fā)布3.0版本之后的又一次更新,值得注意的是,這次更新包含了兩個第一次:引入基于60億參數(shù)大語言模型GPT-J的推理基準測試和改進的推薦模型。

GPT-J是來自EleutherAI的OpenAI GPT-3的開源替代品,現(xiàn)已在MLPerf套件中用作衡量推理性能的基準。與一些更先進的人工智能模型(如1750億參數(shù)的GPT-3)相比,60億參數(shù)的GPT-J屬于相當輕量的模型,但它非常適合推理基準的角色。該模型總結了文本塊,并可在延遲敏感的在線模式和吞吐量密集型的離線模式下運行。

GH200 Grace Hopper超級芯片在GPT-J工作負載方面取得了優(yōu)異的成績,在離線和服務器場景中的每加速器性能都達到了最高水平。

包括特斯拉,眾多企業(yè)積極構建算力芯片和集群

隨著人工智能技術的發(fā)展,尤其是近年來生成式AI及大模型應用的快速拓展,市場對算力的需求快速增加。我們知道,無論是AI訓練還是推理,都需要大量的算力作為支撐。而目前在大模型的訓練和推理方面,英偉達的GPU占據(jù)重要位置。

今年以來,英偉達的A100和H100兩款芯片訂單不斷增加,價格也在一直上漲。根據(jù)其最新的第二財季報告,其凈利潤達到61.88億美元,與去年同期相比增長422%,較上一財季增長203%。據(jù)業(yè)內(nèi)人士推測,英偉達H100芯片明年出貨量還要至少增加兩倍。

在AI迅猛發(fā)展的當下,除了英偉達,國內(nèi)外企業(yè)都在積極研發(fā)AI芯片,構建自己的算力集群,比如英特爾、AMD此前都針對AI大模型推出了相應的大算力芯片產(chǎn)品。國內(nèi)的不少GPGPU企業(yè)及云服務廠商也都在積極布局。

此外,作為全球知名自動駕駛企業(yè),特斯拉也早已開始研發(fā)自己的算力芯片,打造自己的超級計算機。最近,特斯拉的股票大漲,摩根士丹利分析師認為,特斯拉超級計算機Dojo釋放人工智能提升業(yè)績的巨大潛力,成為其股價走強的主因之一。

在產(chǎn)品形態(tài)上,特斯拉的Dojo最終落地單位是一個名為ExaPOD的超級計算集群。它集成了3000顆基于7nm制程工藝的D1芯片,包含120個訓練模塊,最終能夠?qū)崿F(xiàn)高達 1.1 EFlops(百億億次浮點運算)的BF16/CFP8峰值算力;1.3TB高速 SRAM;13TB高帶寬 DRAM

在2021年的特斯拉AI Day上,Dojo超算項目負責人Ganesh Venkataramana展示了集成了25個D1芯片的訓練模塊,他表示特斯拉找到的一個關鍵答案是用臺積電的InFO_SoW整合扇出技術。這是一種芯片先進封裝技術,相比于傳統(tǒng)的打線封裝,InFO技術的基本優(yōu)勢是可以實現(xiàn)多個芯片集成封裝,加速信號傳遞。

特斯拉打算利用Dojo對海量視頻數(shù)據(jù)進行無監(jiān)督學習,加速Autopilot和完全自動駕駛(FSD)系統(tǒng)的迭代,同時為其人形機器人Optimus提供算力支持。

在2022年9月的AI Day上,特斯拉公布Dojo已建立完整的散熱盤上系統(tǒng)。同時也宣布了未來路線圖,表示AI團隊正在研發(fā)新版本的Dojo超算組件。

據(jù)今年7月20日的報道,特斯拉Dojo超算已在今年7月開始量產(chǎn),而總算力達100ExaFLOPs的超算系統(tǒng)將于2024年底量產(chǎn)。

特斯拉之前已經(jīng)構建基于英偉達GPU的大型超級計算機,而如今其自主研發(fā)并推出D1芯片,有助于其減少對英偉達GPU的依賴。

小結

從目前的情況來看,英偉達在AI訓練和推理中占據(jù)極大的市場份額,在大模型領域更是占據(jù)絕對優(yōu)勢,國內(nèi)外大部分企業(yè)都依賴英偉達A100、H100等產(chǎn)品,而如今其GH200在性能上更強,在大模型訓練方面又能夠幫助企業(yè)降低成本,必然會受到一眾企業(yè)追捧。

當然除了英偉達,國外內(nèi)還有眾多企業(yè)也在通過自己的方式,研究并發(fā)布適合AI訓練和部署芯片,為AI行業(yè)的發(fā)展構建算力集群??梢钥吹?,在生成式AI、大模型的發(fā)展下,作為基礎支撐的算力尤為重要。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 特斯拉
    +關注

    關注

    66

    文章

    6415

    瀏覽量

    131496
  • 英偉達
    +關注

    關注

    23

    文章

    4112

    瀏覽量

    99591
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    華為領銜,三劍客入局!十萬卡智集群落地,國產(chǎn)芯片強勢崛起

    的“驅(qū)動燃料”。中移動在現(xiàn)場展示了“國芯國連”AI集群,移動云磐石智交換機、超級點AI
    的頭像 發(fā)表于 10-14 09:30 ?1.5w次閱讀
    華為領銜,三劍客入局!十萬卡智<b class='flag-5'>算</b><b class='flag-5'>集群</b>落地,國產(chǎn)<b class='flag-5'>算</b><b class='flag-5'>力</b>芯片強勢崛起

    國產(chǎn)出海元年開啟

    ? 國產(chǎn)開啟“大航海”時代。 黃仁勛前段時間訪華時曾表示:“華為AI芯片取代英偉只是時間問題?!北藭r,這話多被解讀為對老對手的客套。但在剛剛結束的2025世界人工智能大會上,華為
    的頭像 發(fā)表于 03-24 15:15 ?462次閱讀
    國產(chǎn)<b class='flag-5'>算</b><b class='flag-5'>力</b>出海元年開啟

    中科曙光scaleX萬卡超集群重塑超大規(guī)模基礎設施

    在“人工智能+”行動深入推進的當下,基礎設施已成為國家戰(zhàn)略競爭的核心,而超大規(guī)模集群的運維管控難題卻日益凸顯。中科曙光scaleX萬卡超集群
    的頭像 發(fā)表于 01-30 15:43 ?937次閱讀

    將AI送上太空,是終極方案還是瘋狂幻想?評論區(qū)說出你的陣營!

    AI
    江蘇易安聯(lián)
    發(fā)布于 :2026年01月06日 09:43:34

    墨芯人工智能千卡集群正式簽約入駐新疆中心

    在“東數(shù)西”國家工程全面推進的大背景下,新疆憑借其豐富的清潔能源和獨特的區(qū)位優(yōu)勢,正迅速崛起為國家級網(wǎng)絡的關鍵樞紐。近日,墨芯人工智能(以下簡稱“墨芯”)的千卡集群正式簽約入駐新
    的頭像 發(fā)表于 12-30 17:27 ?900次閱讀

    邁向云端巔峰:昆侖芯K200 AI加速卡全面解讀

    昆侖芯K200作為云端AI加速卡,在K100架構基礎上全面升級。其INT8256 TOPS,配備16GB HBM內(nèi)存與512GB/s帶寬,專為千億參數(shù)大模型訓練與高并發(fā)推理優(yōu)化。
    的頭像 發(fā)表于 12-14 11:17 ?2237次閱讀
    邁向云端<b class='flag-5'>算</b><b class='flag-5'>力</b>巔峰:昆侖芯K<b class='flag-5'>200</b> AI加速卡全面解讀

    湘軍,讓變成生產(chǎn)

    腦極體
    發(fā)布于 :2025年11月25日 22:56:58

    AI架構分化,連接器迎“光銅共生”格局

    英偉 GB200 正通過銅纜將 72 塊 GPU 壓縮進 3 米單柜時,華為CloudMatrix 384 超節(jié)點已用 6000 余顆光模塊搭建起 12 柜集群,并承載起 1.7-
    的頭像 發(fā)表于 10-24 18:05 ?2064次閱讀

    “超節(jié)點+集群”:華為撞出來的之路

    “超節(jié)點+集群”,成為徹底解決AI困局的契機
    的頭像 發(fā)表于 09-24 10:55 ?1314次閱讀
    “超節(jié)點+<b class='flag-5'>集群</b>”:華為撞出來的<b class='flag-5'>算</b><b class='flag-5'>力</b>之路

    不夠、交付太慢?捷智裸金屬租賃對標物理機性能,讓你立馬用上高!

    2025年國產(chǎn)大模型升級帶動租賃需求爆發(fā),高性能服務器“一機難求”。中研普華預測,今年我國
    的頭像 發(fā)表于 09-12 20:06 ?1477次閱讀
    <b class='flag-5'>算</b><b class='flag-5'>力</b>不夠、交付太慢?捷智<b class='flag-5'>算</b>裸金屬租賃對標物理機<b class='flag-5'>性能</b>,讓你立馬用上高<b class='flag-5'>算</b><b class='flag-5'>力</b>!

    壁仞科技聯(lián)合三方打造國產(chǎn)集群落地

    近日,由浙江聯(lián)通、壁仞科技、中興通訊、優(yōu)云科技四方聯(lián)合打造的國產(chǎn)集群,在浙江烏鎮(zhèn)智中心正式點亮。該集群項目的建成,不僅極大地豐富了浙江
    的頭像 發(fā)表于 08-01 15:26 ?1602次閱讀

    一文看懂AI集群

    最近這幾年,AI浪潮席卷全球,成為整個社會的關注焦點。大家在討論AI的時候,經(jīng)常會提到AI集群。AI的三要素,是、算法和數(shù)據(jù)。而AI
    的頭像 發(fā)表于 07-23 12:18 ?1887次閱讀
    一文看懂AI<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>集群</b>

    熱插拔集群

    熱插拔集群指在無需停機的情況下,動態(tài)增減計算節(jié)點或硬件的基礎設施,其核心價值在于實現(xiàn)資源的彈性伸縮和業(yè)務連續(xù)性。以下從關鍵技術、應用
    的頭像 發(fā)表于 06-26 09:20 ?1217次閱讀

    AIGC基礎設施技術架構與行業(yè)實踐

    AIGC基礎設施技術架構與行業(yè)實踐 一、硬件層:AI的物理載體 芯片技術升級? 國際前沿?:某國際芯片巨頭2025年發(fā)布的GB200
    的頭像 發(fā)表于 05-29 07:44 ?1097次閱讀
    AIGC<b class='flag-5'>算</b><b class='flag-5'>力</b>基礎設施技術架構與行業(yè)實踐

    軟通智中標韶關公共服務平臺項目

    日前,軟通動力旗下軟通智中標《韶關公共服務平臺(一體化網(wǎng)
    的頭像 發(fā)表于 05-22 16:19 ?1128次閱讀