chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

IPU 與 GPU 間無縫銜接,未來聚焦數(shù)據(jù)中心的AI訓(xùn)練和推理部署

工程師鄧生 ? 來源:DeepTech深科技 ? 作者:DeepTech深科技 ? 2021-01-02 10:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

“不管是在今天 GPU 能夠做的事情上,還是 GPU 不能做的事情上,IPU 都有它的價值點和價值定位?!?日前,在英國 AI 芯片初創(chuàng)公司 Graphcore 中國區(qū)的媒體溝通會上,Graphcore 高級副總經(jīng)理兼中國區(qū)總經(jīng)理盧濤和 Graphcore 中國工程總負責(zé)人、AI 算法科學(xué)家金琛,就 Graphcore 的新產(chǎn)品性能以及該公司在中國的落地策略向 DeepTech 等媒體進行了同步。

溝通會上,Graphcore 解讀了其于本月公布的大規(guī)模系統(tǒng)級產(chǎn)品 IPU-M2000 的應(yīng)用測試數(shù)據(jù)。公布數(shù)據(jù)顯示,在典型 CV 模型 ResNet、基于分組卷積的 ResNeXt、EfficientNet、語音模型、BERT-Large 等自然語言處理模型以及 MCMC 等傳統(tǒng)機器學(xué)習(xí)模型中,IPU-M2000 在吞吐量、訓(xùn)練時間和學(xué)習(xí)結(jié)果生成時間方面都有較好表現(xiàn)。比如,在 IPU-M2000 上 EfficientNet 的吞吐量達到 A100 的 18 倍。

圖 | IPU-M2000 與 GPU 的吞吐量、訓(xùn)練及結(jié)果生成時間對比(來源:Graphcore)

66e3cb43bec8442f90d9105440bb1a58.jpeg

此前,IPU-M2000 與 Graphcore 第二代 IPU 處理器 GC200 已于今年 7 月 15 日發(fā)布。據(jù)介紹,GC200 芯片基于臺積電的 7nm 工藝制造,集成 250 TFlops AI-Float 算力和 900MB 處理器內(nèi)存,相較第一代產(chǎn)品性能提升 8 倍。而對于第三代 IPU,盧濤在此次溝通會上并未透露發(fā)布的具體時間表,不過他表示下一代產(chǎn)品正在研發(fā)中,將依舊重點解決存儲問題。

支持 PyTorch、TensorFlow,在 IPU 與 GPU 間無縫銜接

另外,Graphcore 還發(fā)布了 Poplar SDK 1.4 版本和 PyTorch 的 IPU 版本。

Graphcore 對 Poplar SDK 1.4 版本在易用性和速度上進行了優(yōu)化,能夠支持模型和數(shù)據(jù)并行,同時能夠?qū)崿F(xiàn)模型的橫向擴展 —— 從 1 個 IPU 橫向擴展到 64 個 IPU。金琛表示,下一版本的 Poplar SDK 有望實現(xiàn)橫向擴展到 128 個 IPU。

值得關(guān)注的是,除支持 Graphcore 的自研框架 PopART 外,Poplar SDK 1.4 還支持 Facebook 的 PyTorch 框架、以及 Google 的 TensorFlow 框架。

據(jù)金琛介紹,Graphcore 在 PyTorch 代碼中引入了 PopTorch 輕量級接口,通過這一接口,用戶可基于當(dāng)前的 PyTorch 模型進行封裝,以實現(xiàn) IPU 和 CPU 之間的無障礙銜接。

對于實現(xiàn)這一功能的核心技術(shù),金琛做進一步解釋說,Graphcore 采用 PyTorch 里的 jit.trace 機制對計算圖進行編譯,轉(zhuǎn)化為 IPU 和 PyTorch 兼容的表達格式,最后用 Graphcore 自研框架 PopART 后端的 audiff 功能自動生成反向圖,便可以實現(xiàn)同一個模型在不同平臺的無差別運行。

目前,PyTorch 因其直觀易懂、靈活易用等優(yōu)勢受到開發(fā)者的廣泛喜愛和應(yīng)用。Poplar SDK 1.4 增加了對 PyTorch 的支持,策略上是希望用戶在 IPU 上也能體驗 PyTorch,讓用戶多一個轉(zhuǎn)戰(zhàn) IPU 的理由。不過目前英偉達的 GPU 已經(jīng)在 AI 計算領(lǐng)域占據(jù)大部分市場,此時 IPU 能夠提供的價值、轉(zhuǎn)場到 IPU 的成本等,都是用戶所要考慮的問題。

在遷移成本上,盧濤表示,經(jīng)過幾年來對 Poplar SDK 的打磨,現(xiàn)在從 GPU 到 IPU 的軟硬件遷移難度已經(jīng)比大家認為的小得多。

金琛補充道,在訓(xùn)練上,針對一個不太復(fù)雜的模型,一般一周可以遷移完成,對于復(fù)雜的模型大概需要兩周;在推理上,基本上是 1-2 天的工作量。

談及性能,盧濤表示:“IPU 在訓(xùn)練推理、語音、圖像模型處理上基本全面超越 GPU?!?不過他也坦言:“不能說 100% 超越了 GPU,因為算法模型確實非常多,比如說語音有不同的語音模型、圖像也是有不同的圖像模型?!?/p>

未來:持續(xù)優(yōu)化性能,進一步壓縮遷移成本

IPU 在機器學(xué)習(xí)性能上的明顯優(yōu)勢是不可否認的,但前有身強體壯且努力奔跑的巨頭英偉達,Graphcore 更是一刻也不容懈怠。盧濤在溝通會上也多次提到,“目前 Graphcore 面對的壓力最主要還是來自英偉達”。

“重壓” 之下,Graphcore 短期內(nèi)的計劃是聚焦在數(shù)據(jù)中心高性能訓(xùn)練和推理市場上,持續(xù)打磨 IPU 和軟件平臺,持續(xù)優(yōu)化性能和提高可用性。盧濤說,“只有在我們聚焦的領(lǐng)域跑得更快,Graphcore 和英偉達之間的距離才會越來越短,甚至在某些領(lǐng)域超過英偉達”。

他還表示,Graphcore 希望未來數(shù)年內(nèi),能在數(shù)據(jù)中心的 AI 訓(xùn)練、推理批量部署、以及發(fā)貨和體量上做到除英偉達以外的另一個頭部地位。

為實現(xiàn)該目標(biāo),Graphcore 也將從增加 AI 框架支持、以及模型覆蓋兩個維度著手,以期進一步減少用戶的遷移成本。此外,除目前 AI 應(yīng)用最廣泛的互聯(lián)網(wǎng)和云計算兩個場景外,盧濤表示公司明年還將在金融、汽車、智慧醫(yī)療、智慧教育、智慧城市和政府服務(wù)等領(lǐng)域,至少突破一到兩個比較主流的領(lǐng)域。

責(zé)任編輯:PSY

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5266

    瀏覽量

    136040
  • 數(shù)據(jù)中心
    +關(guān)注

    關(guān)注

    18

    文章

    5756

    瀏覽量

    75195
  • IPU
    IPU
    +關(guān)注

    關(guān)注

    0

    文章

    35

    瀏覽量

    15997
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    數(shù)據(jù)中心缺電,英偉達又有新動作!

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)近日,英偉達宣布將舉辦一場私人峰會,邀請聚焦數(shù)據(jù)中心電力問題的初創(chuàng)公司參會,共同應(yīng)對可能阻礙人工智能發(fā)展的電力難題。當(dāng)下,大模型訓(xùn)練推理對算力的需求呈指
    的頭像 發(fā)表于 12-14 00:06 ?1.3w次閱讀
    <b class='flag-5'>數(shù)據(jù)中心</b>缺電,英偉達又有新動作!

    高通挑戰(zhàn)英偉達,發(fā)布768GB內(nèi)存AI推理芯片,“出征”AI數(shù)據(jù)中心

    電子發(fā)燒友網(wǎng)報道(文/莫婷婷)隨著生成式AI應(yīng)用的爆發(fā)式增長,數(shù)據(jù)中心對高效、低成本、低功耗AI推理能力的需求急劇上升。高通憑借其在移動計算和通信領(lǐng)域的技術(shù)積累,正試圖通過差異化戰(zhàn)略,
    的頭像 發(fā)表于 10-29 10:36 ?3901次閱讀
    高通挑戰(zhàn)英偉達,發(fā)布768GB內(nèi)存<b class='flag-5'>AI</b><b class='flag-5'>推理</b>芯片,“出征”<b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>

    高通挑戰(zhàn)英偉達!發(fā)布768GB內(nèi)存AI推理芯片,“出征”AI數(shù)據(jù)中心

    電子發(fā)燒友網(wǎng)報道(文/莫婷婷)隨著生成式AI應(yīng)用的爆發(fā)式增長,數(shù)據(jù)中心對高效、低成本、低功耗AI推理能力的需求急劇上升。高通憑借其在移動計算和通信領(lǐng)域的技術(shù)積累,正試圖通過差異化戰(zhàn)略,
    的頭像 發(fā)表于 10-29 09:14 ?6700次閱讀
    高通挑戰(zhàn)英偉達!發(fā)布768GB內(nèi)存<b class='flag-5'>AI</b><b class='flag-5'>推理</b>芯片,“出征”<b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>

    曦智科技探討AI數(shù)據(jù)中心三大擴展策略

    在OFC 2026期,曦智科技接受了Semiconductor Engineering的專訪,探討了AI數(shù)據(jù)中心三大擴展策略——縱向擴展(Scale-up)、橫向擴展(Scale-out)和跨
    的頭像 發(fā)表于 04-21 16:34 ?149次閱讀
    曦智科技探討<b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>三大擴展策略

    Arm CPU推動數(shù)據(jù)中心業(yè)務(wù)正加速發(fā)展

    在過去十年中的大部分時間里,數(shù)據(jù)中心領(lǐng)域的話題都圍繞著加速器展開。隨著人工智能 (AI) 訓(xùn)練工作負載的爆炸式增長,GPU、TPU 等占據(jù)了新聞頭條、投資者報告和基礎(chǔ)設(shè)施路線圖的核心位
    的頭像 發(fā)表于 03-24 10:15 ?448次閱讀

    128周才能交貨!AI狂潮下,全球數(shù)據(jù)中心排隊等變壓器?

    電子發(fā)燒友網(wǎng)報道(文/莫婷婷)AI加速落地,算力需求呈指數(shù)級增長。以大模型訓(xùn)練、推理服務(wù)為代表的AI應(yīng)用,推動全球數(shù)據(jù)中心規(guī)模持續(xù)擴張。據(jù)I
    的頭像 發(fā)表于 01-30 09:06 ?6238次閱讀

    安森美創(chuàng)新方案助力AI數(shù)據(jù)中心提升能效

    人工智能 (AI) 正在迅速發(fā)展,并滲透到我們?nèi)粘I畹姆椒矫婷?,從?nèi)容生成到客服聊天機器人皆是如此。與此同時,數(shù)據(jù)處理量大幅激增,而數(shù)據(jù)處理很大程度上依賴于強大的計算基礎(chǔ)設(shè)施。此外,AI
    的頭像 發(fā)表于 12-26 10:23 ?762次閱讀
    安森美創(chuàng)新方案助力<b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>提升能效

    數(shù)據(jù)中心應(yīng)急供電:超級電容無縫切換,守護數(shù)據(jù)不丟失

    數(shù)據(jù)中心應(yīng)急供電中,超級電容通過毫秒級無縫切換技術(shù),有效防止數(shù)據(jù)丟失,成為保障數(shù)據(jù)中心穩(wěn)定運行的核心組件 。其核心價值體現(xiàn)在瞬時響應(yīng)、高功率支撐、長壽命及安全可靠等方面,具體分析如下:
    的頭像 發(fā)表于 12-02 14:40 ?1299次閱讀

    Credo攜1.6T Bluebird DSP破解AI數(shù)據(jù)中心算力瓶頸

    高速連接17年的企業(yè)再擲重磅——發(fā)布 新一代1.6T Bluebird DSP ,為AI數(shù)據(jù)中心的“算力軍備競賽”注入關(guān)鍵動力。 當(dāng)下,AI大模型訓(xùn)練集群的
    的頭像 發(fā)表于 10-17 14:49 ?951次閱讀
    Credo攜1.6T Bluebird DSP破解<b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>算力瓶頸

    睿海光電以高效交付與廣泛兼容助力AI數(shù)據(jù)中心800G光模塊升級

    NVIDIA Quantum-2交換機等主流設(shè)備。 平滑擴展:與現(xiàn)有400G/100G設(shè)備無縫互通,降低數(shù)據(jù)中心升級成本。 多場景覆蓋:從AI訓(xùn)練集群的“大象流”到
    發(fā)表于 08-13 19:01

    加速AI未來,睿海光電800G OSFP光模塊重構(gòu)數(shù)據(jù)中心互聯(lián)標(biāo)準(zhǔn)

    客戶的共同選擇 超算中心應(yīng)用 :為某國家實驗室提供800G OSFP SR8模塊,構(gòu)建E級超算互聯(lián)網(wǎng)絡(luò) AI訓(xùn)練集群 :某自動駕駛企業(yè)采用我們的解決方案,GPU
    發(fā)表于 08-13 16:38

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報什么錯?
    發(fā)表于 07-30 08:15

    PCIe協(xié)議分析儀在數(shù)據(jù)中心中有何作用?

    數(shù)據(jù)中心的整體可靠性。以下是其核心作用及具體應(yīng)用場景的詳細分析:一、性能優(yōu)化:突破帶寬瓶頸,提升計算效率 鏈路帶寬利用率分析 場景:在AI訓(xùn)練集群中,GPU通過PCIe與CPU交換
    發(fā)表于 07-29 15:02

    PCIe協(xié)議分析儀能測試哪些設(shè)備?

    :提升數(shù)據(jù)中心的整體效率,降低CPU負載。 四、異構(gòu)計算與擴展設(shè)備 多GPU系統(tǒng) 測試場景:利用PCIe協(xié)議分析儀模擬高負載的GPU通信,測試PCIe交換機的性能和穩(wěn)定性。 應(yīng)用價
    發(fā)表于 07-25 14:09

    中型數(shù)據(jù)中心中的差分晶體振蕩器應(yīng)用與匹配方案

    中型數(shù)據(jù)中心的定義與特點 中型數(shù)據(jù)中心通常服務(wù)于中大型企業(yè)、科研機構(gòu)或地方行業(yè)節(jié)點,具備50至200個機柜,部署多臺服務(wù)器、交換設(shè)備、存儲系統(tǒng)與光通信鏈路等,強調(diào)高帶寬、低延遲與高可用性。關(guān)鍵設(shè)備
    發(fā)表于 07-01 16:33