chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

螞蟻鏈AIoT團隊與NVIDIA合作加速AI推理

NVIDIA英偉達 ? 來源:NVIDIA英偉達 ? 作者:NVIDIA英偉達 ? 2022-09-09 09:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

螞蟻鏈 AIoT 團隊與 NVIDIA 合作,將量化感知訓練(QAT)技術(shù)應用于深度學習模型性能優(yōu)化中,并通過 NVIDIA TensorRT 高性能推理 SDK 進行高效率部署, 通過 INT8 推理, 吞吐量提升了 3 倍, 助力螞蟻鏈版權(quán) AI 平臺中的模型推理服務大幅降本增效。

依托于螞蟻鏈自研的區(qū)塊鏈和 AI 技術(shù),以及金融級的加密算法能力和云計算能力的加持,螞蟻鏈版權(quán) AI 平臺能夠為數(shù)字媒體時代的內(nèi)容管理方、內(nèi)容平臺方以及創(chuàng)作者提供一站式的版權(quán)保護能力。作為螞蟻鏈版權(quán)平臺的核心能力,AI 技術(shù)可以快速提取音視頻及圖像特征,在短時間內(nèi)完成對相似內(nèi)容的自動識別和判斷。得益于 NVIDIA 完善的軟硬件生態(tài),螞蟻鏈團隊除了可以方便的在云端 GPU 部署深度學習模型推理服務,在進一步的合作中,雙方亦成功將其 TensorRT 支持的業(yè)界領(lǐng)先的 INT8-QAT 技術(shù)應用到版權(quán)保護業(yè)務模型上,對 AI 模型的推理效率進行大幅度優(yōu)化,實現(xiàn)了在幾乎精度無損的情況下,單 GPU 上的吞吐量提升約 300%。

利用深度學習模型高效且自動化地進行相似內(nèi)容識別是螞蟻鏈版權(quán) AI 平臺的一項關(guān)鍵技術(shù)能力,這對 AI 模型研發(fā)提出了較高的技術(shù)挑戰(zhàn)。一方面,多媒體版權(quán)保護業(yè)務場景中作品侵權(quán)的類型復雜而多變, 為了到達高召回率和低虛警率的效果精度,螞蟻鏈團隊需采用較為復雜的算法模型方案;而另一方面,版權(quán)場景中高吞吐、低成本的需求又對模型提出了性能方面的挑戰(zhàn)。換言之,算法模型需要的存算資源必須有所限制、推理性能必須較高,而一般情況下,這與模型的效果要求是矛盾的,因為深度學習模型的效果往往與模型的尺寸和所需算力正相關(guān)。而這些復雜而又多維的業(yè)務需求,也確實給團隊的算法研發(fā)和優(yōu)化工作,帶來了相當大的挑戰(zhàn)。

因此,螞蟻鏈團隊將算法研發(fā)拆解為不同的流程以解決不同維度的業(yè)務需求。簡而言之,就是優(yōu)先以滿足業(yè)務效果指標為目的研發(fā)模型,隨后借助模型壓縮技術(shù)對模型存算需求進行優(yōu)化,而第二部分工作實現(xiàn),則需仰賴 NVIDIA 相關(guān)軟硬件生態(tài)對于高性能AI模型推理加速的優(yōu)秀支持。一方面,NVIDIA GPU 所提供的強大并行算力以及 INT8 Tensor Core 提供的整型計算能力,為深度學習模型推理的高效實現(xiàn)奠定了基礎(chǔ);另一方面,NVIDIA TensorRT 8 SDK 中對模型計算圖的高效融合,以及對于新型模型結(jié)構(gòu)的支持和優(yōu)化(例如 QAT 所采用的 QDQ 結(jié)構(gòu)以及 transformer-based 模型)讓我們可以在 PyTorch 模型的基礎(chǔ)上生成高效的量化推理模型。其中,QAT 作為此項目模型性能優(yōu)化的重要技術(shù),最大的優(yōu)點莫過于可以在大幅提升推理速度的同時,做到幾乎完全消弭量化網(wǎng)絡(luò)整型計算相比浮點網(wǎng)絡(luò)數(shù)值精度差異帶來的算法效果損失。而近年來,隨著 NVIDIA 對相關(guān)軟硬件生態(tài)的對 QAT 技術(shù)的支持日臻完善,螞蟻鏈團隊希望能藉由 NVIDIA 相關(guān)的軟硬件生態(tài),將 QAT 技術(shù)應用到螞蟻鏈版權(quán) AI 項目中,以滿足嚴苛的業(yè)務需求。

基于以上挑戰(zhàn),螞蟻鏈 AIoT 技術(shù)部與 NVIDIA 技術(shù)專家合作,引入 QAT 技術(shù)對深度學習模型進行性能優(yōu)化,并將模型轉(zhuǎn)換為 TensorRT 引擎部署至 NVIDIA T4 GPU 進行在線推理。

首先,團隊使用 QAT 技術(shù)對算法模型以“偽量化”模式進行微調(diào),使模型得以在 INT8 整型推理模式下在算法效果指標上幾乎沒有損失。具體實現(xiàn)方案主要包括:使用 NVIDIA PyTorch Quantization 工具在模型中一些特定位置插入量化/反量化節(jié)點,在原模型的基礎(chǔ)上構(gòu)造一個“偽量化”模型。緊接著,使用該“偽量化”模型在原任務上進行一定輪數(shù)的微調(diào),使模型參數(shù)在受到量化誤差擾動的同時依然可以收斂到一個局部最優(yōu),最終最小化量化推理對模型算法指標帶來的負面影響。實踐中,螞蟻鏈團隊通過 QAT 技術(shù)可以將 INT8 模型與單精度模型的算法指標的相對差距縮小到 0.2% 以內(nèi),做到了算法效果幾乎無損的模型量化。

隨后,則需要將微調(diào)完成的 QAT 模型轉(zhuǎn)換為真正的 INT8 版本模型部署到線上生產(chǎn)環(huán)境中。這一流程主要依賴 NVIDIA 提供的 TensorRT 高性能推理框架,相較其他部署框架,TensorRT 在 NVIDIA GPU 上表現(xiàn)出巨大的性能優(yōu)勢:一方面通過 graph fusion,kernel tuning 等功能,可以自動化精簡網(wǎng)絡(luò)結(jié)構(gòu),為模型各層的不同 op 尋找最優(yōu) CUDA kernel 等優(yōu)化操作;更重要的是,TensorRT 8.0 開始,添加了針對“偽量化”節(jié)點的自動化解析和融合功能,使 QAT 模型落地的門檻大大降低,讓 QAT 模型真正有可能在部署環(huán)境中展現(xiàn)出近似 INT8 后量化模型的極高推理性能。實踐中,采用 INT8-QAT 的模型做到了比單精度模型約 300% 的單位時間吞吐提升,極大提高了模型推理服務的效率;同時,量化模型更低的顯存占用也為模型部署帶來了更高的靈活性。

借助 NVIDIA 在高性能模型推理方面完善的軟硬件生態(tài),螞蟻鏈團隊得以使用 INT8-QAT 技術(shù)大幅優(yōu)化螞蟻鏈版權(quán) AI 平臺中模型推理服務的效率,幫助系統(tǒng)整體降本增效。300% 的推理速度提升,以及算法指標幾乎無損的特性,讓此項目的 AI 模型可以做到兼顧效果與性能,幫助螞蟻鏈版權(quán) AI 平臺在業(yè)界樹立技術(shù)優(yōu)勢。

“版權(quán)保護是一個富有挑戰(zhàn)的技術(shù)領(lǐng)域,互聯(lián)網(wǎng)內(nèi)容類型多樣、隱匿性強、易復制與編輯等特點對我們提出了諸多挑戰(zhàn)。螞蟻鏈從 2019 年發(fā)布鵲鑿版權(quán)保護平臺以來,在音視圖文的侵權(quán)檢索、侵權(quán)比對與定位方面做了大量深入的研究工作。我們 AIoT 團隊在 2022 年世界知識產(chǎn)權(quán)日向公眾發(fā)布了螞蟻鏈版權(quán) AI 計算引擎,可以對相似內(nèi)容的提取精確到幀,直接以秒為單位反饋比對結(jié)果。這種細顆粒度的識別能力極大提高了下游工作效率,同時也需要我們充分探索和利用 NVIDIA INT8-QAT 等加速技術(shù),在效果和性能之間達到最佳平衡。接下去我們還會面向低成本高性能的版權(quán) AI 算法演進,讓技術(shù)普惠更多的普通創(chuàng)作者。”螞蟻鏈 AIoT 高級算法專家張曉博與錢烽表示。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5581

    瀏覽量

    109610
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5177

    瀏覽量

    135255
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39490

    瀏覽量

    300980
  • 英偉達
    +關(guān)注

    關(guān)注

    23

    文章

    4077

    瀏覽量

    99038

原文標題:NVIDIA 攜手螞蟻鏈實現(xiàn) INT8 QAT 技術(shù)加速 AI 推理,打造新一代版權(quán)保護平臺

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    使用NORDIC AI的好處

    ; 自定義 Neuton 模型博客] Axon NPU :集成在 nRF54LM20B 等高端 SoC 中的專用 AI 加速器,對 TensorFlow Lite 模型可實現(xiàn)最高約 15× 推理
    發(fā)表于 01-31 23:16

    軟通動力榮膺螞蟻數(shù)科“領(lǐng)航AI Agent合作伙伴”

    12月11日,首屆螞蟻數(shù)科生態(tài)合作伙伴大會在蘇州召開。大會以“與AI同行· 價值共生”為主題,匯聚數(shù)字科技產(chǎn)業(yè)核心力量,共探AI大模型產(chǎn)業(yè)
    的頭像 發(fā)表于 12-12 21:52 ?1307次閱讀

    什么是AI模型的推理能力

    NVIDIA 的數(shù)據(jù)工廠團隊NVIDIA Cosmos Reason 等 AI 模型奠定了基礎(chǔ),該模型近日在 Hugging Face 的物理
    的頭像 發(fā)表于 09-23 15:19 ?1230次閱讀

    NVIDIA從云到邊緣加速OpenAI gpt-oss模型部署,實現(xiàn)150萬TPS推理

    的發(fā)布持續(xù)深化了雙方的 AI 創(chuàng)新合作。NVIDIANVIDIA Blackwell 架構(gòu)上優(yōu)化了這兩款全新的開放權(quán)重模型并實現(xiàn)了推理
    的頭像 發(fā)表于 08-15 20:34 ?2275次閱讀
    <b class='flag-5'>NVIDIA</b>從云到邊緣<b class='flag-5'>加速</b>OpenAI gpt-oss模型部署,實現(xiàn)150萬TPS<b class='flag-5'>推理</b>

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡(luò)智能診斷邁向 “自愈”時代

    模態(tài)的技術(shù)特性,DeepSeek正加速推動AI在金融、政務、科研及網(wǎng)絡(luò)智能化等關(guān)鍵領(lǐng)域的深度應用。 信而泰:AI推理引擎賦能網(wǎng)絡(luò)智能診斷新范式信而泰深度整合DeepSeek-R1大模型
    發(fā)表于 07-16 15:29

    NVIDIA攜手諾和諾德借助AI加速藥物研發(fā)

    NVIDIA 宣布與諾和諾德開展合作,借助創(chuàng)新 AI 應用加速藥物研發(fā)。此次合作也將支持諾和諾德與丹麥
    的頭像 發(fā)表于 06-12 15:49 ?1240次閱讀

    商湯科技“小浣熊家族”與螞蟻集團旗下智能體開發(fā)平臺“螞蟻百寶箱”正式達成生態(tài)合作

    打開螞蟻百寶箱,跳出一只商湯小浣熊。 商湯科技“小浣熊家族”與螞蟻集團旗下智能體開發(fā)平臺“螞蟻百寶箱”正式達成生態(tài)合作,雙方聯(lián)合打造“AI數(shù)
    的頭像 發(fā)表于 06-09 15:09 ?1361次閱讀
    商湯科技“小浣熊家族”與<b class='flag-5'>螞蟻</b>集團旗下智能體開發(fā)平臺“<b class='flag-5'>螞蟻</b>百寶箱”正式達成生態(tài)<b class='flag-5'>合作</b>

    NVIDIA攜手微軟加速代理式AI發(fā)展

    代理式 AI 正在重新定義科學探索,推動各行各業(yè)的研究突破和創(chuàng)新發(fā)展。NVIDIA 和微軟正通過深化合作提供先進的技術(shù),從云到 PC 加速代理式 A
    的頭像 發(fā)表于 05-27 14:03 ?1004次閱讀

    Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺,加速企業(yè)人工智能應用

    -Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺,加速企業(yè)人工智能應用 Cognizant將在關(guān)鍵增長領(lǐng)域提供解決方案,包括企業(yè)級AI智能體、定制化行業(yè)大型語言模型及搭載
    的頭像 發(fā)表于 03-26 14:42 ?721次閱讀
    Cognizant將與<b class='flag-5'>NVIDIA</b><b class='flag-5'>合作</b>部署神經(jīng)人工智能平臺,<b class='flag-5'>加速</b>企業(yè)人工智能應用

    英偉達GTC2025亮點:Oracle與NVIDIA合作助力企業(yè)加速代理式AI推理

    Oracle 數(shù)據(jù)庫與 NVIDIA AI 相集成,使企業(yè)能夠更輕松、快捷地采用代理式 AI Oracle 和 NVIDIA 宣布,NVIDIA
    的頭像 發(fā)表于 03-21 12:01 ?1403次閱讀
    英偉達GTC2025亮點:Oracle與<b class='flag-5'>NVIDIA</b><b class='flag-5'>合作</b>助力企業(yè)<b class='flag-5'>加速</b>代理式<b class='flag-5'>AI</b><b class='flag-5'>推理</b>

    英偉達GTC25亮點:NVIDIA Blackwell Ultra 開啟 AI 推理新時代

    英偉達GTC25亮點:NVIDIA Blackwell Ultra 開啟 AI 推理新時代
    的頭像 發(fā)表于 03-20 15:35 ?1489次閱讀

    英偉達GTC25亮點:NVIDIA Dynamo開源庫加速并擴展AI推理模型

    DeepSeek-R1 上的吞吐量提高了 30 倍 NVIDIA 發(fā)布了開源推理軟件 NVIDIA Dynamo,旨在以高效率、低成本加速并擴展
    的頭像 發(fā)表于 03-20 15:03 ?1210次閱讀

    通用汽車和NVIDIA合作構(gòu)建定制化AI系統(tǒng)

    通用汽車和 NVIDIA 宣布正在借助 AI、仿真和加速計算技術(shù),合作打造下一代汽車、工廠和機器人。
    的頭像 發(fā)表于 03-20 14:40 ?1708次閱讀

    Oracle 與 NVIDIA 合作助力企業(yè)加速代理式 AI 推理

    ——Oracle 和 NVIDIA 今日宣布,NVIDIA 加速計算和推理軟件與 Oracle 的 AI 基礎(chǔ)設(shè)施以及生成式
    發(fā)表于 03-19 15:24 ?565次閱讀
    Oracle 與 <b class='flag-5'>NVIDIA</b> <b class='flag-5'>合作</b>助力企業(yè)<b class='flag-5'>加速</b>代理式 <b class='flag-5'>AI</b> <b class='flag-5'>推理</b>

    NVIDIA 推出開放推理 AI 模型系列,助力開發(fā)者和企業(yè)構(gòu)建代理式 AI 平臺

    、德勤、IQVIA、微軟、SAP 和 ServiceNow 與 NVIDIA 合作,率先推出推理 AI 智能體,改變工作方式 ? ? ? 美國加利福尼亞州圣何塞 —— ?GTC ——
    發(fā)表于 03-19 09:31 ?383次閱讀
    <b class='flag-5'>NVIDIA</b> 推出開放<b class='flag-5'>推理</b> <b class='flag-5'>AI</b> 模型系列,助力開發(fā)者和企業(yè)構(gòu)建代理式 <b class='flag-5'>AI</b> 平臺