chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

騰訊云TI平臺利用NVIDIA Triton推理服務(wù)器構(gòu)造不同AI應(yīng)用場景需求

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 作者:NVIDIA英偉達(dá)企業(yè)解 ? 2022-09-05 15:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

騰訊云 TI 平臺 TI-ONE 利用 NVIDIA Triton 推理服務(wù)器構(gòu)造高性能推理服務(wù)部署平臺,使用戶能夠非常便捷地部署包括 TNN 模型在內(nèi)的多種深度學(xué)習(xí)框架下獲得的 AI 模型,并且顯著提升推理服務(wù)的吞吐、提升 GPU 利用率。

騰訊云 TI 平臺(TencentCloud TI Platform)是基于騰訊先進(jìn) AI 能力和多年技術(shù)經(jīng)驗(yàn),面向開發(fā)者、政企提供的全棧式人工智能開發(fā)服務(wù)平臺,致力于打通包含從數(shù)據(jù)獲取、數(shù)據(jù)處理、算法構(gòu)建、模型訓(xùn)練、模型評估、模型部署、到 AI 應(yīng)用開發(fā)的產(chǎn)業(yè) + AI 落地全流程鏈路,幫助用戶快速創(chuàng)建和部署 AI 應(yīng)用,管理全周期 AI 解決方案,從而助力政企單位加速數(shù)字化轉(zhuǎn)型并促進(jìn) AI 行業(yè)生態(tài)共建。騰訊云 TI 平臺系列產(chǎn)品支持公有云訪問、私有化部署以及專屬云部署。

TI-ONE 是騰訊云 TI 平臺的核心產(chǎn)品之一,可為 AI 工程師打造的一站式機(jī)器學(xué)習(xí)平臺,為用戶提供從數(shù)據(jù)接入、模型訓(xùn)練、模型管理到模型服務(wù)的全流程開發(fā)支持。騰訊云 TI 平臺 TI-ONE 支持多種訓(xùn)練方式和算法框架,滿足不同 AI 應(yīng)用場景的需求。

通常我們在 AI 模型訓(xùn)練好之后,需要將其部署在云端形成 AI 服務(wù),供應(yīng)用的客戶端進(jìn)行調(diào)用。但如何高效地進(jìn)行推理服務(wù)的部署無疑是 AI 推理平臺需要面對的挑戰(zhàn)。

一方面,推理服務(wù)部署平臺需要支持多種不同深度學(xué)習(xí)框架訓(xùn)練出來的模型,以滿足不同客戶對于不同框架的偏好,甚至需要支持一些自定義的推理框架,如 TNN[1] 等。

另一方面,部署平臺需要盡可能提升推理服務(wù)的性能,包括提升吞吐、降低延時(shí),以及提升硬件資源利用率等,這就要求平臺對模型的部署和調(diào)度進(jìn)行高效的優(yōu)化。

最后,對于由前后處理、AI 模型等多個(gè)模塊組成的工作流,例如一些 AI 工作管線中除了深度學(xué)習(xí)模型之外還包含前后處理模塊,推理服務(wù)部署平臺也需要對各個(gè)模塊進(jìn)行有條不紊且高效的串聯(lián)。以上這些需求,都需要對推理服務(wù)部署平臺進(jìn)行精心的設(shè)計(jì)和實(shí)現(xiàn)。

針對以上挑戰(zhàn),騰訊云 TI-ONE 充分利用 NVIDIA Triton 推理服務(wù)器構(gòu)建高性能的推理部署解決方案,為多個(gè)行業(yè)場景的推理工作負(fù)載提升效率。

騰訊云將 Triton 集成進(jìn) TI-ONE 的推理部署服務(wù)中。行業(yè)客戶僅需將需要推理的模型上傳至 TI-ONE 平臺上,并選擇使用 Triton 作為推理后端框架,TI-ONE 便能自動地在 Kubernetes 集群上自動拉起 Triton 容器。在容器內(nèi),Triton 服務(wù)器將會啟動,并根據(jù)客戶選定的配置參數(shù),自動地加載用戶上載的模型,以模型實(shí)例的方式管理起來,并對外提供推理服務(wù)請求的接口。

Triton 支持絕大部分主流深度學(xué)習(xí)框架的推理,包括 TensorRT, TensorFlow, PyTorch, ONNX Runtime 等。除此之外,Triton 還支持?jǐn)U展自定義的推理框架 Backend。TNN 是騰訊自研的開源高性能、輕量級神經(jīng)網(wǎng)絡(luò)推理框架,被廣泛應(yīng)用于騰訊云行業(yè)解決方案的推理場景中。騰訊云遵循 Triton Backend API [2],實(shí)現(xiàn)了 Triton TNN Backend,使得 TNN 模型能夠直接被 Triton 推理服務(wù)器加載、管理以及執(zhí)行推理。

ac1138d6-2ac9-11ed-ba43-dac502259ad0.jpg

圖1. 加入 TNN Backend 的 Triton 推理服務(wù)器架構(gòu)示意圖

為了提升推理服務(wù)的性能、提升硬件資源利用率,騰訊云 TI-ONE 利用了 Triton 提供的 Dynamic Batching 功能。在部署推理服務(wù)時(shí),用戶可選擇開啟該功能,Triton 則會自動地將到達(dá)服務(wù)端的零散推理請求(通常 batch size 較?。┚酆铣纱蟮?batch,輸入對應(yīng)的模型實(shí)例中進(jìn)行推理。如此,GPU 在執(zhí)行更大 batch size 的推理時(shí)能達(dá)到更高的利用率,從而提升服務(wù)的吞吐。且用戶可在 TI-ONE 平臺中設(shè)置將多個(gè)請求組合成 batch 的等待時(shí)長,以便在延時(shí)和吞吐之間權(quán)衡。不僅如此,TI-ONE 還利用 Triton 的 Concurrent Model Execution 功能,在每張 NVIDIA GPU 上同時(shí)部署相同或不同模型的多個(gè)模型實(shí)例,使得在單個(gè)模型較為輕量的情況下,通過多個(gè)模型實(shí)例的并行執(zhí)行來充分利用 GPU 的計(jì)算資源,在提升 GPU 利用率的同時(shí)獲得更高的吞吐。

ac260770-2ac9-11ed-ba43-dac502259ad0.jpg

圖2. Triton Dynamic Batching 機(jī)制示意圖

最后,針對需要部署由多個(gè)模塊組合的 AI 工作管線的應(yīng)用場景,TI-ONE 正與 NVIDIA 一起積極探索如何利用 Triton Ensemble Model 以及 Triton Python Backend,將前后處理模塊與 AI 模型有序地串聯(lián)在一起。其中,Triton Python Backend 能夠直接將現(xiàn)有的 Python 前后處理代碼封裝為可在 Triton 上部署的模塊;Triton Ensemble Model 是一種特殊的調(diào)度器,可通過配置文件定義多個(gè)模塊之間的連接關(guān)系,并自動地將推理請求在定義好的工作管線上進(jìn)行有條不紊的調(diào)度。

目前,騰訊云 TI 平臺 TI-ONE 利用 NVIDIA Triton 已為多種不同的行業(yè)解決方案提供了高性能的推理服務(wù),包括工業(yè)質(zhì)檢、自動駕駛等業(yè)務(wù)場景,涉及到的圖像分類、對象檢測、以及實(shí)例分割等 AI 任務(wù)。

通過 Triton 提供的多框架支持以及擴(kuò)展的 TNN Backend,無論用戶使用何種框架訓(xùn)練 AI 模型,都能在 TI-ONE 上部署其推理服務(wù),給了算法工程師更大的選擇自由度,節(jié)省了模型轉(zhuǎn)換的開銷。利用 Triton 的 Dynamic Batching 機(jī)制和 Concurrent Model Execution 功能, TI-ONE 在某一目標(biāo)檢測場景部署 FasterRCNN ResNet50-FPN 模型,相比于使用 Tornado 部署框架在 NVIDIA T4 Tensor Core GPU 上最高可獲得 31.6% 的吞吐提升,如下圖所示:

ac46fdf4-2ac9-11ed-ba43-dac502259ad0.jpg

圖 3. TI-ONE 中不同推理服務(wù)框架部署目標(biāo)檢測模型時(shí)所實(shí)現(xiàn)的服務(wù)吞吐量對比

2022 騰訊云

此圖片依據(jù)由騰訊云提供數(shù)據(jù)所制作

在另一圖像分類業(yè)務(wù)中,TI-ONE 利用 Triton 的 Dynamic Batching 機(jī)制部署包含前后處理及模型推理的工作管線,結(jié)合 TNN 對推理的加速,在 1/2 T4 Tensor Core GPU 上,相比于 Python 實(shí)現(xiàn)的 HTTP Server 獲得最高 2.6 倍延時(shí)縮減及最高 2.5 倍吞吐的提升,如下表所示:

ac643e14-2ac9-11ed-ba43-dac502259ad0.png

表 1. TI-ONE 中不同推理服務(wù)框架部署圖像分類模型時(shí)所實(shí)現(xiàn)的服務(wù)性能對比

2022 騰訊云

此表格依據(jù)由騰訊云提供數(shù)據(jù)所制作

未來,騰訊云 TI 平臺將與 NVIDIA 團(tuán)隊(duì)繼續(xù)合作,探索利用 Triton 對復(fù)雜工作管線進(jìn)行推理服務(wù)部署的解決方案,進(jìn)一步為各個(gè)行業(yè)的 AI 推理場景提供更高效率、更低成本的推理平臺。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5582

    瀏覽量

    109628
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    14

    文章

    10230

    瀏覽量

    91416
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39531

    瀏覽量

    301053
  • 騰訊云
    +關(guān)注

    關(guān)注

    0

    文章

    224

    瀏覽量

    17440

原文標(biāo)題:NVIDIA Triton 助力騰訊云 TI-ONE 平臺為行業(yè)解決方案提供高性能 AI 推理部署服務(wù)

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    普通服務(wù)器電源與AI服務(wù)器電源的區(qū)別(上)

    引言服務(wù)器是數(shù)據(jù)中心的核心設(shè)備,其穩(wěn)定運(yùn)行依賴可靠的電源供應(yīng)。隨著AI技術(shù)的飛速發(fā)展,AI服務(wù)器大量涌現(xiàn),與普通服務(wù)器在應(yīng)
    的頭像 發(fā)表于 01-12 09:31 ?963次閱讀
    普通<b class='flag-5'>服務(wù)器</b>電源與<b class='flag-5'>AI</b><b class='flag-5'>服務(wù)器</b>電源的區(qū)別(上)

    對話|AI服務(wù)器電源對磁性元件提出的新需求

    編者按: 自ChatGPT、DeepSeek等大型AI模型應(yīng)用爆發(fā)以來,市場對AI服務(wù)器需求激增,其配套電源的發(fā)展前景已成為行業(yè)共識。目前,I服務(wù)
    的頭像 發(fā)表于 10-11 14:55 ?957次閱讀
    對話|<b class='flag-5'>AI</b><b class='flag-5'>服務(wù)器</b>電源對磁性元件提出的新<b class='flag-5'>需求</b>

    輕量服務(wù)器服務(wù)器區(qū)別:2025年終極選擇指南

    資源、穩(wěn)定計(jì)算性能及完整管理權(quán)限,支持垂直與水平擴(kuò)展,適合企業(yè)級應(yīng)用和高并發(fā)場景。選擇取決于業(yè)務(wù)需求:輕量服務(wù)器適用于成本敏感型場景,標(biāo)準(zhǔn)
    的頭像 發(fā)表于 09-01 13:58 ?1194次閱讀
    輕量<b class='flag-5'>云</b><b class='flag-5'>服務(wù)器</b>和<b class='flag-5'>云</b><b class='flag-5'>服務(wù)器</b>區(qū)別:2025年終極選擇指南

    恒訊科技分析:儲存服務(wù)器搭建教程

    搭建存儲服務(wù)器是一個(gè)相對復(fù)雜但極具實(shí)用性的項(xiàng)目,以下是一個(gè)簡化的搭建教程,幫助你快速入門。 一、明確需求 在搭建存儲服務(wù)器之前,首先需要
    的頭像 發(fā)表于 07-07 11:07 ?1284次閱讀

    NVIDIA計(jì)劃打造全球首個(gè)工業(yè)AI平臺

    NVIDIA 宣布,其正在為歐洲制造商構(gòu)建全球首個(gè)工業(yè) AI 。這家總部位于德國的 AI 工廠將配備 1 萬個(gè) GPU,包括通過 NVIDIA
    的頭像 發(fā)表于 06-16 14:17 ?1407次閱讀

    使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實(shí)踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Love
    的頭像 發(fā)表于 06-12 15:37 ?1809次閱讀
    使用<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Triton</b>和TensorRT-LLM部署TTS應(yīng)用的最佳實(shí)踐

    存儲服務(wù)器租用的好處有哪些?

    隨著企業(yè)數(shù)字化轉(zhuǎn)型加速,存儲服務(wù)器租用成為越來越多企業(yè)的首選方案。存儲服務(wù)器租用的好處在于彈性靈活、成本可控、安全可靠,同時(shí)避免了傳統(tǒng)服務(wù)器
    的頭像 發(fā)表于 05-16 11:03 ?781次閱讀

    基于RAKsmart服務(wù)器AI大模型實(shí)時(shí)推理方案設(shè)計(jì)

    面對高并發(fā)請求、嚴(yán)格的響應(yīng)延遲要求及波動的業(yè)務(wù)負(fù)載,傳統(tǒng)本地化部署的算力瓶頸愈發(fā)顯著。RAKsmart服務(wù)器憑借其彈性計(jì)算資源池、分布式網(wǎng)絡(luò)架構(gòu)與全棧AI加速能力,為AI大模型實(shí)時(shí)
    的頭像 發(fā)表于 05-13 10:33 ?594次閱讀

    如何選擇 邊緣計(jì)算服務(wù)器

    延遲≤50ms; 視頻分析、AI推理需求側(cè)重?算力密度?,建議選擇支持16TOPS以上算力且兼容TensorFlow/PyTorch框架的服務(wù)器(如RK3588芯片
    的頭像 發(fā)表于 05-06 07:58 ?718次閱讀
    如何選擇 邊緣計(jì)算<b class='flag-5'>服務(wù)器</b>

    企業(yè)使用NVIDIA NeMo微服務(wù)構(gòu)建AI智能體平臺

    已發(fā)布的 NeMo 微服務(wù)可與合作伙伴平臺集成,作為創(chuàng)建 AI 智能體的構(gòu)建模塊,使用商業(yè)智能與強(qiáng)大的邏輯推理模型 (包括 NVIDIA L
    的頭像 發(fā)表于 04-27 15:05 ?1267次閱讀

    AI 推理服務(wù)器都有什么?2025年服務(wù)器品牌排行TOP10與選購技巧

    根據(jù)行業(yè)數(shù)據(jù),AI推理服務(wù)器的性能差異可以達(dá)到10倍以上。比如,用普通服務(wù)器跑一個(gè)700億參數(shù)的大模型,可能需要30秒才能出結(jié)果,而用頂級服務(wù)器
    的頭像 發(fā)表于 04-09 11:06 ?8445次閱讀
    <b class='flag-5'>AI</b> <b class='flag-5'>推理</b><b class='flag-5'>服務(wù)器</b>都有什么?2025年<b class='flag-5'>服務(wù)器</b>品牌排行TOP10與選購技巧

    國產(chǎn)推理服務(wù)器如何選擇?深度解析選型指南與華頡科技實(shí)戰(zhàn)案例

    人工智能技術(shù)的爆發(fā)催生了對推理算力的迫切需求,而進(jìn)口服務(wù)器的高成本與技術(shù)依賴性,推動了國產(chǎn)推理服務(wù)器的快速發(fā)展。據(jù)IDC預(yù)測,到2025年,
    的頭像 發(fā)表于 03-24 17:11 ?1216次閱讀
    國產(chǎn)<b class='flag-5'>推理</b><b class='flag-5'>服務(wù)器</b>如何選擇?深度解析選型指南與華頡科技實(shí)戰(zhàn)案例

    英偉達(dá)GTC25亮點(diǎn):NVIDIA Dynamo開源庫加速并擴(kuò)展AI推理模型

    Triton 推理服務(wù)器的后續(xù)產(chǎn)品,NVIDIA Dynamo 是一款全新的 AI 推理
    的頭像 發(fā)表于 03-20 15:03 ?1216次閱讀

    Oracle 與 NVIDIA 合作助力企業(yè)加速代理式 AI 推理

    ——Oracle 和 NVIDIA 今日宣布,NVIDIA 加速計(jì)算和推理軟件與 Oracle 的 AI 基礎(chǔ)設(shè)施以及生成式 AI
    發(fā)表于 03-19 15:24 ?569次閱讀
    Oracle 與 <b class='flag-5'>NVIDIA</b> 合作助力企業(yè)加速代理式 <b class='flag-5'>AI</b> <b class='flag-5'>推理</b>

    AI服務(wù)平臺可以干什么

    當(dāng)今,AI服務(wù)平臺,作為連接技術(shù)與應(yīng)用的橋梁,正以其廣泛的功能覆蓋和深度應(yīng)用場景,逐步滲透到社會經(jīng)濟(jì)的各個(gè)角落。下面,
    的頭像 發(fā)表于 02-27 10:11 ?1322次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>云</b><b class='flag-5'>服務(wù)</b><b class='flag-5'>平臺</b>可以干什么