chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA NIM助力企業(yè)高效部署生成式AI模型

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 2024-10-10 09:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Canonical、Nutanix 和 Red Hat 等廠商的開源 Kubernetes 平臺(tái)集成了 NVIDIA NIM,將允許用戶通過 API 調(diào)用來(lái)大規(guī)模地部署大語(yǔ)言模型。

在企業(yè)中部署生成式 AI 將變得空前簡(jiǎn)單。

NVIDIA NIM是一套生成式 AI 推理微服務(wù),將支持 KServe 開源軟件,可以自動(dòng)將 AI 模型以云計(jì)算應(yīng)用的規(guī)模運(yùn)行。

NVIDIA NIM 與 KServe 的組合確保了生成式 AI 可以像任何其他大型企業(yè)級(jí)應(yīng)用一樣進(jìn)行部署,還讓用戶能夠通過 Canonical、Nutanix 和 Red Hat 等數(shù)十家公司的平臺(tái)廣泛使用 NIM。

NIM 在 KServe 上的集成將使 NVIDIA 的技術(shù)擴(kuò)展到開源社區(qū)、生態(tài)系統(tǒng)合作伙伴和客戶。借助 NIM,他們可以通過 API 調(diào)用(即現(xiàn)代編程的一鍵式操作)來(lái)獲得NVIDIA AI Enterprise軟件平臺(tái)的性能、支持和安全性。

在 Kubernetes 上提供 AI

KServe 最初是基于 Kubernetes 的機(jī)器學(xué)習(xí)工具包 Kubeflow 的一部分。Kubernete 是一個(gè)開源系統(tǒng),用于部署和管理包含大型分布式應(yīng)用組件的軟件容器。

隨著 Kubeflow 在 AI 推理方面的不斷擴(kuò)展,KServe 誕生了,并最終演變成為獨(dú)立的開源項(xiàng)目。

許多公司都為 KServe 軟件做出了貢獻(xiàn)并采用了該軟件。目前,運(yùn)行 KServe 軟件的公司包括亞馬遜云科技、彭博、Canonical、思科、慧與、IBM、Red Hat、Zillow 和 NVIDIA 等。

深入解析 KServe

KServe 本質(zhì)上是 Kubernetes 的擴(kuò)展,它像一個(gè)強(qiáng)大的云應(yīng)用一樣運(yùn)行 AI 推理。它使用標(biāo)準(zhǔn)協(xié)議,以經(jīng)過優(yōu)化的性能運(yùn)行,并支持 PyTorch、Scikit-learn、TensorFlow 和 XGBoost,而用戶無(wú)需了解這些 AI 框架的細(xì)節(jié)。

在新的大語(yǔ)言模型(LLM)層出不窮的情況下,該軟件尤其有用。

KServe 讓用戶可以輕松地在模型之間來(lái)回切換,測(cè)試哪一個(gè)最符合他們的需求。當(dāng)模型的新版本發(fā)布時(shí),KServe 的 “金絲雀發(fā)布(canary rollouts)” 功能會(huì)自動(dòng)執(zhí)行詳細(xì)驗(yàn)證,并逐步將其部署到生產(chǎn)系統(tǒng)中。

其另一項(xiàng)功能 “GPU 自動(dòng)縮放” 可以隨著服務(wù)需求的起伏來(lái)高效地管理模型的部署方式,從而使客戶和服務(wù)提供商獲得最佳體驗(yàn)。

生成式 AI 的 API 調(diào)用

KServe 的優(yōu)勢(shì)現(xiàn)在將通過 NVIDIA NIM 的便捷性提供。

使用 NIM ,只需一個(gè)簡(jiǎn)單的 API 調(diào)用即可應(yīng)對(duì)所有的復(fù)雜性。企業(yè) IT 管理員能夠獲得確保應(yīng)用以最佳性能和效率運(yùn)行所需的指標(biāo),無(wú)論應(yīng)用是在他們的數(shù)據(jù)中心還是在遠(yuǎn)程云服務(wù)上,即使是在更改了 AI 模型的情況下。

NIM 讓 IT 專家成為生成式 AI 專家,變革了公司的運(yùn)營(yíng)。這就是為什么 Foxconn 和 ServiceNow 等眾多企業(yè)都正在部署 NIM 微服務(wù)的原因。

NIM 支持?jǐn)?shù)十個(gè) Kubernetes 平臺(tái)

由于 NIM 與 KServe 的集成,用戶將能夠在數(shù)十個(gè)企業(yè)平臺(tái)上訪問 NIM,比如 Canonical 的 Charmed KubeFlow 和 Charmed Kubernetes、Nutanix GPT-in-a-Box 2.0、Red Hat 的 OpenShift AI 等等。

KServe 貢獻(xiàn)者、Red Hat 首席軟件工程師 Yuan Tang 表示:“Red Hat 一直在與 NVIDIA 合作,以便讓企業(yè)更輕松地使用開源技術(shù)來(lái)部署 AI。通過增強(qiáng) KServe 并在 Red Hat OpenShift AI 中增加對(duì) NIM 的支持,我們能夠讓 Red Hat 的客戶更方便地訪問 NVIDIA 的生成式 AI 平臺(tái)?!?/p>

“通過將 NVIDIA NIM 推理微服務(wù)與 Nutanix GPT-in-a-Box 2.0 集成,客戶將能夠從云端到邊緣以一致的方式去構(gòu)建可擴(kuò)展、安全、高性能的生成式 AI 應(yīng)用?!?Nutanix 工程副總裁 Debojyoti Dutta 表示,其團(tuán)隊(duì)為 KServe 和 Kubeflow 做出了貢獻(xiàn)。

Canonical 的 MLOps 產(chǎn)品經(jīng)理 Andreea Munteanu 表示:“作為一家對(duì) KServe 做出重大貢獻(xiàn)的公司,我們很高興通過 Charmed Kubernetes 和 Charmed Kubeflow 提供 NIM。在我們的共同努力下,用戶將能夠輕松地使用生成式 AI 的全部功能,并使其保持最高的性能和效率?!?/p>

數(shù)十家其他軟件提供商都能感受到 NIM 的好處,因?yàn)樗麄兊漠a(chǎn)品中也包含了 KServe。

服務(wù)開源社區(qū)

NVIDIA 一直積極地參與 KServe 項(xiàng)目。正如最近的一篇技術(shù)博客中所提到的,KServe 的開放推理協(xié)議已經(jīng)被用于NVIDIA Triton 推理服務(wù)器,可以幫助用戶跨多個(gè) GPU、框架和操作模式同時(shí)運(yùn)行許多 AI 模型。

基于 KServe,NVIDIA 專注于在多個(gè) GPU 上一次運(yùn)行一個(gè) AI 模型的用例。

作為 NIM 集成的一部分,NVIDIA 計(jì)劃在其開源軟件(包括 Triton 和TensorRT-LLM)的基礎(chǔ)上,成為 KServe 的積極貢獻(xiàn)者。NVIDIA 還是云原生計(jì)算基金會(huì)(CNCF)的活躍成員,該基金會(huì)支持生成式 AI 和其他項(xiàng)目的開源代碼。

立即通過 NVIDIA API 目錄試用 Llama 3 8B 或 Llama 3 70B 大語(yǔ)言模型的 NIM API。全球數(shù)百家 NVIDIA 合作伙伴也正在使用 NIM 來(lái)部署生成式 AI。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5682

    瀏覽量

    110087
  • 數(shù)據(jù)中心
    +關(guān)注

    關(guān)注

    18

    文章

    5751

    瀏覽量

    75192
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    40908

    瀏覽量

    302489

原文標(biāo)題:COMPUTEX 2024 | KServe 提供商在云和數(shù)據(jù)中心提供由 NIM 賦能的推理

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI模型微調(diào)企業(yè)項(xiàng)目實(shí)戰(zhàn)課

    自主可控大模型企業(yè)微調(diào)實(shí)戰(zhàn)課,筑牢未來(lái) AI 底座 在人工智能席卷全球商業(yè)版圖的今天,企業(yè)對(duì)大模型(LLM)的態(tài)度已經(jīng)從“新奇觀望”轉(zhuǎn)變
    發(fā)表于 04-16 18:48

    嵌入AI開發(fā)必看:杜絕幻覺,才是工業(yè)級(jí)IDE的核心底氣

    ”與“工業(yè)安全”的對(duì)立,為嵌入開發(fā)提供“高效+可靠”的全新路徑,推動(dòng)AI技術(shù)從實(shí)驗(yàn)室走向工業(yè)產(chǎn)線,加速企業(yè)數(shù)字化轉(zhuǎn)型與智能化升級(jí)。 ▌降低技術(shù)門檻與適配成本:依托圖形化低代碼開發(fā)與一
    發(fā)表于 03-18 13:49

    NVIDIA Jetson模型賦能AI在邊緣端落地

    開源生成 AI 模型不再局限于數(shù)據(jù)中心,而是開始深入到現(xiàn)實(shí)世界的各種機(jī)器中。從 Orin 到 Thor,NVIDIA Jetson 系列正
    的頭像 發(fā)表于 03-16 16:27 ?574次閱讀
    <b class='flag-5'>NVIDIA</b> Jetson<b class='flag-5'>模型</b>賦能<b class='flag-5'>AI</b>在邊緣端落地

    技嘉與趨境科技聯(lián)合部署AMaaS平臺(tái) 推動(dòng)本地大模型應(yīng)用加速落地

    生成AI加速走向?qū)嶋H應(yīng)用的當(dāng)下,大模型部署正從“可體驗(yàn)”邁向“可落地、可管理、可應(yīng)用”。作為技嘉面向本地
    的頭像 發(fā)表于 03-12 15:11 ?182次閱讀
    技嘉與趨境科技聯(lián)合<b class='flag-5'>部署</b>AMaaS平臺(tái) 推動(dòng)本地大<b class='flag-5'>模型</b>應(yīng)用加速落地

    AI基礎(chǔ)設(shè)施中部署大語(yǔ)言模型的三大舉措

    文:Gartner研究副總裁周玲中國(guó)企業(yè)機(jī)構(gòu)已逐步在生產(chǎn)環(huán)境中運(yùn)行或者計(jì)劃運(yùn)行大語(yǔ)言模型,但在AI基礎(chǔ)設(shè)施的生產(chǎn)部署高效運(yùn)營(yíng)方面仍面臨諸多
    的頭像 發(fā)表于 02-09 16:28 ?526次閱讀
    在<b class='flag-5'>AI</b>基礎(chǔ)設(shè)施中<b class='flag-5'>部署</b>大語(yǔ)言<b class='flag-5'>模型</b>的三大舉措

    行業(yè)特定的生成 AI 能力如何形成:面向中國(guó)企業(yè)的場(chǎng)景化解決方案模型

    隨著生成 AI 在國(guó)內(nèi)加速落地,越來(lái)越多企業(yè)意識(shí)到:?jiǎn)慰客ㄓ么?b class='flag-5'>模型,并不能覆蓋行業(yè)中的復(fù)雜流程與專業(yè)需求。金融、制造、能源、零售、醫(yī)療等行
    的頭像 發(fā)表于 12-02 09:33 ?549次閱讀

    利用NVIDIA Cosmos開放世界基礎(chǔ)模型加速物理AI開發(fā)

    NVIDIA 最近發(fā)布了 NVIDIA Cosmos 開放世界基礎(chǔ)模型(WFM)的更新,旨在加速物理 AI 模型的測(cè)試與驗(yàn)證數(shù)據(jù)
    的頭像 發(fā)表于 12-01 09:25 ?1373次閱讀

    新唐科技推出高效AI MCU部署工具NuML Toolkit

    隨著 AI 技術(shù)加速導(dǎo)入各類嵌入系統(tǒng),如何將訓(xùn)練完成的 AI 模型順利部署至資源有限的微控制器成為工程師面對(duì)的重大挑戰(zhàn)。為協(xié)助開發(fā)者快速落
    的頭像 發(fā)表于 08-01 17:21 ?2456次閱讀

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    近日,NVIDIA 開源其物理 AI 平臺(tái) NVIDIA Cosmos 中的關(guān)鍵模型——NVIDIA Cosmos Reason-1-7B。
    的頭像 發(fā)表于 07-09 10:17 ?991次閱讀

    谷歌新一代生成AI媒體模型登陸Vertex AI平臺(tái)

    我們?cè)?Vertex AI 上推出新一代生成 AI 媒體模型: Imagen 4、Veo 3 和 Lyria 2。
    的頭像 發(fā)表于 06-18 09:56 ?1277次閱讀

    NVIDIA技術(shù)助力企業(yè)創(chuàng)建主權(quán)AI智能體

    AI Factory 的經(jīng)驗(yàn)證設(shè)計(jì)將加速基礎(chǔ)設(shè)施與軟件(包括全新 NVIDIA NIM 微服務(wù)和經(jīng)擴(kuò)展的 NVIDIA Blueprint)相結(jié)合,為各國(guó)和
    的頭像 發(fā)表于 06-16 14:28 ?1505次閱讀

    使用NVIDIA Earth-2生成AI基礎(chǔ)模型革新氣候建模

    NVIDIA 正通過 cBottle(Climate in a Bottle 的簡(jiǎn)稱)為這項(xiàng)工作帶來(lái)新的突破,這是全球首個(gè)專為以公里尺度分辨率模擬全球氣候而設(shè)計(jì)的生成 AI 基礎(chǔ)
    的頭像 發(fā)表于 06-12 15:54 ?1446次閱讀

    Dify攜手亞馬遜云科技加速全球企業(yè)生成AI應(yīng)用規(guī)?;涞?/a>

    簡(jiǎn)單易用的AI應(yīng)用開發(fā)平臺(tái)Dify通過深度集成亞馬遜云科技的生成AI技術(shù)與云服務(wù),在保障性能、合規(guī)與全球交付的基礎(chǔ)上,顯著降低企業(yè)
    的頭像 發(fā)表于 06-07 16:00 ?992次閱讀

    企業(yè)部署AI模型怎么做

    當(dāng)下,AI模型已成為驅(qū)動(dòng)決策自動(dòng)化、服務(wù)智能化與產(chǎn)品創(chuàng)新的核心引擎。然而,企業(yè)面對(duì)動(dòng)輒數(shù)百億參數(shù)的大模型部署時(shí),常陷入算力不足、響應(yīng)延遲高
    的頭像 發(fā)表于 06-04 09:26 ?996次閱讀

    NVIDIA助力安利生成AI在效能和安全上破局

    依托 NVIDIA AI Enterprise 企業(yè)級(jí)解決方案,安利正在構(gòu)建安全、高效、可擴(kuò)展的 AI 基礎(chǔ)設(shè)施體系,全面提升算力資源調(diào)度能
    的頭像 發(fā)表于 05-10 09:28 ?1458次閱讀