chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用NVIDIA Clara Holoscan加速多器官渲染

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-15 14:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

NVIDIA Clara Holoscan 是醫(yī)療設(shè)備的人工智能計(jì)算平臺,它結(jié)合了用于低延遲傳感器和網(wǎng)絡(luò)連接的硬件系統(tǒng)、用于數(shù)據(jù)處理和人工智能的優(yōu)化庫,以及用于運(yùn)行從嵌入式到邊緣到云的流媒體、成像和其他應(yīng)用程序的核心微服務(wù)。

pYYBAGJZEfiAeukLAACTwj2IIK0883.png

圖 1 NVIDIA Clara 全息掃描

NVIDIA Clara Holoscan 將智能儀器與數(shù)據(jù)中心無縫連接,支持軟件定義醫(yī)療設(shè)備的信號處理、 AI 推理和可視化工作流。用例涵蓋放射學(xué)、微創(chuàng)手術(shù)、機(jī)器人手術(shù)、患者監(jiān)控等領(lǐng)域。它是一個(gè)完全加速的框架,用于開發(fā)實(shí)時(shí)多模式應(yīng)用程序,使用優(yōu)化的微服務(wù)容器、無代碼設(shè)計(jì)工具和示例應(yīng)用程序。

NVIDIA Clara Holoscan 是一種可擴(kuò)展的體系結(jié)構(gòu),在數(shù)據(jù)中心或云中從嵌入式設(shè)備和NVIDIA-Certified edge servers擴(kuò)展到NVIDIA DGX systems。該平臺使您能夠根據(jù)需要在醫(yī)療設(shè)備中添加盡可能多或盡可能少的計(jì)算和輸入/輸出功能,并與延遲、成本、空間、電源和帶寬的需求相平衡。

放射治療

NVIDIA Clara 全息掃描的一個(gè)重要應(yīng)用案例是放射治療,在放射治療中,需要進(jìn)行圖像處理來分割被治療的器官和腫瘤。此外,單獨(dú)分割相鄰器官有助于識別腫瘤及其體積。它還使醫(yī)生能夠創(chuàng)建一個(gè)詳細(xì)和準(zhǔn)確的 3D 地圖,可以繪制出輻射束通過其他器官的最佳軌跡,并且影響最小。

通過 3D 模型,放射治療系統(tǒng)甚至可以實(shí)時(shí)調(diào)整患者解剖結(jié)構(gòu)的變化。手動進(jìn)行多器官分割非常耗時(shí),但使用人工智能可以大大加快分割速度。圖 2 顯示了使用 NVIDIA Clara Holoscan 的 3D 多器官分割應(yīng)用程序的部署架構(gòu)。

poYBAGJZEiWAcobDAAGMNyVpB8U825.png

圖 2 NVIDIA Clara Holoscan 三維多器官分割部署架構(gòu)

以下部分介紹如何基于UNETR構(gòu)建和部署一個(gè)基于 transformer 的三維分割模型的三維多器官分割應(yīng)用程序。

MONAI 部署 UNETR 應(yīng)用程序

UNEt transformer ( UNETR )模型體系結(jié)構(gòu)的新穎之處在于基于 transformer 的編碼器可以學(xué)習(xí)輸入體積的序列表示,并有效地捕獲全局多尺度信息。 transformer 編碼器通過不同分辨率的跳過連接直接連接到解碼器,以計(jì)算最終的語義分段輸出。

在Multi-Atlas Labeling Beyond the Cranial Vault (BTCV) dataset上測試了 UNETR 模型的有效性,該模型由 30 名受試者組成,受試者進(jìn)行腹部計(jì)算機(jī)斷層掃描( CT ),其中 13 個(gè)器官在范德比爾特大學(xué)醫(yī)學(xué)中心臨床放射科醫(yī)生的監(jiān)督下由譯員注釋。將多器官分割問題描述為一個(gè)單通道輸入的 13 類分割任務(wù)。

我們使用 MONAI Deploy App SDK 在NVIDIA Clara AGX developer kit上構(gòu)建和部署 UNETR 模型,該模型結(jié)合了高效的 Jetson AGX Xavier 嵌入式 Arm SoC 、強(qiáng)大的 NVIDIA RTX 6000 GPU 和 ConnectX-6 SmartNIC 的 100 GbE 連接。

開發(fā)者工具包提供了一個(gè)易于使用的平臺,用于開發(fā)軟件定義、支持人工智能的實(shí)時(shí)醫(yī)療設(shè)備。 MONAI Deploy App SDK 提供了一個(gè)框架和相關(guān)工具,用于設(shè)計(jì)、驗(yàn)證和分析用于醫(yī)療保健應(yīng)用程序的 AI 推理管道的性能。

以下重點(diǎn)介紹了構(gòu)建和部署 UNETR 應(yīng)用程序的步驟:

設(shè)置您的環(huán)境并安裝MONAI Deploy App SDK package。

創(chuàng)建UNETR model specific segmentation operator。

通過添加 MONAI App Deploy SDK DICOM 域特定運(yùn)算符創(chuàng)建應(yīng)用程序類,并將其與 UNETR 運(yùn)算符連接。

Package the UNETR app

為了可視化 MONAI 部署應(yīng)用程序的分割輸出,我們使用英偉達(dá) Clara 渲染服務(wù)器應(yīng)用程序容器,可以從 NGC 下載。

渲染服務(wù)由三個(gè)容器組成:渲染服務(wù)器、數(shù)據(jù)集服務(wù)和儀表板。

渲染服務(wù)器容器

渲染服務(wù)器容器處理數(shù)據(jù)集的實(shí)時(shí)流和渲染。

使用以下命令拉動渲染服務(wù)器容器:

docker pull nvcr.io/nvidia/clara/renderserver_ng:0.8.1-2108.1

使用以下命令運(yùn)行渲染服務(wù)器容器:

nvidia-docker run -it --rm -d \--name renderserver \--network claranet \-p 2050:2050 \-v `pwd`/input:/app/datasets \nvcr.io/nvidia/clara-renderserver:linux-x86-0.8.1

數(shù)據(jù)集服務(wù)容器

數(shù)據(jù)集服務(wù)容器處理數(shù)據(jù)集。它目前只支持 MHD 、 RAW 、 JSON 和元文件。

使用以下命令拉入數(shù)據(jù)集服務(wù)容器:

docker pull nvcr.io/nvidia/clara/clara-datasetservice:0.8.1-2108.1

每個(gè)數(shù)據(jù)集所需的文件位于文件夾/datasets下,由 UNETR 應(yīng)用程序生成。以下是生成的文件列表:

config.meta config_render.json img0066.nii.gz img0066.output.mhd img0066.output.raw
  • config . meta– 定義數(shù)據(jù)集應(yīng)使用的基本信息和配置。
  • config _ render . json– 定義加載時(shí)數(shù)據(jù)集與渲染服務(wù)器一起使用的默認(rèn)渲染設(shè)置(燈光、攝影機(jī)、傳遞函數(shù)等)。
  • img0066 . gz– 從 DICOM 轉(zhuǎn)換的原始圖像。
  • img0066 . output . mhd-MHD 格式的遮罩圖像。這個(gè)未經(jīng)加工的文件包含實(shí)際像素。

使用以下命令啟動數(shù)據(jù)集服務(wù)容器:

export ARGS_SERVICE_RSDS_PORT=50055 # Port number of Dataset Service

export ARGS_SERVICE_RSNG_IP=xxx.xxx.xxx.xxx # IP address of Render Service

export ARGS_SERVICE_RSNG_PORT=2050 # Port number of Render Service

export ARGS_SERVICE_RSUI_IP=xxx.xxx.xxx.xxx # IP address of Dashboard

export ARGS_SERVICE_RSUI_PORT=8080 # Port number of Dashboard

docker run -it --rm -d \-v `pwd`:/app/datasets \-p ${ARGS_SERVICE_RSDS_PORT:-50055}:50055 \-e SERVICE_RSNG_IP=${ARGS_SERVICE_RSNG_IP:-renderserver} \-e SERVICE_RSNG_PORT=${ARGS_SERVICE_RSNG_PORT:-2050} \-e SERVICE_RSUI_IP=${ARGS_SERVICE_RSUI_IP:-dashboard} \-e SERVICE_RSUI_PORT=${ARGS_SERVICE_RSUI_PORT:-8080} \--name clara-datasetservice \nvcr.io/clara/clara-datasetservice:0.8.1
_RSNG_IP=xxx.xxx.xxx.xxx # IP address of Render Service

儀表板容器

儀表板容器是一個(gè) web 應(yīng)用程序和 API 服務(wù)器。這些組件是用 JavaScript 編寫的,使用 React 和 Node 。 js ,并支持用 Angular 編寫的遺留 WebUI 的向后兼容性。

使用以下命令拉動儀表板容器:

docker pull nvcr.io/nvidia/clara/clara-dashboard:0.8.1-2108.1

使用以下命令啟動儀表板容器:

 docker run -it --rm -d
-p ${ARGS_SERVICE_RSUI_PORT:-8080}:8080
-e SERVICE_RSDS_IP=${ARGS_SERVICE_RSDS_IP:-datasetservice}
-e SERVICE_RSDS_PORT=${ARGS_SERVICE_RSDS_PORT:-50055}
-e SERVICE_RSNG_IP=${ARGS_SERVICE_RSNG_IP:-renderserver}
-e SERVICE_RSNG_PORT=${ARGS_SERVICE_RSNG_PORT:-2050}
-e NODE_ENV=${ARGS_NODE_ENV:-standalone}
--name clara-dashboard
nvcr.io/clara/clara-dashboard:

要啟動實(shí)時(shí)交互流,請從 Render Service 應(yīng)用程序菜單中的 dataset 列表中選擇一項(xiàng)

要上載渲染設(shè)置中的更改,請選擇數(shù)據(jù)集名稱旁邊的更新圖標(biāo)。首次加載數(shù)據(jù)集時(shí),該圖標(biāo)處于非活動狀態(tài),但在對渲染設(shè)置進(jìn)行任何后續(xù)更改(例如,更改視圖位置、攝影機(jī)設(shè)置或傳遞函數(shù)設(shè)置)后,該圖標(biāo)將啟用。更新時(shí),數(shù)據(jù)集渲染設(shè)置將上載到數(shù)據(jù)集服務(wù)數(shù)據(jù)庫。

向 NVIDIA Clara 渲染服務(wù)器添加語音命令

您可以使用語音命令和文本查詢與英偉達(dá) Clara 渲染服務(wù)器進(jìn)行交互。通過集成 Riva 語音服務(wù)器和零快照對話管理器服務(wù)器來實(shí)現(xiàn)這一點(diǎn),該服務(wù)器可以通過 HTTP 上的 REST API 調(diào)用為客戶端提供服務(wù)。有關(guān)更多信息,請參閱NVIDIA Riva Speech Skills。

安裝三個(gè)容器(儀表板、渲染服務(wù)器和數(shù)據(jù)集服務(wù))后,必須在啟用自動語音識別( ASR )和文本到語音( TTS )服務(wù)的情況下訪問 Riva 服務(wù)器。 Zero shot Dialog Manager 服務(wù)器應(yīng)該在邊緣服務(wù)器上運(yùn)行(圖 2 )。

您可以為實(shí)時(shí)流交互添加不同的語音命令,如“放大/縮小”和“向左/向右平移”或更復(fù)雜的語音命令,如“移除肋骨”

將 Zero-shot Dialog Manager 服務(wù)器與 NVIDIA Clara 儀表板集成

要將零炮對話管理器與 NVIDIA Clara 集成,請執(zhí)行以下步驟:

添加用戶界面字段以從用戶處獲取文本命令。

在儀表板中添加代碼,以使用用戶文本向 Zero shot Dialog Manager 服務(wù)器發(fā)送 HTTP GET 請求。 Zero shot GET 請求必須采用以下格式:http://《Zero Shot Server IP》:《PORT》/《Project Name》/process_query?query=《user entered text》

在儀表板中添加代碼以處理來自 Zero shot 服務(wù)器的響應(yīng)。

確定特定意圖(例如:“放大/縮小”)后,儀表板必須實(shí)現(xiàn)請求儀表板后端執(zhí)行相應(yīng)操作的方法。儀表板通過調(diào)用適當(dāng)?shù)?gRPC API 到達(dá)渲染服務(wù)器和數(shù)據(jù)集服務(wù)。

Riva ASR 和 TTS 服務(wù)與英偉達(dá) Clara 儀表板的集成

要通過 Riva 添加可用的 ASR 服務(wù),請執(zhí)行以下步驟:

向儀表板用戶界面添加代碼以請求麥克風(fēng)訪問。

參考 Riva ASR 示例,實(shí)現(xiàn)用戶音頻輸入到儀表板后端的流媒體功能。您可以使用Web Audio API和 Socket 。 IO 。

修改儀表板后端,以便當(dāng)您從用戶界面收到請求時(shí),對 Riva 服務(wù)器進(jìn)行適當(dāng)?shù)恼{(diào)用并返回響應(yīng)。這主要涉及導(dǎo)入 Riva proto 文件。

儀表板用戶界面從儀表板后端接收到轉(zhuǎn)錄的響應(yīng)后,將其轉(zhuǎn)發(fā)到 Zero-shot Dialog Manager 服務(wù)器,該服務(wù)器返回相應(yīng)的響應(yīng)。儀表板執(zhí)行適當(dāng)?shù)牟襟E,并使用 Zero shot Dialog manager 響應(yīng)調(diào)用 Riva TTS ,以便用戶界面獲得可作為響應(yīng)播放的音頻。

類似地,將 Riva TTS 服務(wù)與英偉達(dá) Clara 儀表板集成如下步驟:

在用戶界面中實(shí)現(xiàn)一種方式,以播放從 Riva TTS 接收到的音頻。

向儀表板用戶界面添加代碼,以將零炮響應(yīng)文本發(fā)送到儀表板后端。

將所有 gRPC 客戶端邏輯添加到儀表板后端,以便它可以連接到 Riva TTS 服務(wù)器。成功后,將語音響應(yīng)發(fā)送回儀表板用戶界面進(jìn)行播放。

圖 5 依次顯示了 NVIDIA Clara 儀表板和 Riva 以及 Zero-shot 對話框管理器之間的 API 調(diào)用。



圖 5 NVIDIA Clara 儀表板 Riva 和零炮對話框管理器之間的交互

使用 NVIDIA 艦隊(duì)命令進(jìn)行部署

NVIDIA 艦隊(duì)司令部為任何規(guī)模的企業(yè)帶來安全邊緣 AI 。通過云,您可以部署和管理 NGC 目錄或 NGC P Riva te 注冊表中的應(yīng)用程序,通過無線方式更新系統(tǒng)軟件,并通過瀏覽器和互聯(lián)網(wǎng)連接遠(yuǎn)程管理系統(tǒng)。有關(guān)更多信息,請參閱Developing Your Application for Fleet Command。

要使用英偉達(dá)命令部署 NVIDIA Clara HORSOCAN 應(yīng)用程序,可以為應(yīng)用程序創(chuàng)建一個(gè)頭盔圖。 Helm 是一個(gè)包管理器,用于在 Kubernetes 中部署容器化應(yīng)用程序,這與 Debian / RPM 用于 Linux 或 Jar / War 用于基于 Java 的應(yīng)用程序非常相似。

舵手世界中的一個(gè)包稱為圖表,特定目錄樹中的文件集合,用于描述一組相關(guān)模板。目錄名是沒有版本控制信息的圖表的名稱。當(dāng)圖表打包為檔案,這些圖表目錄被打包到一個(gè) TGZ 文件中,其文件名包含其版本,使用 SemVer2 版本控制格式。以下是 NVIDIA Clara 存檔名稱的示例格式:

clara-renderserver {semVer2}.tgz

可以使用以下命令創(chuàng)建新的舵圖:

helm create clara-renderserver

此命令創(chuàng)建 Clara -renderserver 圖表目錄以及圖表中使用的常用文件和目錄。具體來說,這是圖表目錄的樹形結(jié)構(gòu):

|-- Chart.yaml # A YAML file containing information about the chart
|-- templates # A directory of templates that, when combined with values ,will generate valid Kubernetes manifest files.
|   |-- _helpers.tpl 
|   |-- cache-volume-claim.yaml
|   |-- cache-volume.yaml
|   |-- deployment.yaml
|   |-- svc.yaml
|   |-- volume-claim.yaml
|   `-- volume.yaml
`-- values.yaml # The default configuration values for this chart
# A YAML file containing information about the chart

deployment . yaml 文件位于/ templates 目錄中,用于定義 Kubernetes 中部署對象的結(jié)構(gòu):

apiVersion: apps/v1
kind: Deployment
metadata:
  name: {{ include "clara-renderer.fullname" . }}
  labels:
{{ include "clara-renderer.labels" . | indent 4 }}
spec:
  replicas: {{ .Values.replicaCount }}
  selector:
    matchLabels:
      app.kubernetes.io/name: {{ include "clara-renderer.name" . }}
      app.kubernetes.io/instance: {{ .Release.Name }}
  template:
    metadata:
     [metadata info]
      spec:
    {{- with .Values.images.pullSecrets }}
      imagePullSecrets:
        {{- toYaml . | nindent 8 }}
    {{- end }}
      containers:
      - name: ui-{{ .Chart.Name }}
        image: "{{ .Values.images.namespace }}/{{ .Values.images.renderui }}:{{ .Values.images.tag }}"
        imagePullPolicy: {{ .Values.images.pullPolicy }}
        env:
        - name: SERVICE_RSDS_IP
          value: "0.0.0.0"
        - [more env variable assignment]
        ports:
          - name: "{{ .Values.ui.portName }}"
            containerPort: {{ .Values.ui.port }}
            hostPort: {{ .Values.ui.hostPort }}
            protocol: TCP
      - name: renderer-{{ .Chart.Name }}
        image: "{{ .Values.images.namespace }}/{{ .Values.images.renderserver }}:{{ .Values.images.tag }}"
        imagePullPolicy: {{ .Values.images.pullPolicy }}
        ports:
          - name: "{{ .Values.rsng.portName }}"
            containerPort: {{ .Values.rsng.port }}
            protocol: TCP
        env:
        - name: CUDA_CACHE_PATH
          value: "/cache/CudaCache"
        - name: OPTIX_CACHE_PATH
          value: "/cache/OptixCache"
        volumeMounts:
        [volume mount information]
      - name: dataset-service-{{ .Chart.Name }}
        image: "{{ .Values.images.namespace }}/{{ .Values.images.datasetservice }}:{{ .Values.images.tag }}"
        imagePullPolicy: {{ .Values.images.pullPolicy }}
        env:
        - name: DATASET_REPO_PATH
          value: "/datasets"
        -[dataset env variable assignment]

要驗(yàn)證舵圖,請運(yùn)行以下命令:

helm lint clara-renderserver

接下來,打包舵圖:

helm package clara-renderserver

要使用 NVIDIA Fleet 命令部署,請根據(jù)您創(chuàng)建的頭盔圖表創(chuàng)建應(yīng)用程序:

圖 6 在 Fleet 命令中添加應(yīng)用程序

下一步是為應(yīng)用程序添加部署:

圖 7 在艦隊(duì)司令部中創(chuàng)建部署

創(chuàng)建部署時(shí),應(yīng)用程序?qū)⒉渴鹪?Fleet 命令中的配對邊緣站點(diǎn)上。要更改應(yīng)用程序的配置,請使用 Helm upgrade 命令。

某些系統(tǒng)更新可能需要重新啟動。如果需要重新啟動, Fleet 命令堆棧會在系統(tǒng)運(yùn)行后自動重新啟動應(yīng)用程序。您的 NVIDIA Clara Holoscan 應(yīng)用程序應(yīng)該能夠通過系統(tǒng)更新或系統(tǒng)重新啟動進(jìn)行正?;謴?fù)和持久化。

關(guān)于作者

Cristiana Dinea 是 NVIDIA 的應(yīng)用工程師,她專注于基于 NVIDIA Clara Guardian 為智能醫(yī)院開發(fā)應(yīng)用程序。

Yaniv Lazmy 是 NVIDIA 醫(yī)療團(tuán)隊(duì)的技術(shù)產(chǎn)品經(jīng)理,專注于醫(yī)療設(shè)備的加速計(jì)算和連接解決方案。在加入 NVIDIA 之前, Yaniv 是 NeuWave Medical 和 Johnson and Johnson 的嵌入式系統(tǒng)工程師。

Raghav Mani 是 NVIDIA 醫(yī)療 AI 的產(chǎn)品經(jīng)理,專注于為醫(yī)療和生命科學(xué)領(lǐng)域的醫(yī)療成像和 NLP 研究人員以及智能醫(yī)院應(yīng)用程序的開發(fā)人員構(gòu)建工具。Ming Qin 是 NVIDIA 醫(yī)療團(tuán)隊(duì)的獨(dú)立貢獻(xiàn)者,專注于開發(fā) AI 推理應(yīng)用框架和平臺,將 AI 引入醫(yī)療成像工作流程。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5513

    瀏覽量

    109200
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    13

    文章

    10117

    瀏覽量

    91038
  • 應(yīng)用程序
    +關(guān)注

    關(guān)注

    38

    文章

    3342

    瀏覽量

    60011
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    利用NVIDIA Cosmos開放世界基礎(chǔ)模型加速物理AI開發(fā)

    NVIDIA 最近發(fā)布了 NVIDIA Cosmos 開放世界基礎(chǔ)模型(WFM)的更新,旨在加速物理 AI 模型的測試與驗(yàn)證數(shù)據(jù)生成。借助 NVIDIA Omniverse 庫和 Co
    的頭像 發(fā)表于 12-01 09:25 ?622次閱讀

    NVIDIA技術(shù)推動化學(xué)和材料科學(xué)發(fā)展

    NVIDIA Holoscan 推動實(shí)時(shí)納米成像技術(shù)取得突破性進(jìn)展,NVIDIA ALCHEMI 促進(jìn)先進(jìn)材料和冷卻技術(shù)的發(fā)現(xiàn)。
    的頭像 發(fā)表于 11-25 10:45 ?494次閱讀

    NVIDIA Clara開放模型加速科學(xué)與醫(yī)療行業(yè)變革

    Clara 為從預(yù)測蛋白質(zhì)結(jié)構(gòu)到設(shè)計(jì)可在實(shí)驗(yàn)室合成的分子的整個(gè)早期藥物發(fā)現(xiàn)流程提供支持。
    的頭像 發(fā)表于 11-06 11:42 ?675次閱讀

    NVIDIA Omniverse Extension開發(fā)秘籍

    NVIDIA Omniverse 是一個(gè)模塊化平臺,使用高級 API 和微服務(wù)來構(gòu)建由 OpenUSD 和 NVIDIA RTX 提供支持的 3D 應(yīng)用。OpenUSD 功能強(qiáng)大的 3D 框架與 NVIDIA RTX 用于視覺
    的頭像 發(fā)表于 08-22 15:52 ?3481次閱讀
    <b class='flag-5'>NVIDIA</b> Omniverse Extension開發(fā)秘籍

    NVIDIA RTX AI加速FLUX.1 Kontext現(xiàn)已開放下載

    NVIDIA RTX 與 NVIDIA TensorRT 現(xiàn)已加速 Black Forest Labs 的最新圖像生成和編輯模型;此外,Gemma 3n 現(xiàn)可借助 RTX 和 NVIDIA
    的頭像 發(fā)表于 07-16 09:16 ?1902次閱讀

    NVIDIA全棧加速代理式AI應(yīng)用落地

    在近期舉辦的 AWS 中國峰會上,NVIDIA 聚焦于“NVIDIA 全棧加速代理式 AI 應(yīng)用落地”,深入探討了代理式 AI (Agentic AI) 技術(shù)的前沿發(fā)展以及在企業(yè)級應(yīng)用中的深遠(yuǎn)影響。本文將為您詳細(xì)介紹此次分享的技
    的頭像 發(fā)表于 07-14 11:41 ?1103次閱讀

    NVIDIA Isaac Sim與NVIDIA Isaac Lab的更新

    在 COMPUTEX 2025 上,NVIDIA 宣布了機(jī)器人仿真參考應(yīng)用 NVIDIA Isaac Sim 和機(jī)器人學(xué)習(xí)框架 NVIDIA Isaac Lab 的更新,以加速各種形態(tài)
    的頭像 發(fā)表于 05-28 10:06 ?1802次閱讀

    NVIDIA Cosmos加速機(jī)器人和自動駕駛汽車物理AI發(fā)展

    NVIDIA Cosmos 通過可預(yù)測未來世界狀態(tài)的世界基礎(chǔ)模型加速物理 AI 的發(fā)展。
    的頭像 發(fā)表于 04-24 11:01 ?976次閱讀
    <b class='flag-5'>NVIDIA</b> Cosmos<b class='flag-5'>加速</b>機(jī)器人和自動駕駛汽車物理AI發(fā)展

    NVIDIA實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能

    發(fā)者能使用 NVIDIA GeForce RTX GPU 中的 AI Tensor Cores,在游戲的圖形渲染管線內(nèi)加速神經(jīng)網(wǎng)絡(luò)渲染。
    的頭像 發(fā)表于 04-07 11:33 ?924次閱讀

    2D圖形渲染緩慢怎么加快?

    我有一個(gè)圖形應(yīng)用程序,它似乎渲染屏幕的速度很慢。按下屏幕后,通常需要相當(dāng)長的時(shí)間來更新,大約 50 或 100 毫秒。 在應(yīng)用程序啟動時(shí),我看到一條錯(cuò)誤消息“GDK 無法創(chuàng)建 GL 上下文,回退
    發(fā)表于 04-02 06:46

    NVIDIA加速的Apache Spark助力企業(yè)節(jié)省大量成本

    隨著 NVIDIA 推出 Aether 項(xiàng)目,通過采用 NVIDIA 加速的 Apache Spark 企業(yè)得以自動加速其數(shù)據(jù)中心規(guī)模的分析工作負(fù)載,從而節(jié)省數(shù)百萬美元。
    的頭像 發(fā)表于 03-25 15:09 ?939次閱讀
    <b class='flag-5'>NVIDIA</b><b class='flag-5'>加速</b>的Apache Spark助力企業(yè)節(jié)省大量成本

    英偉達(dá)GTC2025亮點(diǎn):Oracle與NVIDIA合作助力企業(yè)加速代理式AI推理

    Oracle 數(shù)據(jù)庫與 NVIDIA AI 相集成,使企業(yè)能夠更輕松、快捷地采用代理式 AI Oracle 和 NVIDIA 宣布,NVIDIA 加速計(jì)算和推理軟件與 Oracle 的
    的頭像 發(fā)表于 03-21 12:01 ?1227次閱讀
    英偉達(dá)GTC2025亮點(diǎn):Oracle與<b class='flag-5'>NVIDIA</b>合作助力企業(yè)<b class='flag-5'>加速</b>代理式AI推理

    Oracle 與 NVIDIA 合作助力企業(yè)加速代理式 AI 推理

    ——Oracle 和 NVIDIA 今日宣布,NVIDIA 加速計(jì)算和推理軟件與 Oracle 的 AI 基礎(chǔ)設(shè)施以及生成式 AI 服務(wù)首次實(shí)現(xiàn)集成,以幫助全球企業(yè)組織加速創(chuàng)建代理式
    發(fā)表于 03-19 15:24 ?480次閱讀
    Oracle 與 <b class='flag-5'>NVIDIA</b> 合作助力企業(yè)<b class='flag-5'>加速</b>代理式 AI 推理

    利用NVIDIA DPF引領(lǐng)DPU加速云計(jì)算的未來

    越來越多的企業(yè)開始采用加速計(jì)算,從而滿足生成式 AI、5G 電信和主權(quán)云的需求。NVIDIA 推出了 DOCA 平臺框架(DPF),該框架提供了基礎(chǔ)構(gòu)建模塊來釋放 NVIDIA BlueField
    的頭像 發(fā)表于 01-24 09:29 ?1331次閱讀
    利用<b class='flag-5'>NVIDIA</b> DPF引領(lǐng)DPU<b class='flag-5'>加速</b>云計(jì)算的未來

    簡述NVIDIA Isaac的重要更新

    在 2025 CES,NVIDIA 宣布了對NVIDIA Isaac的重要更新。NVIDIA Isaac 是一個(gè)由加速庫、應(yīng)用框架和 AI 模型組成的平臺,可
    的頭像 發(fā)表于 01-17 09:57 ?1807次閱讀
    簡述<b class='flag-5'>NVIDIA</b> Isaac的重要更新