chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA Jetson Nano 2GB:視覺類腳本的環(huán)境配置與映射

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 作者:NVIDIA英偉達(dá)企業(yè)解 ? 2022-04-01 09:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在 TAO 提供的數(shù)據(jù)類范例中,每個腳本的第一個步驟都是環(huán)境配置(0. Set up env variables and map drives),包括要求用戶提供在 NGC 所生成的密鑰,對后面訓(xùn)練的模型進(jìn)行保護(hù),以及指定要使用的 GPU 數(shù)量等等,這幾個設(shè)定都很直觀容易處理,但接下去的環(huán)境變量配置部分,就讓大部分初學(xué)者停滯不前,因為任何一項路徑配置錯誤,都會影響后面工作的正常進(jìn)行,而每個實驗?zāi)_本所提供的說明,對初學(xué)者來的幫助并不大,很多新手按照其字面解釋去進(jìn)行設(shè)定,但總是沒法調(diào)整到完全正確。

因此我們必須在大家執(zhí)行實驗之前,先以專文將這部分的配置說明清楚,然后提供一個最簡單的步驟,讓大家用最輕松的方法來進(jìn)行配置。

本文使用范例的 detectnet_v2.ipynb 做示范,首先看一下第一指令塊中的設(shè)定內(nèi)容:

[  ]  import os
%env KEY=tlt_encode%env NUM_GPUS=1%env USER_EXPERIMENT_DIR=/workspace/tao-experiments/detectnet_v2%env DATA_DOWNLOAD_DIR=/workspace/tao-experiments/data
# %env NOTEBOOK_ROOT=~/tao-samples/detectnet_v2os.environ["LOCAL_PROJECT_DIR"] = FIXMEos.environ["LOCAL_DATA_DIR"] = os.path.join(    os.getenv("LOCAL_PROJECT_DIR", os.getcwd()),    "data")os.environ["LOCAL_EXPERIMENT_DIR"] = os.path.join(    os.getenv("LOCAL_PROJECT_DIR", os.getcwd()),    "detectnet_v2")
# The sample spec files are present in the same path as the downloaded samples.os.environ["LOCAL_SPECS_DIR"] = os.path.join(    os.getenv("NOTEBOOK_ROOT", os.getcwd()),    "specs")%env SPECS_DIR=/workspace/tao-experiments/detectnet_v2/specs

稍微整理一下,除了KEYNUM_GPUS 兩個變量之外,共有7個與路徑有關(guān)的變量:

  • USER_EXPERIMENT_DIR

  • DATA_DOWNLOAD_DIR

  • LOCAL_PROJECT_DIR

  • LOCAL_DATA_DIR

  • LOCAL_EXPERIMENT_DIR

  • LOCAL_SPECS_DIR

  • SPECS_DIR

其實稍微整理一下就更容易理解,下表就是將這7個變量分為兩組,以 “LOCAL_” 開頭的屬于 “容器外” 用途,另外 3 個屬于容器內(nèi)用途。

用途

容器外(主機(jī)上)

容器內(nèi)(沿用TLT的習(xí)慣)

項目工作位置

LOCAL_PROJECT_DIR

存放模型訓(xùn)練輸出結(jié)果

LOCAL_EXPERIMENT_DIR

USER_EXPERIMENT_DIR

存放數(shù)據(jù)集的路徑

LOCAL_DATA_DIR

DATA_DOWNLOAD_DIR

配置文件存放路徑

LOCAL_SPECS_DIR

SPECS_DIR

什么是容器內(nèi)與容器外?前面提過 TAO 用兩套獨(dú)立的 Docker 容器,分別為視覺類與對話類提供模型訓(xùn)練功能,并透過 TAO 啟動器的 CLI 指令執(zhí)行各項任務(wù)。

雖然我們所有操作都在容器外的宿主機(jī)上,例如在指令終端下達(dá) tao detectnet_v2 train ...,或者在 Jupyter 交互環(huán)境里執(zhí)行 “!taodetectnet_v2 train ...” 指令,但是 TAO 啟動器會將這些指令傳遞到容器,在后臺為我們執(zhí)行對應(yīng)的任務(wù)。

這種處理方式的最大好處是,讓不懂 Docker 的初學(xué)者完全無需理會容器技術(shù),只要專注于 “模型訓(xùn)練” 的重點工作就行,如此就能讓 TAO 的普及程度更快與更廣,這也是 TAO 工具的一項非常重要意義。

但為何需要使用兩套路徑來處理呢?全部都在容器內(nèi)執(zhí)行不是更加簡單?這里有個最嚴(yán)肅的問題是 “容器的生命周期” ,如果將數(shù)據(jù)保留在容器內(nèi)處理的話,一旦容器關(guān)閉或銷毀時,我們所有實驗數(shù)據(jù)都將付之一炬,這是一項大家都承擔(dān)不起的風(fēng)險,因此我們必須將所有的數(shù)據(jù)存放在容器外面,然后透過路徑映射 (mapping) 的方式來處理。

其次就是對于數(shù)據(jù)整理與文件修改的能力,在容器內(nèi)操作是相對不方便的。要知道在執(zhí)行模型訓(xùn)練之前,通常得先下載數(shù)據(jù)集的壓縮文件、移動文件、進(jìn)行解壓縮、修改配置文件等等,這些任務(wù)在宿主機(jī)上操作是相對輕松的。

好了,當(dāng)我們清楚 TAO 的視覺類模型訓(xùn)練腳本中,存在容器內(nèi)與容器外兩組環(huán)境路徑的原因之后,接著就來看該如何設(shè)置與映射。

我們將前面的列表進(jìn)行展開,前面 4 個是容器外的變量、后面 3 個是容器內(nèi)變量:

環(huán)境變量

設(shè)定值

LOCAL_PROJECT_DIR

需要設(shè)置

LOCAL_EXPERIMENT_DIR

$LOCAL_PROJECT_DIR/<項目名>

LOCAL_DATA_DIR

$LOCAL_PROJECT_DIR/data

LOCAL_SPECS_DIR

<執(zhí)行腳本所在目錄>/specs

USER_EXPERIMENT_DIR

/workspace/tao-experiments/<項目名>

DATA_DOWNLOAD_DIR

/workspace/tao-experiments/data

SPECS_DIR

/workspace/tao-experiments/<項目名>/specs

假如在執(zhí)行格內(nèi)的變量按照上表的順序去排列,事情就會變得非常單純。

事實上,從頭到尾我們只要將 “LOCAL_PROJECT_DIR” 設(shè)置為”執(zhí)行腳本所在目錄”,那么后面三個容器外變量就立即建立好對應(yīng)關(guān)系,我們完全不需要做任何處理理會。至于容器內(nèi)的三個變量,每個腳本的配置規(guī)則都是一樣,也就是不需要去改變。

把上面的對應(yīng)關(guān)系了解清楚之后,整個狀況就變得非常簡單,現(xiàn)在回頭看看第一個指令塊,里面需要輸入的變量其實只有以下三個:

  • %env KEY= <自己在NGC上申請的秘鑰>

  • %env NUM_GPUS= <根據(jù)設(shè)備配置,給定調(diào)用的GPU數(shù)量>

  • os.environ["LOCAL_PROJECT_DIR"] = os.getcwd()

其他 6 個變量完全不做任何修改,這樣就能夠順暢地跑動后面的指令塊。

接下去的工作就是執(zhí)行 “路徑映射” 任務(wù),為容器內(nèi)外的路徑建立對應(yīng)的關(guān)系。幾乎所有訓(xùn)練腳本都采用下面的映射方式:

[  ]  # Define the dictionary with the mapped drivesdrive_map = {    "Mounts": [        # Mapping the data directory        {            "source": os.environ["LOCAL_PROJECT_DIR"],            "destination": "/workspace/tao-experiments"        },        # Mapping the specs directory.        {            "source": os.environ["LOCAL_SPECS_DIR"],            "destination": os.environ["SPECS_DIR"]        },    ]}

執(zhí)行這個路徑映射的指令塊之后,會將這些值寫入 “~/.tao_mounts.json” 文件里面,這是 TAO 啟動器每次調(diào)用容器時都需要參考的配置文件,但是這個文件是 “唯一” 的,也就是同一時間只會存在一組容器內(nèi)外的路徑映射關(guān)系,這表示系統(tǒng)不能同時執(zhí)行兩個以上的模型訓(xùn)練腳本,這點也請務(wù)必牢記。

緊跟著的 “1.Install the TAO launcher” 步驟可以直接跳過,因為我們在前面已經(jīng)帶著大家安裝好 TAO 啟動器,這里頂多執(zhí)行 “!taoinfo” 指令,確認(rèn)一下是否回應(yīng)正確訊息。

現(xiàn)在就可以開始進(jìn)行 TAO 所提供的各種神經(jīng)網(wǎng)絡(luò)的模型訓(xùn)練腳本。

審核編輯 :李倩
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4836

    瀏覽量

    107628
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5581

    瀏覽量

    109625
  • 變量
    +關(guān)注

    關(guān)注

    0

    文章

    615

    瀏覽量

    29485

原文標(biāo)題:NVIDIA Jetson Nano 2GB 系列文章(57):視覺類腳本的環(huán)境配置與映射

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    如何在NVIDIA Jetson平臺上運(yùn)行最新的開源AI模型

    在小型、低功耗的邊緣設(shè)備上運(yùn)行先進(jìn)的 AI 和計算機(jī)視覺工作流正變得越來越具有挑戰(zhàn)性。機(jī)器人、智能攝像頭和自主設(shè)備需要實時智能來感知、理解并做出反應(yīng),而無需依賴云端。NVIDIA Jetson 平臺通過緊湊的 GPU 加速模塊和
    的頭像 發(fā)表于 12-24 10:38 ?1520次閱讀
    如何在<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Jetson</b>平臺上運(yùn)行最新的開源AI模型

    NVIDIA Jetson系列開發(fā)者套件助力打造面向未來的智能機(jī)器人

    NVIDIA Jetson AGX Thor、AGX Orin 以及 Jetson Orin Nano Super 開發(fā)者套件,助力打造面向未來的智能機(jī)器人。
    的頭像 發(fā)表于 12-13 10:20 ?3024次閱讀

    如何在NVIDIA Jetson AGX Thor上通過Docker高效部署vLLM推理服務(wù)

    繼系統(tǒng)安裝與環(huán)境配置后,本期我們將繼續(xù)帶大家深入 NVIDIA Jetson AGX Thor 的開發(fā)教程之旅,了解如何在 Jetson A
    的頭像 發(fā)表于 11-13 14:08 ?4074次閱讀
    如何在<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Jetson</b> AGX Thor上通過Docker高效部署vLLM推理服務(wù)

    NVIDIA Jetson AGX Thor Developer Kit開發(fā)環(huán)境配置指南

    NVIDIA Jetson AGX Thor 專為物理 AI 打造,與上一代產(chǎn)品 NVIDIA Jetson AGX Orin 相比,生成式 AI 性能最高提升至 5 倍。通過發(fā)布后的
    的頭像 發(fā)表于 11-08 09:55 ?7197次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>Jetson</b> AGX Thor Developer Kit開發(fā)<b class='flag-5'>環(huán)境</b><b class='flag-5'>配置</b>指南

    BPI-AIM7 RK3588 AI與 Nvidia Jetson Nano 生態(tài)系統(tǒng)兼容的低功耗 AI 模塊

    (瑞芯微) NVIDIA Jetson Nano 8GB 圖靈 RK1 USB 端口 1個USB 3.0,3個USB 2.0 1個USB 3.0,3個USB 2.0
    發(fā)表于 10-11 09:08

    BPI-AIM7 RK3588 AI與 Nvidia Jetson Nano 生態(tài)系統(tǒng)兼容的低功耗 AI 模塊

    。它是開源硬件,我們已在線發(fā)布設(shè)計文檔,包括原理圖和接口定義。其異構(gòu)計算架構(gòu)兼容 NVIDIA Jetson Nano 接口標(biāo)準(zhǔn),非常適合邊緣計算、AI 推理、VR/AR、智能 NVR 系統(tǒng)以及通用
    的頭像 發(fā)表于 10-11 09:06 ?1037次閱讀
    BPI-AIM7 RK3588 AI與 <b class='flag-5'>Nvidia</b> <b class='flag-5'>Jetson</b> <b class='flag-5'>Nano</b> 生態(tài)系統(tǒng)兼容的低功耗 AI 模塊

    NVIDIA Jetson AGX Thor開發(fā)者套件重磅發(fā)布

    開發(fā)者與未來創(chuàng)造者們,準(zhǔn)備好迎接邊緣AI的史詩級革新了嗎?NVIDIA以顛覆性技術(shù)再次突破極限,正式推出Jetson AGX Thor開發(fā)者套件!作為繼傳奇產(chǎn)品Jetson AGX Orin之后
    的頭像 發(fā)表于 08-28 14:31 ?1520次閱讀

    NVIDIA Nemotron Nano 2推理模型發(fā)布

    NVIDIA 正式推出準(zhǔn)確、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2。
    的頭像 發(fā)表于 08-27 12:45 ?1744次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron <b class='flag-5'>Nano</b> <b class='flag-5'>2</b>推理模型發(fā)布

    基于 NVIDIA Blackwell 的 Jetson Thor 現(xiàn)已發(fā)售,加速通用機(jī)器人時代的到來

    ·專為物理 AI 和機(jī)器人打造的機(jī)器人計算機(jī) NVIDIA Jetson AGX Thor 開發(fā)者套件和量產(chǎn)級模組,現(xiàn)已發(fā)售。 ·超過 200 萬開發(fā)者正在使用 NVIDIA 的機(jī)器人技術(shù)棧,聯(lián)影
    發(fā)表于 08-26 09:28 ?1294次閱讀
    基于 <b class='flag-5'>NVIDIA</b> Blackwell 的 <b class='flag-5'>Jetson</b> Thor 現(xiàn)已發(fā)售,加速通用機(jī)器人時代的到來

    NVIDIA Jetson AGX Thor開發(fā)者套件概述

    NVIDIA Jetson AGX Thor 開發(fā)者套件為您提供出色的性能和可擴(kuò)展性。它由 NVIDIA Blackwell GPU和128 GB 顯存提供動力支持,提供高達(dá) 2070
    的頭像 發(fā)表于 08-11 15:03 ?1875次閱讀

    NVIDIA Jetson + Isaac SDK 人形機(jī)器人方案全面解析

    NVIDIA Jetson + Isaac SDK 人形機(jī)器人方案全面解析 一、方案概述 Jetson 硬件平臺 :提供 AI + GPU 運(yùn)算能力,配合多傳感器、視覺、傳動控制體系
    的頭像 發(fā)表于 07-30 16:12 ?2148次閱讀

    Jetson平臺核心組件BOM清單概覽

    Jetson平臺核心組件BOM清單概覽 NVIDIA Jetson系列作為業(yè)界領(lǐng)先的邊緣計算和人工智能(AI)平臺,其強(qiáng)大的性能背后是一系列精心挑選的核心芯片、電源管理集成電路(PMIC)以及豐富
    的頭像 發(fā)表于 07-30 16:11 ?3092次閱讀

    Arm方案 基于Arm架構(gòu)的邊緣側(cè)設(shè)備(樹莓派或 NVIDIA Jetson Nano)上部署PyTorch模型

    本文將為你展示如何在樹莓派或 NVIDIA Jetson Nano 等基于 Arm 架構(gòu)的邊緣側(cè)設(shè)備上部署 PyTorch 模型。
    的頭像 發(fā)表于 07-28 11:50 ?2850次閱讀

    Made with KiCad(126):Antmicro OV5640 雙攝像頭子板

    Jetson Nano、Jetson TX2 NX、Jetson Xavier NX 系統(tǒng)模塊的 Je
    發(fā)表于 05-12 18:13

    研華NVIDIA Jetson Orin Nano系統(tǒng)支持Super Mode

    提升生成式AI性能1.7倍 2025年春季— 研華科技,作為全球工業(yè)嵌入式 AI 解決方案供應(yīng)商,宣布推出搭載NVIDIA Jetson Orin Nano 8GB系統(tǒng)模塊的AI邊緣運(yùn)
    發(fā)表于 03-10 14:07 ?753次閱讀
    研華<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Jetson</b> Orin <b class='flag-5'>Nano</b>系統(tǒng)支持Super Mode