chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于飛騰開發(fā)板使用單目攝像頭完成了完成了全息影像的展示

安芯教育科技 ? 來源:極術(shù)社區(qū) ? 作者:安芯教育科技 ? 2022-09-26 09:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1.團(tuán)隊(duì)介紹

參賽單位:西安電子科技大學(xué) 指導(dǎo)老師:蔡覺平、丁瑞雪 參賽隊(duì)員:王瑞青、江立峰、陳培林 總決賽獎(jiǎng)項(xiàng):二等獎(jiǎng)

a78e8360-3d37-11ed-9e49-dac502259ad0.jpg

2.項(xiàng)目簡介

2.1項(xiàng)目背景

由于深度對于理解三維場景非常重要,因此它被廣泛應(yīng)用于機(jī)器人技術(shù)、三維建模和駕駛自動(dòng)化系統(tǒng)等領(lǐng)域。如圖1所示,單目深度估計(jì)從單個(gè)RGB圖像生成像素方向的深度。單目深度估計(jì)有可能取代現(xiàn)有的深度傳感器,如激光雷達(dá)和紅外傳感器,成為低成本和功率單目RGB相機(jī)。由于單目RGB相機(jī)的可靠性和高精度,最近基于CNN的單目深度估計(jì)方法受到關(guān)注。然而,CNN需要大量的乘法運(yùn)算,在有限的功耗限制下,很難對嵌入式系統(tǒng)進(jìn)行實(shí)時(shí)、準(zhǔn)確的估計(jì)。在以往的單目深度估計(jì)研究中,為了加快gpu上的訓(xùn)練時(shí)間或推理速度,這些研究通常使用具有輕量級卷積(如可分離卷積)的編解碼網(wǎng)絡(luò)[2]。然而,gpu需要很高的功耗,并且不適合處理編碼器-解碼器網(wǎng)絡(luò)中使用的許多不同卷積的快速內(nèi)存訪問。

a7f5f9fa-3d37-11ed-9e49-dac502259ad0.png

2.2項(xiàng)目功能

單目深度估計(jì)是指從單個(gè)二維彩色圖像中估計(jì)像素級深度測量的任務(wù)。這個(gè)問題的輸入是一個(gè)2D RGB彩色圖像,輸出是一個(gè)密集的深度圖,如圖1-1所示。2D RGB圖像提供像素級的顏色信息,這有助于識(shí)別場景中對象的相對位置;然而,圖像本身并不能提供尺度感。因此,可以想象不同的RGB圖像如何能夠產(chǎn)生相同的深度圖,例如,保持對象的相對位置但在垂直于圖像平面的深度維度上具有縮放的距離的圖像。這對單目深度估計(jì)算法提出了挑戰(zhàn),因?yàn)樗鼈儽仨毻茢噙m當(dāng)?shù)谋壤?,以便生成精確的像素級深度測量。

a80bc24e-3d37-11ed-9e49-dac502259ad0.png

2.3項(xiàng)目應(yīng)用

深度估計(jì)對于許多機(jī)器人應(yīng)用來說至關(guān)重要,尤其是導(dǎo)航。這通常是即時(shí)定位與地圖構(gòu)建(SLAM)算法中的一個(gè)關(guān)鍵步驟,一些著作已經(jīng)將基于學(xué)習(xí)的深度估計(jì)結(jié)合到SLAM框架中,例如CNN-SLAM 。深度估計(jì)也是3D重建算法的一個(gè)關(guān)鍵步驟,應(yīng)用于增強(qiáng)現(xiàn)實(shí)和醫(yī)學(xué)成像。當(dāng)我們考慮功率受限的小型化機(jī)器人時(shí),單目深度估計(jì)變得也很重要,這種機(jī)器人上的機(jī)載傳感器技術(shù)可能僅限于簡單的RGB相機(jī),并且可能不存在附加信息(例如,立體圖像對、IMU測量、稀疏深度點(diǎn)云、光流)。對于這樣的應(yīng)用,以計(jì)算有效的方式從單個(gè)RGB圖像估計(jì)密集深度的能力成為挑戰(zhàn)和目標(biāo)。

3.系統(tǒng)組成

天乾C216F開發(fā)板
我們使用的開發(fā)板,完成將RGB圖像處理成深度圖像的功能

全息相冊
展示天乾C216F處理后的全息影像

上位機(jī)
發(fā)送指令,完成使系統(tǒng)功能在“懷舊模式”、“攝影模式”、“拍照模式”等多種模式之間的切換

單目攝像頭
可以捕獲圖像或者視頻,并輸出給天乾C216F

HDMI顯示器
顯示當(dāng)前模式以及圖像處理情況

a8307bfc-3d37-11ed-9e49-dac502259ad0.png

4.網(wǎng)路設(shè)計(jì)與優(yōu)化方法

4.1FastDepth簡介

我們設(shè)計(jì)的單目深度估計(jì)網(wǎng)絡(luò)FastDepth主要由卷積構(gòu)成,主要由編碼器-解碼器兩部分組成。編碼器從輸入圖像中提取高層次低分辨率特征。然后將這些特征輸入解碼器,在解碼器中對它們進(jìn)行逐步的上采樣、細(xì)化和合并,以形成最終的高分辨率輸出深度圖。

a884f43e-3d37-11ed-9e49-dac502259ad0.png

編碼器用藍(lán)色表示;解碼器用黃色表示。中間特征圖的尺寸對應(yīng)關(guān)系為高× 寬×深度。從編碼層到解碼層的箭頭表示加法跳過連接。

FastDepth的大部分卷積層使用深度可分離卷積。只有MobileNet編碼器的第一層(標(biāo)準(zhǔn)卷積層)和解碼器的最后一層(簡單的逐點(diǎn)卷積,然后是插值)沒有使用深度可分離卷積。FastDepth中的每個(gè)卷積層后面是一個(gè)標(biāo)準(zhǔn)化層和一個(gè)ReLU函數(shù)。在訓(xùn)練之后,將標(biāo)準(zhǔn)化層和卷積層合并,從而形成一個(gè)僅由卷積層、ReLU函數(shù)和加法跳過連接操作組成的神經(jīng)網(wǎng)絡(luò)拓?fù)洹?/p>

我們在PyTorch中建立了FastDepth網(wǎng)絡(luò),并使用官方的train/test數(shù)據(jù)分割在NYU Depth v2數(shù)據(jù)集上進(jìn)行訓(xùn)練。編碼層使用了已經(jīng)在ImageNet上預(yù)訓(xùn)練的模型的權(quán)重進(jìn)行初始化。然后將網(wǎng)絡(luò)作為一個(gè)整體進(jìn)行20個(gè)epochs的訓(xùn)練,batch size為16,初始學(xué)習(xí)率為0.01。學(xué)習(xí)率每5個(gè)epochs降低2倍。

4.2網(wǎng)絡(luò)優(yōu)化

4.2.1網(wǎng)絡(luò)剪枝

為了進(jìn)一步減少網(wǎng)絡(luò)延遲,我們使用NetAdapt執(zhí)行訓(xùn)練后網(wǎng)絡(luò)修剪。NetAdapt從一個(gè)經(jīng)過訓(xùn)練的網(wǎng)絡(luò)開始,自動(dòng)地從特征映射中識(shí)別和刪除冗余通道,以降低計(jì)算復(fù)雜度。在每次迭代中,NetAdapt都會(huì)生成一組從參考網(wǎng)絡(luò)簡化而來的網(wǎng)絡(luò)建議。然后選擇具有最佳精度和復(fù)雜度權(quán)衡的網(wǎng)絡(luò)方案作為下一次迭代的參考網(wǎng)絡(luò)。該過程一直持續(xù)到達(dá)到目標(biāo)精度或復(fù)雜度。網(wǎng)絡(luò)復(fù)雜性可以通過間接指標(biāo)(如mac)或直接指標(biāo)(如目標(biāo)硬件平臺(tái)上的延遲)來衡量。

a90020d2-3d37-11ed-9e49-dac502259ad0.png

4.2.2將5×5卷積和最近鄰插值分解為3×3卷積

參考了Yazdanbakhsh等人在他們關(guān)于FlexiGAN的工作中探索的這種分解的一種變體,他們在FlexiGAN中使用了濾波器和行重新排序,以使零插入后的卷積更加緊湊和密集,從而更好地利用硬件資源。我們采用了一種類似的方法如圖所示。

aa474da8-3d37-11ed-9e49-dac502259ad0.png

把5×5核分解成4個(gè)更小的3×3核。當(dāng)5×5卷積之前是最近鄰插值。此處的紅色框表示插值輸入特征圖中具有相同值的像素窗口。隨著5×5核的滑動(dòng),2×2的窗口中的內(nèi)核值將與相同的特性映射值相乘。與執(zhí)行4次乘法和4次加法不同,內(nèi)核值可以先預(yù)加,然后再與共享像素值相乘一次。(b)經(jīng)過濾波器分解,每四個(gè)較小的3×3濾波器可與非插值輸入特征映射卷積。這將產(chǎn)生四個(gè)可以交錯(cuò)的輸出。得到的輸出特征映射與最近鄰插值后執(zhí)行的原始5×5卷積的特征映射相匹配。

5.部署方式

本文實(shí)現(xiàn)了兩種部署方式:通過TVM編譯器和pytorch深度學(xué)習(xí)框架部署。通過TVM端到端深度學(xué)習(xí)編譯器部署fastdepth模型,顯示效果一般,但由于對模型經(jīng)過剪枝、量化等優(yōu)化操作,幀率高達(dá)34.7fps;通過pytorch深度學(xué)習(xí)框架部署midas,模型精度高,顯示效果好,但幀率下降至0.82fps左右。

TVM是由華盛頓大學(xué)在讀博士陳天奇等人提出的深度學(xué)習(xí)自動(dòng)代碼生成方法,該技術(shù)能自動(dòng)為大多數(shù)計(jì)算硬件生成可部署優(yōu)化代碼,其性能可與當(dāng)前最優(yōu)的供應(yīng)商提供的優(yōu)化計(jì)算庫相比,且可以適應(yīng)新型專用加速器后端。

TVM可以優(yōu)化CPU和其他專用硬件為后端的常見深度學(xué)習(xí)計(jì)算負(fù)載。

TVM通過利用多線程、數(shù)據(jù)布局轉(zhuǎn)化和一些新的計(jì)算原語,可以針對GPU做很多高效優(yōu)化。

同時(shí),TVM已為x86、ARM等平臺(tái)提供了同意的優(yōu)化框架,利用其部署大大提高了板子資源利用率,幀率高達(dá)34.7fps。

下圖是TVM端到端深度學(xué)習(xí)編譯器的說明圖:

ab418eda-3d37-11ed-9e49-dac502259ad0.png

6.作品效果展示

通過全息相冊上位機(jī)選擇生成后的深度圖即可在全息相冊上展示。

ab782b8e-3d37-11ed-9e49-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2576

    文章

    54959

    瀏覽量

    790754
  • 自動(dòng)化系統(tǒng)

    關(guān)注

    3

    文章

    270

    瀏覽量

    30586
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    355

    瀏覽量

    23390

原文標(biāo)題:比賽作品分享 | 2022集創(chuàng)賽飛騰杯二等獎(jiǎng)作品:基于單目深度估計(jì)網(wǎng)絡(luò)的全息顯示終端

文章出處:【微信號:Ithingedu,微信公眾號:安芯教育科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    【正點(diǎn)原子STM32N647開發(fā)板試用】--MCMX335攝像頭實(shí)驗(yàn)

    ,直接插到板子上就行了,如下圖,記得剝掉攝像頭上面你的保護(hù)膜。 運(yùn)行例程,代碼打包奉上,不仔細(xì)分析了哈,原理都一樣,有興趣的小伙伴可以下載下來看*附件:352_IMX335.rar 最后把代碼下載到板子里面后,效果如下,攝像頭采集到的
    發(fā)表于 02-21 17:45

    ESP32-S3在初始化攝像頭時(shí)檢測到攝像頭模組型號不被支持

    (WROOM-32)不同,接錯(cuò)引腳會(huì)直接導(dǎo)致探測失??!以下是OV2640/OV5640與ESP32-S3的標(biāo)準(zhǔn)接線表(兼容大部分開發(fā)板): 攝像頭引腳 ESP32-S3引腳 功能說明 VCC 3.3V 供電(必須
    發(fā)表于 02-11 06:38

    【正點(diǎn)原子STM32N647開發(fā)板試用】--攝像頭屏顯

    本篇講述實(shí)現(xiàn)攝像頭畫面LCD屏幕顯示,即顯示屏與攝像頭功能整合在一起。 一.硬件原理與準(zhǔn)備 1.LCD觸摸顯示屏 開發(fā)板配備有一塊4.3寸RGB LCD觸摸(電容)顯示屏,分辨率480*800。可以
    發(fā)表于 01-25 14:51

    自動(dòng)駕駛既然有雙目攝像頭了,為什么還要三攝像頭?

    視覺系統(tǒng)中。 但在實(shí)地落地時(shí),有些廠商并未止步于雙目,而是選擇了三攝像頭的方案。為什么有了雙目,還要選擇三攝像頭? 雙目攝像頭怎么“看出
    的頭像 發(fā)表于 12-09 08:59 ?940次閱讀
    自動(dòng)駕駛既然有雙目<b class='flag-5'>攝像頭</b>了,為什么還要三<b class='flag-5'>目</b><b class='flag-5'>攝像頭</b>?

    車載雙目攝像頭如何“看見”世界?

    源自:網(wǎng)絡(luò) 車載雙目攝像頭(也稱立體視覺攝像頭,Stereo Camera)模仿人眼的視覺機(jī)制,通過兩個(gè)略有間距的攝像頭同時(shí)拍攝同一場景,比較兩幅圖像之間的差異,從而計(jì)算出深度信息。 與
    的頭像 發(fā)表于 11-13 09:17 ?1373次閱讀
    車載雙目<b class='flag-5'>攝像頭</b>如何“看見”世界?

    【EASY EAI Orin Nano開發(fā)板試用體驗(yàn)】使用stream推流代碼和WEB服務(wù)器代碼實(shí)現(xiàn)在客戶端網(wǎng)頁上查看攝像頭圖像

    網(wǎng)頁上查看攝像頭圖像 EASY EAI Orin Nano開發(fā)板主控是RK3576帶有NPU,調(diào)試深入之后還是要做攝像頭相關(guān)的應(yīng)用開發(fā)的,對LVGL的調(diào)試只是開胃小菜,調(diào)通
    發(fā)表于 08-11 23:15

    迅為八核高算力RK3576開發(fā)板攝像頭實(shí)時(shí)推理測試?RetinaFace人臉檢測

    迅為八核高算力RK3576開發(fā)板攝像頭實(shí)時(shí)推理測試 RetinaFace人臉檢測
    的頭像 發(fā)表于 07-21 15:29 ?1098次閱讀
    迅為八核高算力RK3576<b class='flag-5'>開發(fā)板</b><b class='flag-5'>攝像頭</b>實(shí)時(shí)推理測試?RetinaFace人臉檢測

    迅為八核高算力RK3576開發(fā)板攝像頭實(shí)時(shí)推理測試?ppyoloe目標(biāo)檢測

    迅為八核高算力RK3576開發(fā)板攝像頭實(shí)時(shí)推理測試 ppyoloe目標(biāo)檢測
    的頭像 發(fā)表于 07-14 15:18 ?1253次閱讀
    迅為八核高算力RK3576<b class='flag-5'>開發(fā)板</b><b class='flag-5'>攝像頭</b>實(shí)時(shí)推理測試?ppyoloe目標(biāo)檢測

    【EASY EAI Orin Nano開發(fā)板試用體驗(yàn)】--USB攝像頭使用

    本篇講述USB攝像頭接入開發(fā)板使用。準(zhǔn)備200W像素/30FPS攝像頭,接入開發(fā)板上層USB口(建議),如下 一.USB攝像頭接入管理 1.
    發(fā)表于 07-13 18:21

    迅為RK3576開發(fā)板攝像頭實(shí)時(shí)推理測試-ppseg?圖像分割

    迅為RK3576開發(fā)板攝像頭實(shí)時(shí)推理測試-ppseg 圖像分割
    的頭像 發(fā)表于 07-11 14:31 ?856次閱讀
    迅為RK3576<b class='flag-5'>開發(fā)板</b><b class='flag-5'>攝像頭</b>實(shí)時(shí)推理測試-ppseg?圖像分割

    【Milk-V Duo S 開發(fā)板免費(fèi)體驗(yàn)】4 - OV5647 攝像頭攝像頭測試

    DuoS開發(fā)板的/mnt/system/usr/bin/目錄下提供了幾個(gè)測試程序,其中sample_sensor_test就是用于攝像頭測試的。 要運(yùn)行這個(gè)程序,需要先修改/mnt/data/下
    發(fā)表于 07-08 21:26

    【正點(diǎn)原子STM32MP257開發(fā)板試用】2.USB攝像頭使用

    前言 感謝正點(diǎn)原子和電子發(fā)燒友論壇提供的這次機(jī)會(huì)讓我有機(jī)會(huì)體驗(yàn)這款正點(diǎn)原子STM32MP257開發(fā)板,希望可以借這個(gè)機(jī)會(huì)好好學(xué)習(xí)一下。 接入攝像頭 因?yàn)闆]有提供CSI的攝像頭,所以只能使用USB
    發(fā)表于 06-16 19:16

    基于RK3576開發(fā)板的網(wǎng)絡(luò)攝像頭方案

    連接IMX415攝像頭與Camera1接口。開發(fā)環(huán)境搭建包括源碼工程下載、開發(fā)環(huán)境配置、例程編譯與運(yùn)行。通過NFS掛載目錄,用戶可以在板卡上編譯并運(yùn)行RTSP IPCamera示例程序。方案還提供了非
    的頭像 發(fā)表于 05-12 17:54 ?1004次閱讀
    基于RK3576<b class='flag-5'>開發(fā)板</b>的網(wǎng)絡(luò)<b class='flag-5'>攝像頭</b>方案

    基于RV1126開發(fā)板實(shí)現(xiàn)網(wǎng)絡(luò)攝像頭方案

    在RV1126開發(fā)板上實(shí)現(xiàn)本開發(fā)實(shí)例,抓取攝像頭數(shù)據(jù)、圖像送入編碼器進(jìn)行編碼壓縮、以及把壓縮后的數(shù)據(jù)通過RTSP協(xié)議發(fā)送出去的簡單核心示例。 若用戶需要通過webServer對圖像進(jìn)行調(diào)整,以及配置
    的頭像 發(fā)表于 04-21 14:56 ?1894次閱讀
    基于RV1126<b class='flag-5'>開發(fā)板</b>實(shí)現(xiàn)網(wǎng)絡(luò)<b class='flag-5'>攝像頭</b>方案

    全志T113-S3開發(fā)板測試—UVC 攝像頭

    協(xié)議實(shí)現(xiàn)USB攝像頭開發(fā)板之間的數(shù)據(jù)傳輸。本文將介紹UVC協(xié)議的相關(guān)知識(shí),并演示如何檢測UVC攝像頭。產(chǎn)品簡介眺望電子EVM-T113-S3是一款基于全志T11
    的頭像 發(fā)表于 02-27 08:31 ?3153次閱讀
    全志T113-S3<b class='flag-5'>開發(fā)板</b>測試—UVC <b class='flag-5'>攝像頭</b>