chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖像分割的背景知識(shí)

新機(jī)器視覺(jué) ? 來(lái)源:新機(jī)器視覺(jué) ? 作者:新機(jī)器視覺(jué) ? 2020-12-28 14:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀

一個(gè)很好的入門小短文,內(nèi)容很全,適合上手。

在這篇文章中,我們將進(jìn)入使用深度學(xué)習(xí)進(jìn)行圖像分割的世界。我們將討論:

圖像分割是什么以及圖像分割的兩種主要類型

圖像分割結(jié)構(gòu)

圖像分割中使用的損失函數(shù)

你可以使用的框架

就讓我們一探究竟吧。

什么是圖像分割?

顧名思義,這是將圖像分割為多個(gè)部分的過(guò)程。在這個(gè)過(guò)程中,圖像中的每個(gè)像素都與一個(gè)對(duì)象類型相關(guān)聯(lián)。圖像分割主要有兩種類型:語(yǔ)義分割和實(shí)例分割。

在語(yǔ)義分割中,所有相同類型的對(duì)象都使用一個(gè)類標(biāo)簽進(jìn)行標(biāo)記,而在實(shí)例分割中,相似的對(duì)象使用各自的標(biāo)簽。

圖像分割結(jié)構(gòu)

圖像分割的基本結(jié)構(gòu)包括編碼器和解碼器。

編碼器通過(guò)濾波器從圖像中提取特征。解碼器負(fù)責(zé)生成最終輸出,該輸出通常是包含對(duì)象輪廓的分割掩碼。大多數(shù)架構(gòu)都有這種架構(gòu)或它的變體。

讓我們來(lái)看幾個(gè)例子。

U-Net

U-Net是一種卷積神經(jīng)網(wǎng)絡(luò),最初是為分割生物醫(yī)學(xué)圖像而開(kāi)發(fā)的。當(dāng)它被可視化的時(shí)候,它的架構(gòu)看起來(lái)像字母U,因此被命名為U-Net。其體系結(jié)構(gòu)由兩部分組成,左側(cè)為收縮路徑,右側(cè)為擴(kuò)展路徑。收縮路徑的目的是獲取上下文,而擴(kuò)展路徑的作用是幫助精確定位。

U-Net是由右側(cè)的擴(kuò)張路徑和左側(cè)的收縮路徑組成的。收縮路徑由兩個(gè)3乘3的卷積組成。卷積之后是一個(gè)ReLU和一個(gè)2x2的最大池計(jì)算用于下采樣。

你可以在這里找到U-Net的完整實(shí)現(xiàn):https://lmb.informatik.uni-freiburg.de/people/ronneber/u-net/。

FastFCN —Fast Fully-connected network

在這個(gè)架構(gòu)中,使用一個(gè)聯(lián)合金字塔上采樣(JPU)模塊來(lái)替換膨脹卷積,因?yàn)樗鼈兿拇罅康膬?nèi)存和時(shí)間。在應(yīng)用JPU進(jìn)行上采樣時(shí),其核心部分采用全連接網(wǎng)絡(luò)。JPU將低分辨率的feature map采樣到高分辨率feature map。

如果你想動(dòng)手實(shí)現(xiàn)一些代碼,看這里:https://github.com/wuhuikai/FastFCN。

Gated-SCNN

這個(gè)架構(gòu)由一個(gè) two-stream CNN架構(gòu)組成。在該模型中,使用一個(gè)單獨(dú)的分支來(lái)處理圖像的形狀信息。利用形狀流來(lái)處理邊界信息。

實(shí)現(xiàn)參考代碼:https://github.com/nv-tlabs/gscnn

DeepLab

在這種架構(gòu)中,上采樣濾波器的卷積用于涉及密集預(yù)測(cè)的任務(wù)。多尺度的目標(biāo)分割是通過(guò)空間金字塔池實(shí)現(xiàn)的。最后,利用DCNNs來(lái)改進(jìn)目標(biāo)邊界的定位。通過(guò)對(duì)濾波器插入零進(jìn)行上采樣或?qū)斎胩卣鲌D進(jìn)行稀疏采樣來(lái)實(shí)現(xiàn)卷積。

實(shí)現(xiàn)參考代碼:https://github.com/fregu856/deeplabv3,https://github.com/sthalles/deeplab_v3

Mask R-CNN

在這個(gè)架構(gòu)中,使用邊界框和語(yǔ)義分割將每個(gè)像素劃分為一組類別,對(duì)對(duì)象進(jìn)行分類和局部化。對(duì)每個(gè)感興趣的區(qū)域得到一個(gè)分割掩碼,生成一個(gè)類標(biāo)簽和一個(gè)邊界框作為最終輸出。該架構(gòu)是Faster R-CNN的擴(kuò)展。Faster R-CNN由regions proposer和深度卷積網(wǎng)絡(luò)和利局部檢測(cè)器組成。

這里是COCO測(cè)試集中的一張圖像的結(jié)果:

圖像分割損失函數(shù)

語(yǔ)義分割模型在訓(xùn)練過(guò)程中通常使用一個(gè)簡(jiǎn)單的交叉分類熵?fù)p失函數(shù)。但是,如果你對(duì)獲取圖像的細(xì)粒度信息感興趣,那么你需要用到稍微高級(jí)一點(diǎn)的損失函數(shù)。

我們來(lái)看看其中的幾個(gè)。

Focal Loss

這種損失是對(duì)標(biāo)準(zhǔn)交叉熵的改進(jìn)。這是通過(guò)改變它的形狀來(lái)實(shí)現(xiàn)的,這樣分配給分類良好的樣本的損失就降低了。最終,這確保了沒(méi)有類別不平衡。在這個(gè)損失函數(shù)中,交叉熵?fù)p失被縮放,隨著對(duì)正確類的置信度的增加,縮放因子衰減為零。在訓(xùn)練時(shí),比例因子會(huì)自動(dòng)降低簡(jiǎn)單樣本的權(quán)重,并聚焦于困難樣本。

30040146-29d7-11eb-a64d-12bb97331649.png

Dice loss

這個(gè)損失是通過(guò)計(jì)算smooth dice coefficient得到的。這種損失是最常用的分割損失。

30239088-29d7-11eb-a64d-12bb97331649.png

Intersection over Union (IoU)-balanced Loss

IoU平衡分類損失的目的是增加高IoU樣本的梯度,降低低IoU樣本的梯度。這樣提高了機(jī)器學(xué)習(xí)模型的定位精度。

3043a8c8-29d7-11eb-a64d-12bb97331649.png

Boundary loss

邊界損失的一種變體應(yīng)用于分割高度不平衡的任務(wù)。這種損失的形式是空間等高線上的距離度量,而不是區(qū)域。這種方法解決了高度不平衡的分割任務(wù)中區(qū)域損失的問(wèn)題。

30610a12-29d7-11eb-a64d-12bb97331649.png

Weighted cross-entropy

在交叉熵的一種變體中,所有正樣本都用一定的系數(shù)進(jìn)行加權(quán)。它用于類別不平衡的場(chǎng)景。

30773f26-29d7-11eb-a64d-12bb97331649.png

Lovász-Softmax loss

該損失是對(duì)基于子模塊損失凸Lovasz擴(kuò)展的神經(jīng)網(wǎng)絡(luò)平均IoU損失的直接優(yōu)化。

309a68fc-29d7-11eb-a64d-12bb97331649.png

其他值得一提的損失包括:

TopK loss,其目的是確保網(wǎng)絡(luò)在訓(xùn)練過(guò)程中聚焦于困難樣本上。

距離懲罰交叉熵?fù)p失,引導(dǎo)網(wǎng)絡(luò)難以分割的邊界地區(qū)。

敏感性-特異性(SS)損失,計(jì)算特異性和敏感性的均方差的加權(quán)和。

Hausdorff distance(HD) loss,估計(jì)了卷積神經(jīng)網(wǎng)絡(luò)的Hausdorff距離。

這只是在圖像分割中使用的幾個(gè)損失函數(shù)。想了解更多內(nèi)容,看這里:https://github.com/JunMa11/SegLoss。

圖像分割數(shù)據(jù)集

從哪里可以得到一些數(shù)據(jù)集來(lái)開(kāi)始?讓我們來(lái)看幾個(gè)例子。

Common Objects in COntext?—?Coco Dataset

COCO是一個(gè)大型物體檢測(cè)、分割和圖像描述數(shù)據(jù)集。數(shù)據(jù)集包含91個(gè)類。它有25萬(wàn)個(gè)人標(biāo)注了關(guān)鍵點(diǎn)。它的大小是37.57 GiB。它包含80個(gè)物體類別。它遵循Apache 2.0許可,下載鏈接:http://cocodataset.org/#download。

PASCAL Visual Object Classes (PASCAL VOC)

PASCAL有9963個(gè)圖像和20個(gè)不同的類。訓(xùn)練/驗(yàn)證集是一個(gè)2GB的tar文件。數(shù)據(jù)集下載:http://host.robots.ox.ac.uk/pascal/VOC/voc2012/。

The Cityscapes Dataset

此數(shù)據(jù)集包含城市場(chǎng)景的圖像。它可以用來(lái)評(píng)估城市場(chǎng)景中視覺(jué)算法的性能。數(shù)據(jù)集下載:https://www.cityscapes-dataset.com/downloads/。

The Cambridge-driving Labeled Video Database?—?CamVid

這是一個(gè)基于運(yùn)動(dòng)的分割和識(shí)別數(shù)據(jù)集。它包含32個(gè)語(yǔ)義類。數(shù)據(jù)集下載:http://mi.eng.cam.ac.uk/research/projects/VideoRec/CamVid/。

圖像分割框架

現(xiàn)在你已經(jīng)有了數(shù)據(jù)集,讓我們介紹一些工具/框架,你可以使用它們來(lái)開(kāi)始。

FastAI library- 給定一幅圖像,該庫(kù)能夠創(chuàng)建該圖像中對(duì)象的mask。

Sefexa Image Segmentation Tool?- Sefexa是一個(gè)免費(fèi)的工具,可以用于半自動(dòng)圖像分割,圖像分析,創(chuàng)建ground truth

Deepmask- Deepmask由Facebook Research開(kāi)發(fā),是Deepmask和SharpMask的Torch實(shí)現(xiàn)。

MultiPath- 這是來(lái)源于A MultiPath Network for Object Detection的物體檢測(cè)網(wǎng)絡(luò)的Torch實(shí)現(xiàn)。

OpenCV- 這是一個(gè)開(kāi)源的計(jì)算機(jī)視覺(jué)庫(kù),有超過(guò)2500個(gè)優(yōu)化算法。

MIScnn- 這是一個(gè)醫(yī)學(xué)圖像分割開(kāi)源庫(kù)。它使用最先進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)模型建立管道,只需幾行代碼。

Fritz- Fritz提供多種計(jì)算機(jī)視覺(jué)工具,包括用于移動(dòng)設(shè)備的圖像分割工具。

總結(jié)

本文為你提供了一些圖像分割的背景知識(shí),并為你提供了一些工具和框架,可以用于入門。

我們討論了:

什么是圖像分割,

圖像分割架構(gòu),

圖像分割損失,

圖像分割工具和框架。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:圖像分割2020總結(jié):結(jié)構(gòu),損失函數(shù),數(shù)據(jù)集和框架

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    SAM(通用圖像分割基礎(chǔ)模型)丨基于BM1684X模型部署指南

    前言SAM是Meta提出的一個(gè)分割一切的提示型模型,其在1100萬(wàn)張圖像上訓(xùn)練了超過(guò)10億個(gè)掩碼,實(shí)現(xiàn)了強(qiáng)大的零樣本泛化,突破了分割界限。本例程對(duì)SAM官方開(kāi)源倉(cāng)庫(kù)的模型和算法進(jìn)行移植,使之能
    的頭像 發(fā)表于 01-12 16:17 ?269次閱讀
    SAM(通用<b class='flag-5'>圖像</b><b class='flag-5'>分割</b>基礎(chǔ)模型)丨基于BM1684X模型部署指南

    圖像采集卡終極指南:從原理到選型

    視覺(jué)系統(tǒng)的運(yùn)行效率。本文將從技術(shù)原理、核心分類、關(guān)鍵參數(shù)、主流應(yīng)用到實(shí)操選型,全方位拆解圖像采集卡,幫你形成完整的知識(shí)體系與選型邏輯。一、底層原理:圖像采集卡如何
    的頭像 發(fā)表于 11-19 15:54 ?562次閱讀
    <b class='flag-5'>圖像</b>采集卡終極指南:從原理到選型

    傳音TEX AI團(tuán)隊(duì)斬獲ICCV 2025大型視頻目標(biāo)分割挑戰(zhàn)賽雙料亞軍

    近日,國(guó)際計(jì)算機(jī)視覺(jué)大會(huì)(ICCV 2025)舉辦了第七屆大型視頻目標(biāo)分割挑戰(zhàn)賽(LSVOS Challenge),傳音TEX AI團(tuán)隊(duì)?wèi){借自主研發(fā)的創(chuàng)新技術(shù)方案,在復(fù)雜視頻目標(biāo)分割和語(yǔ)言指引視頻
    的頭像 發(fā)表于 10-31 09:42 ?538次閱讀
    傳音TEX AI團(tuán)隊(duì)斬獲ICCV 2025大型視頻目標(biāo)<b class='flag-5'>分割</b>挑戰(zhàn)賽雙料亞軍

    使用Otsu閾值算法將灰度圖像二值化

    還是純白,即利用此閾值將原圖像分成前景、背景兩個(gè)圖象。不同閾值對(duì)于前景和背景圖象的劃分不同,一般來(lái)說(shuō),前景和背景圖象的差別越大,表明劃分的效果越好。在 Otsu 算法中,以類間方差來(lái)衡
    發(fā)表于 10-28 06:49

    手機(jī)板 layout 走線跨分割問(wèn)題

    初學(xué)習(xí)layout時(shí),都在說(shuō)信號(hào)線不可跨分割,但是在工作中為了成本不能跨分割似乎也非絕對(duì)。 在后續(xù)工作中,跨分割的基礎(chǔ)都是相鄰層有一面完整的GND參考,跨分割發(fā)生在相鄰的另外一層。 但
    發(fā)表于 09-16 14:56

    迅為RK3576開(kāi)發(fā)板攝像頭實(shí)時(shí)推理測(cè)試-ppseg?圖像分割

    迅為RK3576開(kāi)發(fā)板攝像頭實(shí)時(shí)推理測(cè)試-ppseg 圖像分割
    的頭像 發(fā)表于 07-11 14:31 ?856次閱讀
    迅為RK3576開(kāi)發(fā)板攝像頭實(shí)時(shí)推理測(cè)試-ppseg?<b class='flag-5'>圖像</b><b class='flag-5'>分割</b>

    如何將32個(gè)步進(jìn)伺服驅(qū)動(dòng)器塞進(jìn)小型板材分割機(jī)中?

    板材分割機(jī)是工業(yè)制造中常見(jiàn)的裝備。機(jī)器的內(nèi)部空間狹小,如何將多達(dá)32個(gè)步進(jìn)伺服驅(qū)動(dòng)器安裝在其中顯得非常困難。本文將通過(guò)基于EtherCAT總線的插板式步進(jìn)伺服驅(qū)動(dòng)器剖析其破解之法!傳統(tǒng)銑刀式板材分割
    的頭像 發(fā)表于 07-08 11:37 ?495次閱讀
    如何將32個(gè)步進(jìn)伺服驅(qū)動(dòng)器塞進(jìn)小型板材<b class='flag-5'>分割</b>機(jī)中?

    【正點(diǎn)原子STM32MP257開(kāi)發(fā)板試用】基于 DeepLab 模型的圖像分割

    【正點(diǎn)原子STM32MP257開(kāi)發(fā)板試用】圖像分割 本文介紹了正點(diǎn)原子 STM32MP257 開(kāi)發(fā)板基于 DeepLab 模型實(shí)現(xiàn)圖像分割的項(xiàng)目設(shè)計(jì)。 DeepLab 模型 DeepL
    發(fā)表于 06-21 21:11

    【AIBOX 應(yīng)用案例】通過(guò) U2-Net 實(shí)現(xiàn)背景移除

    設(shè)計(jì),高效散熱,保障在高溫運(yùn)行狀態(tài)下的運(yùn)算性能和穩(wěn)定性,滿足各種工業(yè)級(jí)的應(yīng)用需求。應(yīng)用案例:背景移除BackgroundRemoval(背景移除)技術(shù)已成為圖像處理
    的頭像 發(fā)表于 06-11 16:32 ?646次閱讀
    【AIBOX 應(yīng)用案例】通過(guò) U2-Net 實(shí)現(xiàn)<b class='flag-5'>背景</b>移除

    多光譜圖像技術(shù)在苗期作物與雜草識(shí)別中的研究進(jìn)展

    、勞動(dòng)強(qiáng)度大、完全依賴人工主體的經(jīng)驗(yàn)與知識(shí),在大面積雜草苗情觀測(cè)上,人工識(shí)別是無(wú)能為力的。遙感識(shí)別法則克服了人工監(jiān)測(cè)的諸多弊端,可以在短時(shí)間內(nèi)獲得作物大范圍的圖像,自動(dòng)識(shí)別田間雜草。 但是,由于遙感圖像的空間和
    的頭像 發(fā)表于 06-10 18:13 ?436次閱讀

    基于LockAI視覺(jué)識(shí)別模塊:C++圖像采集例程

    本文主要演示如何使用LockAI視覺(jué)識(shí)別模塊進(jìn)行視頻流的讀取,同時(shí)使用Edit模塊進(jìn)行圖像傳輸?;A(chǔ)知識(shí)講解1.1OpenCV簡(jiǎn)介OpenCV(OpenSourceComputerVisionLibra
    的頭像 發(fā)表于 04-30 18:23 ?737次閱讀
    基于LockAI視覺(jué)識(shí)別模塊:C++<b class='flag-5'>圖像</b>采集例程

    如何修改yolov8分割程序中的kmodel?

    ;#039;''實(shí)驗(yàn)平臺(tái):01Studio CanMV K230說(shuō)明:實(shí)現(xiàn)攝像頭圖像采集顯示-裂縫分割-寬度計(jì)算'''
    發(fā)表于 04-25 08:22

    國(guó)產(chǎn)替代進(jìn)口圖像采集卡:機(jī)遇、挑戰(zhàn)與策略

    展現(xiàn)出獨(dú)特的優(yōu)勢(shì)。本文將深入探討國(guó)產(chǎn)替代進(jìn)口圖像采集卡的背景、機(jī)遇、挑戰(zhàn)以及相應(yīng)的應(yīng)對(duì)策略,旨在為推動(dòng)該領(lǐng)域的發(fā)展提供參考。一、國(guó)產(chǎn)替代的背景與必要性多年來(lái),進(jìn)口
    的頭像 發(fā)表于 04-07 15:58 ?1030次閱讀
    國(guó)產(chǎn)替代進(jìn)口<b class='flag-5'>圖像</b>采集卡:機(jī)遇、挑戰(zhàn)與策略

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類、obb

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類、obb、pose深度學(xué)習(xí),支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28

    安森美SiC Cascode JFET的背景知識(shí)和并聯(lián)設(shè)計(jì)

    )關(guān)鍵參數(shù)和并聯(lián)振蕩的分析,以及設(shè)計(jì)指南。本文為第一篇,聚焦Cascode產(chǎn)品介紹、Cascode背景知識(shí)和并聯(lián)設(shè)計(jì)。
    的頭像 發(fā)表于 02-27 14:10 ?1911次閱讀
    安森美SiC Cascode JFET的<b class='flag-5'>背景</b><b class='flag-5'>知識(shí)</b>和并聯(lián)設(shè)計(jì)