chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么卷積神經(jīng)網(wǎng)絡(luò)可以做到不變性特征提取?

新機器視覺 ? 來源:OpenCV學(xué)堂 ? 作者:OpenCV學(xué)堂 ? 2021-05-20 10:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

圖像特征

傳統(tǒng)的圖像特征提?。ㄌ卣鞴こ蹋┲饕腔诟鞣N先驗?zāi)P停ㄟ^提取圖像關(guān)鍵點、生成描述子特征數(shù)據(jù)、進行數(shù)據(jù)匹配或者機器學(xué)習(xí)方法對特征數(shù)據(jù)二分類/多分類實現(xiàn)圖像的對象檢測與識別。卷積神經(jīng)網(wǎng)絡(luò)通過計算機自動提取特征(表示工程)實現(xiàn)圖像特征的提取與抽象,通過MLP實現(xiàn)數(shù)據(jù)的回歸與分類。二者提取的特征數(shù)據(jù)都具不變性特征。

卷積神經(jīng)網(wǎng)絡(luò)為什么能提取到圖像特征,其關(guān)鍵在于卷積神經(jīng)網(wǎng)絡(luò)有兩種不同類型的層

-卷積層(convolution layers/detection layers)

-池化層(pooling layers)

卷積層

卷積層是一系列濾波器集合(filters set)、它的輸出結(jié)果被稱為特征映射(feature maps),每個feature map都一個filter在圖像上卷積得到的輸出。一般情況下都會輸出結(jié)果加線性修正,對卷積層常用就是ReLU

2d64cf44-b4a9-11eb-bf61-12bb97331649.png

這樣做的好處是:

卷積是一個線性操作,我們需要一個非線性組合,否則兩個卷積卷積層還不如一個卷積層

兩個相反方向的邊緣不應(yīng)該被取消

使圖像梯度值更加的稀疏、有助于提高反向傳播的效果

假設(shè)灰度輸入圖像,有兩個filter,卷積層生成過程如下所示:

假設(shè)灰度輸入圖像,有兩個filter,卷積層生成過程如下所示:

2d7ddbf6-b4a9-11eb-bf61-12bb97331649.jpg

膨脹卷積

通常我們常見的卷積層操作使用的filter都是基于連續(xù)鄰近像素的,除了這種卷積filter之后另外還有一張卷積filter被稱為膨脹卷積,其算子的分布更加的稀疏,圖示如下:

2daca210-b4a9-11eb-bf61-12bb97331649.jpg

膨脹卷積在不增加網(wǎng)絡(luò)總參數(shù)的情況下,提升每個感受野的尺度大小。

1x1卷積

1x1的卷積首次使用是在Network In Network網(wǎng)絡(luò)模型中,后來受到越來越多的關(guān)注,在一般情況下我們的卷積是2D的,1x1的卷積操作是毫無意義的,但是對卷積神經(jīng)網(wǎng)絡(luò)來說,它的卷積層是三維的,所以1x1的卷積操作是有意義的。

卷積層大小計算

對于一個輸入大小WxW的feature map,假設(shè)Filter的大小位FxF,卷積時填充邊緣P個像素、卷積步長(stride)為S則輸出的大小為:

2df5cde6-b4a9-11eb-bf61-12bb97331649.png

在多數(shù)深度學(xué)習(xí)框架中支持兩種輸出大小計算:

padding = “same”

意味著使用填充邊緣的方式,輸出大小與輸入的feature map大小保持不變

padding = “valid”

意味著不使用邊緣填充,即P=0此時輸出大小為:

2e20e58a-b4a9-11eb-bf61-12bb97331649.png

池化層

在卷積層提取到的特征數(shù)據(jù)不具備空間不變性(尺度與遷移不變性特征),只有通過了池化層之后才會具備空間不變性特征。池化層是針對每個feature map進行池化操作,池化操作的窗口大小可以指定為任意尺寸,主要有兩種類型的池化操作

-下采樣池化(均值池化)

-最大值池化

下采樣池化

2e2d8272-b4a9-11eb-bf61-12bb97331649.png

對每個窗口大小取均值,然后乘以標(biāo)量beta加上我們增益偏置b的輸出

最大值池化

2e48523c-b4a9-11eb-bf61-12bb97331649.png

無論是選擇哪種池化方式都會輸出一個新低分辨率feature map,多數(shù)時候這個過程中會包含一定的信息損失,所以卷積神經(jīng)網(wǎng)絡(luò)一般通過擴展深度(增加feature map的數(shù)量)來補償。

重疊窗口與稀疏窗口

在進行池化的時候我們?nèi)绻x擇步長=1進行池化,通過這樣的池化方式輸出的結(jié)果我們稱為重疊池化輸出,它不利于特征的稀疏生成,重疊窗口池化與均值池化都有這樣的缺點,所以經(jīng)常采樣的是最大值池化,同時不會進行窗口重疊,有實驗結(jié)果表明,在卷積層保持相同feature map與參數(shù)的情況下,最大值池化的結(jié)果明顯優(yōu)于重疊池化與均值池化,而且網(wǎng)絡(luò)的深度越深,兩者之間的準(zhǔn)確度差異越大。

總結(jié)

最終卷積神經(jīng)網(wǎng)絡(luò)經(jīng)過池化層操作對單位像素遷移和亮度影響進行了校正,做到了圖像的遷移與亮度不變性的特征提取、而且在池化過程中通過不斷的降低圖像分辨率,構(gòu)建了圖像的多尺度特征,所以還具備尺度空間不變性,完成了圖像不變性特征提取工作。

原文標(biāo)題:卷積神經(jīng)網(wǎng)絡(luò)是如何實現(xiàn)不變性特征提取的?

文章出處:【微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:卷積神經(jīng)網(wǎng)絡(luò)是如何實現(xiàn)不變性特征提取的?

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大腦中神經(jīng)
    的頭像 發(fā)表于 12-17 15:05 ?282次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個啥?

    在自動駕駛領(lǐng)域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見,因為圖像本身就
    的頭像 發(fā)表于 11-19 18:15 ?2060次閱讀
    自動駕駛中常提的<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個啥?

    一些神經(jīng)網(wǎng)絡(luò)加速器的設(shè)計優(yōu)化方案

    特征圖保留不變,完成和所有相關(guān)卷積核點積以后再加載,最多復(fù)用 R*R*M 次。 3.不同網(wǎng)絡(luò)模型的效果 如圖所示,后者相對于前者,減少了連線資源和復(fù)雜度。 4.DNN加速器
    發(fā)表于 10-31 07:14

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計原理及在MCU200T上仿真測試

    CNN算法簡介 我們硬件加速器的模型為Lenet-5的變型,網(wǎng)絡(luò)粗略分共有7層,細(xì)分共有13層。包括卷積,最大池化層,激活層,扁平層,全連接層。下面是各層作用介紹: 卷積層:提取
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接層函數(shù)   神經(jīng)網(wǎng)絡(luò)池化函數(shù)   Softmax 函數(shù)   神經(jīng)網(wǎng)絡(luò)支持功能
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    整個模型非常巨大。所以要想實現(xiàn)輕量級的CNN神經(jīng)網(wǎng)絡(luò)模型,首先應(yīng)該避免嘗試單層神經(jīng)網(wǎng)絡(luò)。 2)減少卷積核的大?。篊NN神經(jīng)網(wǎng)絡(luò)是通過權(quán)值共享的方式,利用
    發(fā)表于 10-28 08:02

    卷積運算分析

    的數(shù)據(jù),故設(shè)計了ConvUnit模塊實現(xiàn)單個感受域規(guī)模的卷積運算. 卷積運算:不同于數(shù)學(xué)當(dāng)中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡(luò)中的卷積嚴(yán)格意義
    發(fā)表于 10-28 07:31

    NMSIS庫的使用

    nmsis core、nmsis dsp和nmsis nn三個組件,分別提供了對處理器核心和外設(shè)、數(shù)字信號處理庫和神經(jīng)網(wǎng)絡(luò)內(nèi)核的支持。 卷積、激活、池化是卷積神經(jīng)網(wǎng)絡(luò)中常用的三種操作,
    發(fā)表于 10-24 09:58

    如何通過地址生成器實現(xiàn)神經(jīng)網(wǎng)絡(luò)特征圖的padding?

    對于SiamFC網(wǎng)絡(luò)結(jié)構(gòu),我們設(shè)計的卷積核寬度為3*3,卷積步長為1,則經(jīng)卷積過后,特征圖寬度會減少2,為了滿足我們所設(shè)計的pe陣列的計算要
    發(fā)表于 10-22 08:15

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    , batch_size=512, epochs=20)總結(jié) 這個核心算法中的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練過程,是用來對MNIST手寫數(shù)字圖像進行分類的。模型將圖像作為輸入,通過卷積和池化層提取
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    讀取。接下來需要使用擴展指令,完成神經(jīng)網(wǎng)絡(luò)的部署,此處僅對第一層卷積+池化的部署進行說明,其余層與之類似。 1.使用 Custom_Dtrans 指令,將權(quán)重數(shù)據(jù)、輸入數(shù)據(jù)導(dǎo)入硬件加速器內(nèi)。對于權(quán)重
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1130次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    卷積神經(jīng)網(wǎng)絡(luò)如何監(jiān)測皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡(luò)
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個神經(jīng)網(wǎng)絡(luò)已經(jīng)通過python或者MATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1143次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    自動駕駛感知系統(tǒng)中卷積神經(jīng)網(wǎng)絡(luò)原理的疑點分析

    背景 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)的核心技術(shù)主要包括以下幾個方面:局部連接、權(quán)值共享、多卷積核以及池化。這些技術(shù)共同作用,使得CNN在圖像
    的頭像 發(fā)表于 04-07 09:15 ?831次閱讀
    自動駕駛感知系統(tǒng)中<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>原理的疑點分析