chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何透徹理解卷積的數(shù)據(jù)原理與機(jī)制

新機(jī)器視覺 ? 來源:極市平臺 ? 作者:極市平臺 ? 2021-06-16 16:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者以拋球?qū)嶒?yàn)為例講解了許多卷積的數(shù)學(xué)原理和機(jī)制,并通過卷積來表述卷積神經(jīng)網(wǎng)絡(luò)。文章附有大量圖片解釋,幫助大家更容易理解。

拋球?qū)嶒?yàn) -- Ball drop experiment

想象一下,我們把一個球從某個高度落到地面上,它只有一個運(yùn)動維度。如果你把球落下,然后再從它的落點(diǎn)上方把它落下,球會走一段距離 的可能性有多大?

我們來分析一下: 第一次下落后,它將以概率 落在離起點(diǎn)一個單位的地方,其中是概率分布?,F(xiàn)在,在第一次落下之后,我們把球撿起來,從它第一次落地點(diǎn)以上的另一個高度落下。球從新的起點(diǎn)滾動 個單位的概率是 ,如果它是從不同的高度落下的,那么 可能是不同的概率分布。

如果我們把第一次下落的結(jié)果固定下來,使我們知道球走了距離 ,對于球走的總距離 ,第二次下落時走的距離也固定為 ,即 。所以這種情況發(fā)生的概率簡單來說就是 。。

我們用一個具體的離散例子來思考這個問題。我們希望總距離 為 3。如果它第一次滾動,,那么第二次必須滾動 ,才能達(dá)到我們的總距離 。這個概率是 。

然而,這并不是我們可以達(dá)到總距離3的唯一方法。球可以第一次滾1個單位,第二次滾2個單位。或者第一次滾0個單位,第二次滾3個單位。它可以是任何 和 ,只要他們加起來是 3。

為了求出小球到達(dá)總 的總概率,我們不能只考慮到達(dá) 的一種可能方式,而是考慮將 分成 和 的所有可能方式,并將每種方式的概率相加。

我們已經(jīng)知道, 的每一種情況的概率簡單來說就是 。所以,將 的每一個解求和,我們可以將總似然表示為。

和 的卷積,在 處被定義為。

如果我們把代入,我們得到。

為了使這一點(diǎn)更加具體,我們可以從球可能落地的位置來考慮。在第一次落地后,它將以概率 落在中間位置 。如果它落在 處,它落在 處的概率為 。

為了得到卷積,我們需要考慮所有的中間位置。

可視化卷積 -- Visualizing Convolutions

假設(shè)一個球落在離原點(diǎn)一定距離 的概率是。那么,它 從 處返回原點(diǎn)的的概率是。

如果我們知道球在第二次落地后落在 處,那么第一次的位置是 的概率是多少?

所以,前一個位置是 的概率是 。

每個中間位置球最終落在 處的概率。我們知道第一個落點(diǎn)把球放到中間位置 的概率是 。我們還知道,如果它落在 處,它在 處的概率是 。

將 的所有可能值相加,我們得到卷積結(jié)果。

通過移動下半部分,當(dāng)分布對齊時,卷積達(dá)到峰值。

并且隨著分布之間的交點(diǎn)越來越小而縮小。

下圖,我們能夠直觀地看到三角波與方波函數(shù)的卷積。

759a0278-cab3-11eb-9e57-12bb97331649.jpg

掌握了這個要點(diǎn),很多概念變得更加直觀。

音頻處理中有時會用到卷積。例如,人們可能會使用一個有兩個尖峰,但其他地方都是零的函數(shù)來創(chuàng)建一個回聲。當(dāng)我們的雙尖峰函數(shù)滑動時,一個尖峰首先擊中一個時間點(diǎn),將該信號添加到輸出聲音中,之后,另一個尖峰跟隨,添加第二個延遲的副本。

高維卷積--Higher Dimensional Convolutions

卷積不僅僅適用于1維看空間,也適用于高維空間。

回顧開頭的例子,落下的球?,F(xiàn)在,當(dāng)它落下時,它的位置不僅在一維中移動,而且在二維中移動。

和前面的卷積一樣。

只是,現(xiàn)在 , , 和 都是向量。更明確地說,

標(biāo)準(zhǔn)定義:

就像一維卷積一樣,我們可以把二維卷積看成是把一個函數(shù)滑動到另一個函數(shù)之上,進(jìn)行乘法和加法。

卷積神經(jīng)網(wǎng)絡(luò)--Convolutional Neural Networks

那么,卷積與卷積神經(jīng)網(wǎng)絡(luò)的關(guān)系如何呢?

在一個1維卷積層中,輸入 ,輸出 。

從信號與系統(tǒng)的角度來描述,

是輸入信號,是輸出信號, 是系統(tǒng),這個系統(tǒng)由 個神經(jīng)元組成,可以用輸入來描述輸出。

也可以用神經(jīng)網(wǎng)絡(luò)的方式來描述

其中 是輸入, 是權(quán)重。權(quán)重描述了神經(jīng)元與輸入的連接方式。

負(fù)的權(quán)重意味著輸入會抑制神經(jīng)元發(fā)射,而正的權(quán)重則鼓勵它發(fā)射。

權(quán)重是神經(jīng)元的心臟,控制著它的行為。如果說2個神經(jīng)元是相同的,即它們的權(quán)重是相同的。

其中一個常見的應(yīng)用是圖像處理。我們可以把圖像看作是二維函數(shù)。許多重要的圖像變換都是卷積,你用一個非常小的局部函數(shù)(稱為 “內(nèi)核”)對圖像函數(shù)進(jìn)行卷積。

在上面的演示中,綠色部分類似于我們的 5x5x1 輸入圖像 。在卷積層的第一部分進(jìn)行卷積操作的元素被稱為Kernel/Filter, 用黃色表示。我們選擇一個3x3x1矩陣作為Kernel。

Kernel 以一定的步伐向右移動,直到它解析出整行的寬度。接著,它以相同的步伐值跳到圖像的開頭(左邊),并重復(fù)這個過程,直到遍歷整個圖像。

在多通道圖像的情況下( 如RGB ),Kernel 的深度與輸入圖像的深度相同。Kernel 與圖片 進(jìn)行矩陣乘法,然后將所有結(jié)果與偏置相加,得到一個單通道卷積特征輸出。

卷積操作的目的是從輸入圖像中提取高級特征,如邊緣。傳統(tǒng)上,卷積層可以捕捉低級特征,如邊緣、顏色、梯度方向等。隨著層數(shù)的增加,架構(gòu)也可以捕捉高階特征,讓我們的神經(jīng)網(wǎng)絡(luò)對圖像有更深刻的理解。

該卷積有兩種結(jié)果--一種是卷積特征與輸入相比維度減少,有效填充(Valide Padding)。另一種是維度增加或保持不變,相同填充(Same Padding)。

當(dāng)我們將5x5x1的圖像填充為6x6x1的圖像,然后在其上應(yīng)用3x3x1的核,我們發(fā)現(xiàn)卷積矩陣變成了5x5x1的尺寸。因此,我們將其命名為--相同填充(Same Padding)。

另一方面,如果我們在沒有填充的情況下執(zhí)行同樣的操作,我們將得到一個具有內(nèi)核(3x3x1)本身尺寸的矩陣--有效填充(Valide Padding)。

池化層 -- Pooling Layer

與卷積層類似,Pooling層負(fù)責(zé)減少卷積特征的空間大小。這是為了通過降低維度來降低處理數(shù)據(jù)所需的計(jì)算能力。此外,它還有助于提取旋轉(zhuǎn)和位置不變的主導(dǎo)特征,從而保持模型的有效訓(xùn)練過程。下圖表示在5x5卷積特征上的3x3池化。

有兩種類型的池化。最大池化和平均池化。最大池化(Max Pooling)返回的是Kernel覆蓋的圖像部分的最大值。另一方面,平均池化(Average Pooling)返回Kernel覆蓋的圖像部分的所有值的平均值。

Max Pooling也是一種噪聲抑制器。它完全丟棄了嘈雜的激活,并在降低維度的同時進(jìn)行去噪。另一方面,Average Pooling只是作為噪聲抑制機(jī)制進(jìn)行維度降低。因此,我們可以說Max Pooling的性能比Average Pooling好很多。

卷積層和池化層,共同構(gòu)成了卷積神經(jīng)網(wǎng)絡(luò)的第層。根據(jù)圖像的復(fù)雜程度,可以增加這些層的數(shù)量,以便進(jìn)一步捕捉低層次的細(xì)節(jié),但代價是增加計(jì)算能力。

在經(jīng)歷了上述過程后,我們已經(jīng)成功地使模型理解了特征。接下來,我們要將最終的輸出結(jié)果進(jìn)行扁平化處理,并將其饋送到普通的神經(jīng)網(wǎng)絡(luò)中,以達(dá)到分類的目的。

全連接層(FC層) —- Fully Connected Layer (FC Layer)

全連接層正在學(xué)習(xí)該空間中可能的非線性函數(shù)。

現(xiàn)在,我們已經(jīng)將輸入圖像轉(zhuǎn)換為適合多級感知器 (Multi-Level Perceptron) 的形式,我們將把圖像扁平化(Flatten layer)為列向量。扁平化的輸出被送入前饋神經(jīng)網(wǎng)絡(luò),并在每次訓(xùn)練迭代中應(yīng)用反向傳播。在一系列的紀(jì)元中,該模型能夠區(qū)分圖像中的主導(dǎo)特征和某些低級特征,并使用Softmax分類方法對其進(jìn)行分類。

總結(jié) -- Conclusion

我們在這篇博文中介紹了很多數(shù)學(xué)機(jī)制,但我們獲得的東西可能并不明顯。卷積顯然是概率論和計(jì)算機(jī)圖形學(xué)中的一個有用工具,但是用卷積來表述卷積神經(jīng)網(wǎng)絡(luò),我們獲得了什么?

第一個好處是,我們有了一些非常強(qiáng)大的語言來描述神經(jīng)網(wǎng)絡(luò)的層。卷積大大簡化了繁瑣的計(jì)算工作。

其次,卷積非常容易實(shí)現(xiàn)?,F(xiàn)存的許多庫都提供了高效的卷積方法。

此外,卷積看起來是一個 操作,但使用一些相當(dāng)深刻的數(shù)學(xué)見解,可以創(chuàng)建一個 的實(shí)現(xiàn)。

Tips:

我們想知道球第一次滾動 單位,第二次滾動 單位的概率。所以 。

卷積滿足交換律,即 。

卷積滿足結(jié)合律的,即,

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 卷積
    +關(guān)注

    關(guān)注

    0

    文章

    95

    瀏覽量

    19032
  • 離散
    +關(guān)注

    關(guān)注

    0

    文章

    35

    瀏覽量

    18074
  • 噪聲抑制器
    +關(guān)注

    關(guān)注

    0

    文章

    3

    瀏覽量

    7360

原文標(biāo)題:如何透徹理解卷積的數(shù)據(jù)原理與機(jī)制:從拋球?qū)嶒?yàn)說起

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    FPGA實(shí)現(xiàn)CNN卷積層的高效窗口生成模塊設(shè)計(jì)與驗(yàn)證

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)可以分為卷積層、池化層、激活層、全鏈接層結(jié)構(gòu),本篇要實(shí)現(xiàn)的,就是CNN的卷積層中的window窗。
    的頭像 發(fā)表于 04-15 10:35 ?136次閱讀
    FPGA實(shí)現(xiàn)CNN<b class='flag-5'>卷積</b>層的高效窗口生成模塊設(shè)計(jì)與驗(yàn)證

    卷積神經(jīng)網(wǎng)絡(luò)如何讓自動駕駛識別障礙物?

    自動駕駛的發(fā)展過程中,感知系統(tǒng)一直承擔(dān)車輛“眼睛”的角色,其核心任務(wù)是讓計(jì)算機(jī)理解復(fù)雜多變的物理世界。卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為一種專門用于處理圖像和視頻等網(wǎng)格狀數(shù)據(jù)結(jié)構(gòu)的深度學(xué)習(xí)模型,已經(jīng)成為自動駕駛感知的基石。
    的頭像 發(fā)表于 04-11 09:59 ?1425次閱讀
    <b class='flag-5'>卷積</b>神經(jīng)網(wǎng)絡(luò)如何讓自動駕駛識別障礙物?

    怎么理解TCP三次握手和四次揮手

    作為運(yùn)維工程師,無論是排查網(wǎng)絡(luò)故障、分析日志,還是配置負(fù)載均衡器,都需要對 TCP 協(xié)議有深入理解。很多"疑難雜癥"的根源,往往在于對 TCP 狀態(tài)轉(zhuǎn)換和連接管理理解不夠透徹。
    的頭像 發(fā)表于 04-10 16:42 ?781次閱讀

    Nginx中Master與Worker進(jìn)程的工作機(jī)制

    Nginx是現(xiàn)代互聯(lián)網(wǎng)架構(gòu)中最常用的Web服務(wù)器和反向代理軟件。很多運(yùn)維工程師使用Nginx多年,卻對其核心架構(gòu)一知半解,配置優(yōu)化時只會機(jī)械地調(diào)整幾個參數(shù)。本文從Nginx進(jìn)程模型出發(fā),深入講解worker進(jìn)程的工作機(jī)制,幫助你理解每個配置參數(shù)背后的原理,實(shí)現(xiàn)真正有效的優(yōu)
    的頭像 發(fā)表于 04-08 14:21 ?108次閱讀

    【量產(chǎn)燒錄】Verify通過還報錯?拆一次CRC校驗(yàn)的實(shí)現(xiàn)機(jī)制就明白問題在哪

    的Verify是哪一種很多人以為“校驗(yàn)”只有一種:燒錄完讀回來和源文件比對,一致就是OK。 實(shí)際上,量產(chǎn)燒錄環(huán)境里的Verify分兩種,機(jī)制完全不同。 第一種:數(shù)據(jù)記錄比對(Verify
    發(fā)表于 02-13 10:10

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個啥?

    在自動駕駛領(lǐng)域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見,因?yàn)閳D像本身就可以看作是由像素排列成的二維網(wǎng)格。
    的頭像 發(fā)表于 11-19 18:15 ?2240次閱讀
    自動駕駛中常提的<b class='flag-5'>卷積</b>神經(jīng)網(wǎng)絡(luò)是個啥?

    一些神經(jīng)網(wǎng)絡(luò)加速器的設(shè)計(jì)優(yōu)化方案

    單元的速度越快,效率越高(存儲空間越?。? 2.CNN中存在數(shù)據(jù)復(fù)用 如圖所示,CNN 滑動卷積: 2D 卷積核和滑動窗口內(nèi) 2D ifmap 點(diǎn)積,每一個卷積核權(quán)重復(fù)用了
    發(fā)表于 10-31 07:14

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測試

    CNN算法簡介 我們硬件加速器的模型為Lenet-5的變型,網(wǎng)絡(luò)粗略分共有7層,細(xì)分共有13層。包括卷積,最大池化層,激活層,扁平層,全連接層。下面是各層作用介紹: 卷積層:提取特征?!安蝗?/div>
    發(fā)表于 10-29 07:49

    卷積運(yùn)算分析

    數(shù)據(jù),故設(shè)計(jì)了ConvUnit模塊實(shí)現(xiàn)單個感受域規(guī)模的卷積運(yùn)算. 卷積運(yùn)算:不同于數(shù)學(xué)當(dāng)中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡(luò)中的卷積嚴(yán)格意義
    發(fā)表于 10-28 07:31

    如何通過地址生成器實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)特征圖的padding?

    ,從而使卷積輸出特征圖結(jié)果滿足我們的需求,這種補(bǔ)零的操作稱之為padding,如下圖所示。 關(guān)于padding的實(shí)現(xiàn),一般有兩種操作,第一種是使用稀疏地址生成器,尋找padding數(shù)據(jù)地址的規(guī)律,當(dāng)
    發(fā)表于 10-22 08:15

    教程來啦!LuatOS中的消息通信機(jī)制詳解及其應(yīng)用場景

    在資源受限的嵌入式環(huán)境中,LuatOS采用消息機(jī)制實(shí)現(xiàn)模塊間解耦與高效通信。通過預(yù)定義消息名稱(如“new_msg”),開發(fā)者可輕松構(gòu)建響應(yīng)式程序結(jié)構(gòu)。接下來我們將深入剖析其實(shí)現(xiàn)原理與典型使用方法
    的頭像 發(fā)表于 09-26 18:59 ?549次閱讀
    教程來啦!LuatOS中的消息通信<b class='flag-5'>機(jī)制</b>詳解及其應(yīng)用場景

    邊聊安全 | 安全芯片的守護(hù)神:BIST機(jī)制的深度解析

    BIST機(jī)制的深度解析寫在前面:在安全芯片的設(shè)計(jì)與驗(yàn)證過程中,工程師常會遇到一個關(guān)鍵概念——BIST(Built-InSelf-Test,內(nèi)置自檢測)。初次接觸這一術(shù)語時,許多人容易將其簡單理解
    的頭像 發(fā)表于 09-05 16:17 ?29次閱讀
    邊聊安全 | 安全芯片的守護(hù)神:BIST<b class='flag-5'>機(jī)制</b>的深度解析

    淺談Sn-Bi-Ag低溫錫膏的晶界強(qiáng)化機(jī)制

    Sn-Bi-Ag低溫錫膏的晶界強(qiáng)化機(jī)制是一個多因素協(xié)同作用的過程,以下從各機(jī)制的具體作用、研究案例及數(shù)據(jù)支持、協(xié)同效應(yīng)三個角度進(jìn)行詳細(xì)闡述:
    的頭像 發(fā)表于 08-13 09:08 ?848次閱讀

    【干貨】數(shù)據(jù)“零處理”,什么是DTU透傳機(jī)制

    概述DTU(數(shù)據(jù)傳輸單元)透傳模式是工業(yè)物聯(lián)網(wǎng)的核心技術(shù),它像一條透明的數(shù)據(jù)管道,不做任何解析或修改,直接將終端設(shè)備的原始字節(jié)流(如傳感器數(shù)據(jù)、PLC指令)通過無線網(wǎng)絡(luò)原樣轉(zhuǎn)發(fā)至服務(wù)器。通俗
    的頭像 發(fā)表于 07-03 19:32 ?1636次閱讀
    【干貨】<b class='flag-5'>數(shù)據(jù)</b>“零處理”,什么是DTU透傳<b class='flag-5'>機(jī)制</b>?

    卷積神經(jīng)網(wǎng)絡(luò)如何監(jiān)測皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡(luò)
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42