問(wèn)題
卷積神經(jīng)網(wǎng)絡(luò)是一類包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò),是深度學(xué)習(xí)。卷積神經(jīng)網(wǎng)絡(luò)具有表征學(xué)習(xí)能力,能夠按其階層結(jié)構(gòu)對(duì)輸入信息進(jìn)行平移不變分類,因此也被稱為“平移不變?nèi)斯ど窠?jīng)網(wǎng)絡(luò)。
全連接神經(jīng)網(wǎng)絡(luò)是具有多層感知器的的網(wǎng)絡(luò),也就是多層神經(jīng)元的網(wǎng)絡(luò)。層與層之間需要包括一個(gè)非線性激活函數(shù),需要有一個(gè)對(duì)輸入和輸出都隱藏的層,還需要保持高度的連通性,由網(wǎng)絡(luò)的突觸權(quán)重決定。那兩者的區(qū)別是什么呢?
方法
卷積神經(jīng)網(wǎng)絡(luò)也是通過(guò)一層一層的節(jié)點(diǎn)組織起來(lái)的。和全連接神經(jīng)網(wǎng)絡(luò)一樣,卷積神經(jīng)網(wǎng)絡(luò)中的每一個(gè)節(jié)點(diǎn)就是一個(gè)神經(jīng)元。在全連接神經(jīng)網(wǎng)絡(luò)中,每相鄰兩層之間的節(jié)點(diǎn)都有邊相連,于是會(huì)將每一層的全連接層中的節(jié)點(diǎn)組織成一列,這樣方便顯示連接結(jié)構(gòu)。而對(duì)于卷積神經(jīng)網(wǎng)絡(luò),相鄰兩層之間只有部分節(jié)點(diǎn)相連,為了展示每一層神經(jīng)元的維度,一般會(huì)將每一層卷積層的節(jié)點(diǎn)組織成一個(gè)三維矩陣。
除了結(jié)構(gòu)相似,卷積神經(jīng)網(wǎng)絡(luò)的輸入輸出以及訓(xùn)練的流程和全連接神經(jīng)網(wǎng)絡(luò)也基本一致,以圖像分類為列,卷積神經(jīng)網(wǎng)絡(luò)的輸入層就是圖像的原始圖像,而輸出層中的每一個(gè)節(jié)點(diǎn)代表了不同類別的可信度。這和全連接神經(jīng)網(wǎng)絡(luò)的輸入輸出是一致的。類似的,全連接神經(jīng)網(wǎng)絡(luò)的損失函數(shù)以及參數(shù)的優(yōu)化過(guò)程也都適用于卷積神經(jīng)網(wǎng)絡(luò)。因此,全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的唯一區(qū)別就是神經(jīng)網(wǎng)絡(luò)相鄰兩層的連接方式。
但是全神經(jīng)網(wǎng)絡(luò)無(wú)法很好地處理好圖像數(shù)據(jù),然而卷積神經(jīng)網(wǎng)絡(luò)卻很好地客服了這個(gè)缺點(diǎn),使用全連接神經(jīng)網(wǎng)絡(luò)處理圖像的最大問(wèn)題就是:全連接層的參數(shù)太多,對(duì)于MNIST數(shù)據(jù),每一張圖片的大小是28*28*1,其中28*28代表的是圖片的大小,*1表示圖像是黑白的,有一個(gè)色彩通道。假設(shè)第一層隱藏層的節(jié)點(diǎn)數(shù)為500個(gè),那么一個(gè)全連接層的神經(jīng)網(wǎng)絡(luò)有28*28*500+500=392500個(gè)參數(shù),而且有的圖片會(huì)更大或者是彩色的圖片,這時(shí)候參數(shù)將會(huì)更多。參數(shù)增多除了導(dǎo)致計(jì)算速度減慢,還很容易導(dǎo)致過(guò)擬合的問(wèn)題。所以需要一個(gè)合理的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)來(lái)有效的減少神經(jīng)網(wǎng)絡(luò)中參數(shù)的個(gè)數(shù)。卷積神經(jīng)網(wǎng)絡(luò)就可以更好的達(dá)到這個(gè)目的。
|
from keras import layers ![]() |
結(jié)語(yǔ)
全連接網(wǎng)絡(luò)沒(méi)有卷積層,只使用全連接層(以及非線性層)。
以關(guān)鍵是理解卷積層和全連接層的區(qū)別。
全連接層有三個(gè)特點(diǎn):
關(guān)注全局信息(每個(gè)點(diǎn)都和前后層的所有點(diǎn)鏈接)
參數(shù)量巨大,計(jì)算耗時(shí)
輸入維度需要匹配(因?yàn)槭蔷仃囘\(yùn)算,維度不一致無(wú)法計(jì)算)
卷積層
這個(gè)卷積和信號(hào)系統(tǒng)中的卷積不太一樣,其實(shí)就是一個(gè)簡(jiǎn)單的乘加運(yùn)算,
局部鏈接:當(dāng)前層的神經(jīng)元只和下一層神經(jīng)元的局部鏈接(并不是全連接層的全局鏈接)
權(quán)重共享:神經(jīng)元的參數(shù)(如上圖的3*3卷積核),在整個(gè)特征圖上都是共享的,而不是每個(gè)滑動(dòng)窗口都不同
也正是因?yàn)檫@兩個(gè)特性,所以卷積層相比于全連接層有如下優(yōu)點(diǎn):
需要學(xué)習(xí)的參數(shù)更少,從而降低了過(guò)度擬合的可能性,因?yàn)樵撃P筒蝗缤耆B接的網(wǎng)絡(luò)復(fù)雜。
只需要考慮中的上下文/共享信息。這個(gè)未來(lái)在許多應(yīng)用中非常重要,例如圖像、視頻、文本和語(yǔ)音處理/挖掘,因?yàn)橄噜忀斎耄ɡ缦袼?、幀、單詞等)通常攜帶相關(guān)信息。
但需要注意的是,無(wú)論是全連接層,還是卷積層,都是線性層,只能擬合線性函數(shù),所以都需要通過(guò)ReLU等引入非線性,以增加模型的表達(dá)能力。比如ReLU函數(shù)接受一個(gè)輸入x,并返回{0, x}的最大值。ReLU(x) = argmax(x, 0)。
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4830瀏覽量
106925 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5591瀏覽量
123995 -
卷積神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
4文章
371瀏覽量
12756
發(fā)布評(píng)論請(qǐng)先 登錄
全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)有什么區(qū)別
全卷積網(wǎng)絡(luò)FCN進(jìn)行圖像分割
卷積神經(jīng)網(wǎng)絡(luò)中全連接層作用理解總結(jié)
卷積網(wǎng)絡(luò)和全連接網(wǎng)絡(luò)的比較
PyTorch教程14.11之全卷積網(wǎng)絡(luò)

如何區(qū)分卷積網(wǎng)絡(luò)與全連接網(wǎng)絡(luò)

評(píng)論