怎樣理解非線性變換和多層網(wǎng)絡(luò)后的線性可分,神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)就是學(xué)習(xí)如何利用矩陣的線性變換加激活函數(shù)的非線性變換。
線性可分:
一維情景:以分類為例,當(dāng)要分類正數(shù)、負(fù)數(shù)、零,三類的時候,一維空間的直線可以找到兩個超平面(比當(dāng)前空間低一維的子空間。當(dāng)前空間是直線的話,超平面就是點)分割這三類。但面對像分類奇數(shù)和偶數(shù)無法找到可以區(qū)分它們的點的時候,我們借助 x % 2(除2取余)的轉(zhuǎn)變,把x變換到另一個空間下來比較0和非0,從而分割奇偶數(shù)。
二維情景:平面的四個象限也是線性可分。但下圖的紅藍(lán)兩條線就無法找到一超平面去分割。
神經(jīng)網(wǎng)絡(luò)的解決方法依舊是轉(zhuǎn)換到另外一個空間下,用的是所說的5種空間變換操作。比如下圖就是經(jīng)過放大、平移、旋轉(zhuǎn)、扭曲原二維空間后,在三維空間下就可以成功找到一個超平面分割紅藍(lán)兩線 (同SVM的思路一樣)。
上面是一層神經(jīng)網(wǎng)絡(luò)可以做到的空間變化。若把y?y→ 當(dāng)做新的輸入再次用這5種操作進行第二遍空間變換的話,網(wǎng)絡(luò)也就變?yōu)榱硕?。最終輸出是y?y→=a2(W2?(a1(W1?x→+b1))+b2)。設(shè)想當(dāng)網(wǎng)絡(luò)擁有很多層時,對原始輸入空間的“扭曲力”會大幅增加,如下圖,最終我們可以輕松找到一個超平面分割空間。
當(dāng)然也有如下圖失敗的時候,關(guān)鍵在于“如何扭曲空間”。所謂監(jiān)督學(xué)習(xí)就是給予神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)大量的訓(xùn)練例子,讓網(wǎng)絡(luò)從訓(xùn)練例子中學(xué)會如何變換空間。每一層的權(quán)重WW就控制著如何變換空間,我們最終需要的也就是訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)的所有層的權(quán)重矩陣。。這里有非常棒的可視化空間變換demo,一定要打開嘗試并感受這種扭曲過程。
線性可分視角:神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)就是學(xué)習(xí)如何利用矩陣的線性變換加激活函數(shù)的非線性變換,將原始輸入空間投向線性可分/稀疏的空間去分類/回歸。
增加節(jié)點數(shù):增加維度,即增加線性轉(zhuǎn)換能力。
增加層數(shù):增加激活函數(shù)的次數(shù),即增加非線性轉(zhuǎn)換次數(shù)。
數(shù)學(xué)表達(dá)式
上面數(shù)學(xué)思維角度學(xué)習(xí)了神經(jīng)網(wǎng)絡(luò)的原理。下面推到數(shù)學(xué)表達(dá)式
神經(jīng)網(wǎng)絡(luò)如下圖:
因為每一個節(jié)點都是一個神經(jīng)元。有 Y=a*(W*X+b) a 是激活函數(shù)。w是權(quán)值,b是偏移量。
對于a4有如下

y1有如下的表達(dá)式

所以有如下表達(dá)式:

然后:令

代入上面的的方程得到

再帶入帶入

得到y(tǒng)1 = f(w8*a8)其中w8= [w84 w85 w86 w87 w8b]a = [a4,a5,a6,a7,1]所以對于多次網(wǎng)絡(luò)
可以寫成

訓(xùn)練參數(shù)
因為所有的參數(shù)都不能通過求解獲得,而是根據(jù)不同的輸入和輸出的比較訓(xùn)練出來的,所以都是監(jiān)督學(xué)習(xí)。
結(jié)論:
(這里在下節(jié)會介紹推理過程,為什么要這樣調(diào)整權(quán)值呢?因為原式為:Wji(新)<-Wji(舊)-(步長*(誤差函數(shù)對權(quán)值的偏導(dǎo)數(shù))))

過程如圖:注意里面的變量符號:&
從輸出層到&有如下表達(dá)式:推倒過程下一個節(jié)分析
其中,&是節(jié)i的誤差項,是節(jié)點的輸出值,是樣本對應(yīng)于節(jié)點的目標(biāo)值。舉個例子,根據(jù)上圖,對于輸出層節(jié)點8來說,它的輸出值是,而樣本的目標(biāo)值是,帶入上面的公式得到節(jié)點8的誤差項應(yīng)該是:


同時對于隱含層有

所以有
將③和④合并,然后求出w有
所以有:

有
這個過程叫做BP過程。
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4834瀏覽量
107601 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5597瀏覽量
124330
原文標(biāo)題:深度學(xué)習(xí)——BP神經(jīng)網(wǎng)絡(luò)
文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用
卷積神經(jīng)網(wǎng)絡(luò)—深度卷積網(wǎng)絡(luò):實例探究及學(xué)習(xí)總結(jié)
解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實踐
《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》講義
帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)
《神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)》中文版電子教材免費下載
快速了解神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的教程資料免費下載
3小時學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)課件下載
深度學(xué)習(xí):神經(jīng)網(wǎng)絡(luò)和函數(shù)
深度學(xué)習(xí)與圖神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)分享:Transformer
深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)是什么樣的?
評論