chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

探討神經(jīng)網(wǎng)絡基本架構(gòu):單元/神經(jīng)元、連接/權(quán)重/參數(shù)、偏置項

454398 ? 來源:機器之心 ? 作者:機器之心 ? 2020-10-08 00:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

神經(jīng)網(wǎng)絡(NN)幾乎可以在每個領域幫助我們用創(chuàng)造性的方式解決問題。本文將介紹神經(jīng)網(wǎng)絡的相關(guān)知識。讀后你將對神經(jīng)網(wǎng)絡有個大概了解,它是如何工作的?如何創(chuàng)建神經(jīng)網(wǎng)絡?

神經(jīng)網(wǎng)絡的發(fā)展歷史

神經(jīng)網(wǎng)絡起源于 WarrenMcCulloch 和 Walter Pitts 于 1943 年首次建立的神經(jīng)網(wǎng)絡模型。他們的模型完全基于數(shù)學和算法,由于缺乏計算資源,模型無法測試。

后來,在 1958 年,F(xiàn)rank Rosenblatt 創(chuàng)建了第一個可以進行模式識別的模型,改變了現(xiàn)狀。即感知器。但是他只提出了 notation 和模型。實際的神經(jīng)網(wǎng)絡模型仍然無法測試,此前的相關(guān)研究也較少。

第一批可以測試并具有多個層的神經(jīng)網(wǎng)絡于 1965 年由 Alexey Ivakhnenko 和 Lapa 創(chuàng)建。

之后,由于機器學習模型具有很強可行性,神經(jīng)網(wǎng)絡的研究停滯不前。很多人認為這是因為 Marvin Minsky 和 Seymour Papert 在 1969 年完成的書《感知機》(Perceptrons)導致的。

然而,這個停滯期相對較短。6 年后,即 1975 年,Paul Werbos 提出反向傳播,解決了 XOR 問題,并且使神經(jīng)網(wǎng)絡的學習效率更高。

1992 年,最大池化(max-pooling)被提出,這有助于 3D 目標識別,因為它具備平移不變性,對變形具備一定魯棒性。

2009 年至 2012 年間,JürgenSchmidhuber 研究小組創(chuàng)建的循環(huán)神經(jīng)網(wǎng)絡和深度前饋神經(jīng)網(wǎng)絡獲得了模式識別和機器學習領域 8 項國際競賽的冠軍。

2011 年,深度學習神經(jīng)網(wǎng)絡開始將卷積層與最大池化層合并,然后將其輸出傳遞給幾個全連接層,再傳遞給輸出層。這些被稱為卷積神經(jīng)網(wǎng)絡。

在這之后還有更多的研究。

什么是神經(jīng)網(wǎng)絡?

了解神經(jīng)網(wǎng)絡的一個好方法是將它看作復合函數(shù)。你輸入一些數(shù)據(jù),它會輸出一些數(shù)據(jù)。

3 個部分組成了神經(jīng)網(wǎng)絡的的基本架構(gòu):

  • 單元/神經(jīng)元
  • 連接/權(quán)重/參數(shù)
  • 偏置項

你可以把它們看作建筑物的「磚塊」。根據(jù)你希望建筑物擁有的功能來安排磚塊的位置。水泥是權(quán)重。無論權(quán)重多大,如果沒有足夠的磚塊,建筑物還是會倒塌。然而,你可以讓建筑以最小的精度運行(使用最少的磚塊),然后逐步構(gòu)建架構(gòu)來解決問題。

我將在后面的章節(jié)中更多地討論權(quán)重、偏置項和單元。

單元/神經(jīng)元

作為神經(jīng)網(wǎng)絡架構(gòu)三個部分中最不重要的部分,神經(jīng)元是包含權(quán)重和偏置項的函數(shù),等待數(shù)據(jù)傳遞給它們。接收數(shù)據(jù)后,它們執(zhí)行一些計算,然后使用激活函數(shù)將數(shù)據(jù)限制在一個范圍內(nèi)(多數(shù)情況下)。

我們將這些單元想象成一個包含權(quán)重和偏置項的盒子。盒子從兩端打開。一端接收數(shù)據(jù),另一端輸出修改后的數(shù)據(jù)。數(shù)據(jù)首先進入盒子中,將權(quán)重與數(shù)據(jù)相乘,再向相乘的數(shù)據(jù)添加偏置項。這是一個單元,也可以被認為是一個函數(shù)。該函數(shù)與下面這個直線方程類似:

想象一下有多個直線方程,超過 2 個可以促進神經(jīng)網(wǎng)絡中的非線性。從現(xiàn)在開始,你將為同一個數(shù)據(jù)點(輸入)計算多個輸出值。這些輸出值將被發(fā)送到另一個單元,然后神經(jīng)網(wǎng)絡會計算出最終輸出值。

權(quán)重/參數(shù)/連接

作為神經(jīng)網(wǎng)絡最重要的部分,這些(和偏置項)是用神經(jīng)網(wǎng)絡解決問題時必須學習的數(shù)值。這就是你現(xiàn)在需要知道的。

偏置項

這些數(shù)字代表神經(jīng)網(wǎng)絡認為其在將權(quán)重與數(shù)據(jù)相乘之后應該添加的內(nèi)容。當然,它們經(jīng)常出錯,但神經(jīng)網(wǎng)絡隨后也學習到最佳偏置項。

超參數(shù)

超參數(shù)必須手動設置。如果將神經(jīng)網(wǎng)絡看作一臺機器,那么改變機器行為的 nob 就是神經(jīng)網(wǎng)絡的超參數(shù)。

你可以閱讀我的另一篇文章(https://towardsdatascience.com/gas-and-nns-6a41f1e8146d),了解如何優(yōu)化神經(jīng)網(wǎng)絡超參數(shù)。

激活函數(shù)

也稱為映射函數(shù)(mapping function)。它們在 x 軸上輸入數(shù)據(jù),并在有限的范圍內(nèi)(大部分情況下)輸出一個值。大多數(shù)情況下,它們被用于將單元的較大輸出轉(zhuǎn)換成較小的值。你選擇的激活函數(shù)可以大幅提高或降低神經(jīng)網(wǎng)絡的性能。如果你喜歡,你可以為不同的單元選擇不同的激活函數(shù)。

以下是一些常見的激活函數(shù):

  • Sigmoid


Sigmoid 函數(shù)
  • Tanh


tanh 函數(shù)
  • ReLU:修正線性單元


修正線性單元函數(shù)
  • Leaky ReLU


Leaky ReLU 函數(shù)

這是神經(jīng)網(wǎng)絡在任何問題中都可獲得復雜度的原因。增加層(具備單元)可增加神經(jīng)網(wǎng)絡輸出的非線性。

每個層都包含一定數(shù)量的單元。大多數(shù)情況下單元的數(shù)量完全取決于創(chuàng)建者。但是,對于一個簡單的任務而言,層數(shù)過多會增加不必要的復雜性,且在大多數(shù)情況下會降低其準確率。反之亦然。

每個神經(jīng)網(wǎng)絡有兩層:輸入層和輸出層。二者之間的層稱為隱藏層。下圖所示的神經(jīng)網(wǎng)絡包含一個輸入層(8 個單元)、一個輸出層(4 個單元)和 3 個隱藏層(每層包含 9 個單元)。

深度神經(jīng)網(wǎng)絡

具有兩個或更多隱藏層且每層包含大量單元的神經(jīng)網(wǎng)絡稱為深度神經(jīng)網(wǎng)絡,它催生了深度學習這一新的學習領域。上圖所示神經(jīng)網(wǎng)絡就是這樣一個例子。

神經(jīng)網(wǎng)絡學習時發(fā)生了什么?

教神經(jīng)網(wǎng)絡解決問題的最常見方式是使用梯度下降。梯度下降相關(guān)內(nèi)容,參見:https://hackernoon.com/gradient-descent-aynk-7cbe95a778da。

除梯度下降外,另一種常見的訓練神經(jīng)網(wǎng)絡方法是使用反向傳播。使用這種方法,神經(jīng)網(wǎng)絡輸出層的誤差會通過微積分中的鏈式規(guī)則向后傳播。這對于沒有微積分知識的初學者來說可能會難以理解,但也不要被嚇倒,反向傳播相關(guān)內(nèi)容,推薦閱讀:http://neuralnetworksanddeeplearning.com/chap2.html。

訓練神經(jīng)網(wǎng)絡有許多注意事項。但對于初學者來說,沒有必要在一篇文章中了解全部。

實現(xiàn)細節(jié)(如何管理項目中的所有因素)

為了解釋如何管理項目中的所有因素,我創(chuàng)建了一個 Jupyter Notebook,包含一個學習 XOR 邏輯門的小型神經(jīng)網(wǎng)絡。Jupyter Notebook 地址:https://github.com/Frixoe/xor-neural-network/blob/master/XOR-Net-Noteboo...

在查看并理解 Notebook 內(nèi)容后,你應該對如何構(gòu)建基礎神經(jīng)網(wǎng)絡有一個大致的了解。

Notebook 創(chuàng)建的神經(jīng)網(wǎng)絡的訓練數(shù)據(jù)以矩陣排列,這是常見的數(shù)據(jù)排列方式。不同項目中的矩陣維度可能會有所不同。

大量數(shù)據(jù)通常分為兩類:訓練數(shù)據(jù)(60%)和測試數(shù)據(jù)(40%)。神經(jīng)網(wǎng)絡先使用訓練數(shù)據(jù),然后在測試數(shù)據(jù)上測試網(wǎng)絡的準確率。

關(guān)于神經(jīng)網(wǎng)絡的更多信息(更多資源鏈接)

如果你仍然無法理解神經(jīng)網(wǎng)絡,那么推薦以下資源:

YouTube:

Siraj Raval (https://www.youtube.com/channel/UCWN3xxRkmTPmbKwht9FuE5A)

3Blue1Brown (https://www.youtube.com/channel/UCYO_jab_esuFRV4b17AJtAw)

The Coding Train (https://www.youtube.com/playlist?list=PLRqwX-V7Uu6aCibgK1PTWWu9by6XFdCfh)

Brandon Rohrer (https://www.youtube.com/channel/UCsBKTrp45lTfHa_p49I2AEQ)

giant_neural_network (https://www.youtube.com/channel/UCrBzGHKmGDcwLFnQGHJ3XYg)

Hugo Larochelle (https://www.youtube.com/channel/UCiDouKcxRmAdc5OeZdiRwAg)

Jabrils (https://www.youtube.com/channel/UCQALLeQPoZdZC4JNUboVEUg)

Luis Serrano (https://www.youtube.com/channel/UCgBncpylJ1kiVaPyP-PZauQ)

Coursera:

Neural Networks for Machine Learning (https://www.coursera.org/learn/neural-networks) by University of Toronto

Deep Learning Specialization (https://www.coursera.org/specializations/deep-learning) by Andrew Ng

Introduction to Deep Learning (https://www.coursera.org/learn/intro-to-deep-learning) by National Research University Higher School of Economics

編輯:hfy


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關(guān)注

    42

    文章

    4840

    瀏覽量

    108119
  • 卷積
    +關(guān)注

    關(guān)注

    0

    文章

    95

    瀏覽量

    19030
  • 神經(jīng)元
    +關(guān)注

    關(guān)注

    1

    文章

    369

    瀏覽量

    19190
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5603

    瀏覽量

    124603
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    神經(jīng)網(wǎng)絡的初步認識

    日常生活中的智能應用都離不開深度學習,而深度學習則依賴于神經(jīng)網(wǎng)絡的實現(xiàn)。什么是神經(jīng)網(wǎng)絡?神經(jīng)網(wǎng)絡的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大腦中神經(jīng)
    的頭像 發(fā)表于 12-17 15:05 ?434次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡</b>的初步認識

    神經(jīng)元設備和腦機接口有何淵源?

    HUIYING神經(jīng)元設備的發(fā)展歷程概述神經(jīng)元設備的發(fā)展經(jīng)歷了從基礎信號檢測到多功能智能集成的演進過程。自1920年代腦電圖(EEG)信號首次被發(fā)現(xiàn)以來,神經(jīng)電極技術(shù)逐步發(fā)展,如1957年出現(xiàn)的鎢微絲
    的頭像 發(fā)表于 11-03 18:03 ?1602次閱讀
    <b class='flag-5'>神經(jīng)元</b>設備和腦機接口有何淵源?

    NMSISI庫的使用

    :   神經(jīng)網(wǎng)絡卷積函數(shù)   神經(jīng)網(wǎng)絡激活函數(shù)   全連接層函數(shù)   神經(jīng)網(wǎng)絡池化函數(shù)   Softmax 函數(shù)   神經(jīng)網(wǎng)絡支持功能
    發(fā)表于 10-29 07:07

    NMSIS神經(jīng)網(wǎng)絡庫使用介紹

    :   神經(jīng)網(wǎng)絡卷積函數(shù)   神經(jīng)網(wǎng)絡激活函數(shù)   全連接層函數(shù)   神經(jīng)網(wǎng)絡池化函數(shù)   Softmax 函數(shù)   神經(jīng)網(wǎng)絡支持功能
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡模型并優(yōu)化的一般化建議

    :Dropout層隨機跳過神經(jīng)網(wǎng)絡模型中某些神經(jīng)元之間的連接,通過隨機制造缺陷進行訓練提升整個神經(jīng)網(wǎng)絡的魯棒性。 6)指定合理的學習率策略:一旦
    發(fā)表于 10-28 08:02

    脈沖神經(jīng)元模型的硬件實現(xiàn)

    ;其中配置信息通過 APB 接口配置到神經(jīng)元狀態(tài)存儲模塊和突觸存儲模塊,對神 經(jīng)核使用的神經(jīng)元模型參數(shù),突觸權(quán)重,神經(jīng)元個數(shù)等
    發(fā)表于 10-24 08:27

    SNN加速器內(nèi)部神經(jīng)元數(shù)據(jù)連接方式

    的數(shù)量級,而且生物軸突的延遲和神經(jīng)元的時間常數(shù)比數(shù)字電路的傳播和轉(zhuǎn)換延遲要大得多,AER 的工作方式和神經(jīng)網(wǎng)絡的特點相吻合,所以受生物啟發(fā)的神經(jīng)形態(tài)處理器中的NoC或SNN加速器通常使用AER協(xié)議來進行
    發(fā)表于 10-24 07:34

    在Ubuntu20.04系統(tǒng)中訓練神經(jīng)網(wǎng)絡模型的一些經(jīng)驗

    , batch_size=512, epochs=20)總結(jié) 這個核心算法中的卷積神經(jīng)網(wǎng)絡結(jié)構(gòu)和訓練過程,是用來對MNIST手寫數(shù)字圖像進行分類的。模型將圖像作為輸入,通過卷積和池化層提取圖像的特征,然后通過全連接層進行分類預測。訓練過程中,模型通過最小化損失函數(shù)來優(yōu)化
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡量化后,需要將神經(jīng)網(wǎng)絡部署到硬件加速器上。首先需要將所有權(quán)重數(shù)據(jù)以及輸入數(shù)據(jù)導入到存儲器內(nèi)。 在仿真環(huán)境下,可將其存于一個文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(LNN):時間連續(xù)性與動態(tài)適應性的神經(jīng)網(wǎng)絡

    神經(jīng)元,但卻能產(chǎn)生復雜的行為。受此啟發(fā),與傳統(tǒng)的神經(jīng)網(wǎng)絡相比,LNN旨在通過模擬大腦中神經(jīng)元之間的動態(tài)連接來處理信息,這種網(wǎng)絡能夠順序處理數(shù)
    的頭像 發(fā)表于 09-28 10:03 ?1508次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡</b>(LNN):時間連續(xù)性與動態(tài)適應性的<b class='flag-5'>神經(jīng)網(wǎng)絡</b>

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+神經(jīng)形態(tài)計算、類腦芯片

    是 AI芯片發(fā)展的重要方向。如果利用超導約瑟夫森結(jié)(JJ)來模擬與實時突觸電路相連的神經(jīng)元,神經(jīng)網(wǎng)絡運行的速度要比目前的數(shù)字或模擬技術(shù)提升幾個數(shù)量級。 1、超低溫類腦芯片 JJ: QPSJ: SNW
    發(fā)表于 09-17 16:43

    無刷直流電機單神經(jīng)元自適應智能控制系統(tǒng)

    常規(guī)PID,大大提高了系統(tǒng)的跟隨性,能滿足BLDCM系統(tǒng)對實時性的要求。 純分享帖,點擊下方附件免費獲取完整資料~~~ *附件:無刷直流電機單神經(jīng)元自適應智能控制系統(tǒng).pdf 【免責聲明】本文系網(wǎng)絡轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請第一
    發(fā)表于 06-26 13:36

    無刷直流電機單神經(jīng)元PI控制器的設計

    摘要:研究了一種基于專家系統(tǒng)的單神經(jīng)元PI控制器,并將其應用于無刷直流電機調(diào)速系統(tǒng)中??刂破鲗崿F(xiàn)了PI參數(shù)的在線調(diào)整,在具有PID控制器良好動態(tài)性能的同時,減少微分對系統(tǒng)穩(wěn)態(tài)運行時的影響,并較好
    發(fā)表于 06-26 13:34

    無刷電機小波神經(jīng)網(wǎng)絡轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學模型的推導,得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡來實現(xiàn)轉(zhuǎn)角預測,并采用改進遺傳算法來訓練網(wǎng)絡結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    基于FPGA搭建神經(jīng)網(wǎng)絡的步驟解析

    本文的目的是在一個神經(jīng)網(wǎng)絡已經(jīng)通過python或者MATLAB訓練好的神經(jīng)網(wǎng)絡模型,將訓練好的模型的權(quán)重偏置文件以TXT文件格式導出,然后通過python程序?qū)xt文件轉(zhuǎn)化為coe
    的頭像 發(fā)表于 06-03 15:51 ?1479次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的步驟解析