chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一個基于任務(wù)的深度循環(huán)網(wǎng)絡(luò),加入循環(huán)單元可以解決更困難的視覺問題

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-07-08 09:48 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

編者按:深度卷積神經(jīng)網(wǎng)絡(luò)對視覺系統(tǒng)來說是個不錯的模型,但這些靜態(tài)系統(tǒng)不能解釋現(xiàn)實視覺反應(yīng)中的短暫動態(tài)行為。于是神經(jīng)科學家們建造了一個基于任務(wù)的深度循環(huán)網(wǎng)絡(luò),加入循環(huán)單元可以解決更困難的視覺問題。以下是論智的編譯。

摘要

前饋卷積神經(jīng)網(wǎng)絡(luò)(CNN)是目前最先進的目標分類任務(wù)工具,例如ImageNet。另外,他們是靈長類動物大腦中視覺系統(tǒng)中精準定量平均響應(yīng)時間的模型。然而,生物視覺系統(tǒng)的兩種普遍存在的結(jié)構(gòu)特征是典型CNN不具備的,即皮質(zhì)區(qū)域內(nèi)的局部循環(huán),以及下游區(qū)域到上游區(qū)域的遠距離反饋。在這篇文章中,我們研究了循環(huán)結(jié)構(gòu)在提高分類性能時的作用,我們發(fā)現(xiàn),在ImageNet任務(wù)中,標準的循環(huán)形式(vanilla RNN和LSTM)無法在深度CNN中達到良好表現(xiàn)。相反,能將兩種結(jié)構(gòu)特征——bypassing和gating——結(jié)合起來的結(jié)構(gòu)能將任務(wù)精確度極大地提升。

我們將這些設(shè)計原則應(yīng)用在數(shù)千個模型中的自動搜索上,它們確定了局部循環(huán)單元和遠距離反饋連接對目標辨認很有用。另外,這些經(jīng)過任務(wù)優(yōu)化的卷積RNN能比反饋網(wǎng)絡(luò)更好地解釋靈長類動物神經(jīng)系統(tǒng)中神經(jīng)元的活動,說明大腦的循環(huán)連接在執(zhí)行不同的視覺動作時非常重要。

背景介紹

大腦的傳感器系統(tǒng)必須在含有噪音的復雜感知數(shù)據(jù)中檢測出有意義的模式。視覺環(huán)境可以揭示物體正面或負面的價值,例如食物種類、危險的信號或難忘的人。然而這些信號在不同場景中的位置、姿勢、背景和前景都相差很大,所以從低屬性圖像中很難辨別出目標物體。

最近的研究表明,針對任務(wù)優(yōu)化的深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)是靈長類動物大腦的視覺編碼精確的量化模型。CNN經(jīng)過訓練,可以識別ImageNet中的物體,并且能比其他模型更好地解釋視覺系統(tǒng)中的神經(jīng)元反饋。模型的各個卷積層分辨提供不同視覺區(qū)域的線性預測。

但是,靈長動物的視覺系統(tǒng)有些結(jié)構(gòu)并沒有被前饋CNN完全模仿,即皮質(zhì)區(qū)域的局部循環(huán)連接和不同區(qū)域的遠距離連接。目前還不清楚循環(huán)的作用,有科學家猜想循環(huán)是用來填補缺失的數(shù)據(jù),或進行從上到下基于注意力的特征調(diào)整。

雖然經(jīng)過增強的有循環(huán)結(jié)構(gòu)的CNN可以用來解決相對簡單的遮擋或預測任務(wù),但這些模型既不能適應(yīng)復雜的任務(wù)(前饋CNN可以解決),也不能解釋神經(jīng)反饋。事實上,由于目標識別的復雜性和多樣性,ImageNet中的很多圖片質(zhì)量都參差不齊,所以有可能要用到上述的循環(huán)處理機制。而且最近很多對ImageNet高效的解決方法都提出在多個圖層之中用同樣的結(jié)構(gòu)基序。于是我們選擇研究循環(huán)結(jié)構(gòu)究竟能否提高模型在ImageNet數(shù)據(jù)集上的分類表現(xiàn)。雖然其他工作用CNN的輸出最為RNN的輸入解決視覺任務(wù),在這里我們將循環(huán)結(jié)構(gòu)和CNN本身結(jié)合,因為這類結(jié)構(gòu)在神經(jīng)科學中是非常常見的。

模型結(jié)構(gòu)

為了研究卷積RNN的空間結(jié)構(gòu),我們用TensorFlow庫增強標準的、有局部和遠距離循環(huán)結(jié)構(gòu)的CNN,如圖所示:

卷積循環(huán)網(wǎng)絡(luò)中含有局部循環(huán)和遠程前饋連接的結(jié)合

在卷積RNN的每個圖層中,來自較高層的前饋輸入被重新修改尺寸,以匹配前饋輸入的空間維度。兩種類型的輸入都由標準的2D卷積處理。如果該層有任何局部循環(huán),則輸出會輸入到下一個循環(huán)單元。

在這項工作中,所有形式的循環(huán)都向前饋基礎(chǔ)模型中添加了參數(shù)。由于這樣可以提升模型的性能,我們訓練了兩種與卷積RNN相對照的模型:

有更多卷積過濾層的前饋模型(更寬)或者更多層的模型(更深),以匹配循環(huán)模型中參數(shù)的數(shù)量;

將卷積模型展開后進行復制,其中的參數(shù)數(shù)量和原始的卷積RNN一樣。

實驗結(jié)果

新型RNN結(jié)構(gòu)提高了任務(wù)處理性能

我們首先測試了有著標準RNN單位的增強CNN(例如vanilla RNN和LSTM)能夠提高在ImageNet目標物體辨認上的表現(xiàn)。二者對比如圖所示:

結(jié)果發(fā)現(xiàn)在類似AlexNet這樣的六層前饋上,精確度稍有提升。

但這里的循環(huán)結(jié)構(gòu)存在兩個問題,首先,由于單一參數(shù)數(shù)量的增多,這些卷積RNN并沒有檢測性能提升了多少。其次,將前饋模型做得更寬或更深,比單純地增加標準RNN單元性能提升得更多,參數(shù)卻更少。這說明標準RNN結(jié)構(gòu)雖然適用于很多種任務(wù),但是不適合深度CNN中的任務(wù)。

我們研究后發(fā)現(xiàn)這是因為標準RNN中缺少兩種關(guān)鍵屬性:

Gating,即隱藏狀態(tài)的值決定下一步的輸入有多少能通過、保留或丟棄;

Bypassing,即一個零初始化的隱藏狀態(tài)允許前饋輸入通過下一層。

重要的是,這兩種特征都是為了解決梯度消失的問題。于是我們將兩種特征部署到循環(huán)結(jié)構(gòu)中。具體結(jié)果如圖:

之后經(jīng)過對更深的循環(huán)結(jié)構(gòu)進行超參數(shù)優(yōu)化后,我們用卷積RNN模擬了靈長類動物腹流(參與物體識別)神經(jīng)。

結(jié)語

實際上,這篇論文詳細介紹了CNN中的循環(huán)單元能在目標識別中有效提高性能,我們的發(fā)現(xiàn)能提高不同的局部循環(huán)結(jié)構(gòu)對應(yīng)大腦中不同的行為的概率。我們相信通過將該方法應(yīng)用到CNN上,我們能提高現(xiàn)有的很多方法的性能。未來的實驗將探尋不同的任務(wù)是否能在卷積RNN對神經(jīng)的反饋上取代監(jiān)督目標辨別。另外還將測試模型能否低于其他形式的噪聲。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2574

    文章

    54487

    瀏覽量

    786783
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4830

    瀏覽量

    106935
  • 視覺系統(tǒng)
    +關(guān)注

    關(guān)注

    3

    文章

    369

    瀏覽量

    31665

原文標題:任務(wù)導向的視覺系統(tǒng)卷積循環(huán)模型

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    什么是RNN (循環(huán)神經(jīng)網(wǎng)絡(luò))?

    循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN) 是深度學習結(jié)構(gòu),它使用過去的信息來提高網(wǎng)絡(luò)處理當前和將來輸入的性能。RNN 的獨特之處在于該
    發(fā)表于 02-29 14:56 ?5404次閱讀
    什么是RNN (<b class='flag-5'>循環(huán)</b>神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>)?

    利用深度循環(huán)神經(jīng)網(wǎng)絡(luò)對心電圖降噪

    具體的軟硬件實現(xiàn)點擊 http://mcu-ai.com/ MCU-AI技術(shù)網(wǎng)頁_MCU-AI 我們提出了種利用由長短期記憶 (LSTM) 單元構(gòu)建的深度循環(huán)神經(jīng)
    發(fā)表于 05-15 14:42

    結(jié)合小波變換的LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的稅收預測

    來去除稅收數(shù)據(jù)中的噪聲,提高模型的泛化能力。LSTM神經(jīng)網(wǎng)絡(luò)通過加入隱藏神經(jīng)單元和門控單元能夠妤地學習到歷史稅收數(shù)據(jù)之間的相關(guān)關(guān)系,并進
    發(fā)表于 04-28 11:26 ?10次下載
    結(jié)合小波變換的LSTM<b class='flag-5'>循環(huán)</b>神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>的稅收預測

    種門控循環(huán)單元興趣點推薦算法

    對時間序列和相關(guān)距離信息進行建模,提取用戶訪問興趣點的偏好特征,并基于該特征對用戶進行興趣點推薦。在真實數(shù)據(jù)集上進行的實驗結(jié)果表明,與傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)算法相比,該算法能夠覆蓋用戶訪問興趣點的長序列,推薦結(jié)果
    發(fā)表于 05-13 16:19 ?6次下載

    PyTorch教程10.2之門控循環(huán)單元(GRU)

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程10.2之門控循環(huán)單元(GRU).pdf》資料免費下載
    發(fā)表于 06-05 18:15 ?0次下載
    PyTorch教程10.2之門控<b class='flag-5'>循環(huán)</b><b class='flag-5'>單元</b>(GRU)

    python最簡單for循環(huán)例子

    Python是種簡單而又強大的編程語言,通過其清晰的語法和豐富的功能庫,我們可以實現(xiàn)各種各樣的任務(wù)。其中最基本的語法結(jié)構(gòu)就是for
    的頭像 發(fā)表于 11-21 14:53 ?2158次閱讀

    python如何循環(huán)代碼

    滿足某個條件才停止循環(huán)。以下是使用while循環(huán)般語法: while 條件:代碼塊 在代碼塊中,你可以編寫需要重復執(zhí)行的代碼。循環(huán)
    的頭像 發(fā)表于 11-23 15:54 ?3626次閱讀

    循環(huán)指令loop規(guī)定循環(huán)次數(shù)

    循環(huán)指令是計算機編程中非常重要的概念,它允許程序重復執(zhí)行段代碼塊,使得程序可以更有效地處理大量數(shù)據(jù)和重復性任務(wù)。在本文中,我們將詳盡、詳實、細致地介紹
    的頭像 發(fā)表于 02-14 16:10 ?3135次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)的區(qū)別

    處理序列數(shù)據(jù)方面具有顯著的優(yōu)勢,但它們在結(jié)構(gòu)和工作原理上存在些關(guān)鍵的區(qū)別。 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN) 1.1 RNN的結(jié)構(gòu) 循環(huán)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 14:19 ?1926次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    結(jié)構(gòu)。它們在處理不同類型的數(shù)據(jù)和解決不同問題時具有各自的優(yōu)勢和特點。本文將從多個方面比較循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別。 基本概念 循環(huán)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 14:24 ?2679次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)的基本原理是什么

    結(jié)構(gòu)具有循環(huán),能夠?qū)⑶?b class='flag-5'>一個時間步的信息傳遞到下一個時間步,從而實現(xiàn)對序列數(shù)據(jù)的建模。本文將介紹循環(huán)神經(jīng)網(wǎng)絡(luò)的基本原理。 RNN的基本結(jié)構(gòu) 1
    的頭像 發(fā)表于 07-04 14:26 ?1518次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)的基本概念

    循環(huán)神經(jīng)網(wǎng)絡(luò)的基本概念、循環(huán)機制、長短時記憶網(wǎng)絡(luò)(LSTM)、門控循環(huán)單元(GRU)等方面進行介
    的頭像 發(fā)表于 07-04 14:31 ?1621次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)算法有哪幾種

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,簡稱RNN)是種適合于處理序列數(shù)據(jù)的深度學習算法。與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)不同,
    的頭像 發(fā)表于 07-04 14:46 ?1226次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)算法原理及特點

    )相比,RNN在處理序列數(shù)據(jù)時具有明顯的優(yōu)勢。本文將介紹循環(huán)神經(jīng)網(wǎng)絡(luò)的原理、特點及應(yīng)用。 1. 循環(huán)神經(jīng)網(wǎng)絡(luò)的原理 1.1 基本概念 循環(huán)
    的頭像 發(fā)表于 07-04 14:49 ?1883次閱讀

    技術(shù)干貨驛站 ▏深入理解C語言:嵌套循環(huán)循環(huán)控制的底層原理

    大家好!在上節(jié)中,我們學習了C語言中的基本循環(huán)語句,如for、while和do...while循環(huán)。今天,我們將進步探討嵌套循環(huán)
    的頭像 發(fā)表于 02-21 18:26 ?1084次閱讀
    技術(shù)干貨驛站  ▏深入理解C語言:嵌套<b class='flag-5'>循環(huán)</b>與<b class='flag-5'>循環(huán)</b>控制的底層原理