chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

微軟亞洲研究院視覺計算組又一個令人拍案叫絕的操作

DPVg_AI_era ? 來源:lq ? 2018-11-30 09:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

微軟亞洲研究院視覺計算組又一個令人拍案叫絕的操作:可變形卷積網(wǎng)絡(luò)v2版!DCNv2方法簡單,結(jié)果更好,在COCO基準(zhǔn)測試中比上個版本提升了5個點。

同樣的物體在圖像中可能呈現(xiàn)出不同的大小、姿態(tài)、視角變化甚至非剛體形變,如何適應(yīng)這些復(fù)雜的幾何形變是物體識別的主要難點,也是計算機視覺領(lǐng)域多年來關(guān)注的核心問題。

去年,微軟亞洲研究院視覺計算組提出了 “Deformable Convolutional Networks”(可變形卷積網(wǎng)絡(luò)),首次在卷積神經(jīng)網(wǎng)絡(luò)(CNN)中引入了學(xué)習(xí)空間幾何形變的能力,得到可變形卷積網(wǎng)絡(luò)(Deformable ConvNets),從而更好地解決了具有空間形變的圖像識別任務(wù)。

通俗地說,圖像中的物體形狀本來就是千奇百怪,方框型的卷積核,即使卷積多次反卷積回去仍然是方框,不能真實表達(dá)物體的形狀,如果卷積核的形狀是可以變化的,這樣卷積后反卷積回去就可以形成一個多邊形,更貼切的表達(dá)物體形狀,從而可以更好地進(jìn)行圖像分割和物體檢測。

研究員們通過大量的實驗結(jié)果驗證了該方法在復(fù)雜的計算機視覺任務(wù)(如目標(biāo)檢測和語義分割)上的有效性,首次表明在深度卷積神經(jīng)網(wǎng)絡(luò)(deep CNN)中學(xué)習(xí)空間上密集的幾何形變是可行的。

但這個Deformable ConvNets也有缺陷,例如,激活單元的樣本傾向于集中在其所在對象的周圍。然而,對象的覆蓋是不精確的,顯示出超出感興趣區(qū)域的樣本的擴散。在使用更具挑戰(zhàn)性的COCO數(shù)據(jù)集進(jìn)行分析時,研究人員發(fā)現(xiàn)這種傾向更加明顯。這些研究結(jié)果表明,學(xué)習(xí)可變形卷積還有更大的可能性。

昨天,MSRA視覺組發(fā)布可變形卷積網(wǎng)絡(luò)的升級版本:Deformable ConvNets v2 (DCNv2),論文標(biāo)題也相當(dāng)簡單粗暴:更加可變形,更好的結(jié)果!

論文地址:

https://arxiv.org/pdf/1811.11168.pdf

DCNv2具有更強的學(xué)習(xí)可變形卷積的建模能力,體現(xiàn)在兩種互補的形式:

第一種是網(wǎng)絡(luò)中可變形卷積層的擴展使用。配備具有offset學(xué)習(xí)能力的更多卷積層允許DCNv2在更廣泛的特征級別上控制采樣。

第二種是可變形卷積模塊中的調(diào)制機制,其中每個樣本不僅經(jīng)過一個學(xué)習(xí)的offset,而且還被一個學(xué)習(xí)特征調(diào)制。因此,網(wǎng)絡(luò)模塊能夠改變其樣本的空間分布和相對影響。

為了充分利用DCNv2增強的建模能力,需要進(jìn)行有效的訓(xùn)練。受神經(jīng)網(wǎng)絡(luò)的knowledge distillation這一工作的啟發(fā),我們利用教師網(wǎng)絡(luò)來實現(xiàn)這一目的,教師在訓(xùn)練期間提供指導(dǎo)。

具體來說,我們利用R-CNN作為教師網(wǎng)絡(luò)。由于它是訓(xùn)練用于對裁剪圖像內(nèi)容進(jìn)行分類的網(wǎng)絡(luò),因此R-CNN學(xué)習(xí)的特征不受感興趣區(qū)域之外無關(guān)信息的影響。為了模仿這個屬性,DCNv2在其訓(xùn)練中加入了一個特征模擬損失,這有利于學(xué)習(xí)與R-CNN一致的特征。通過這種方式,DCNv2得到強大的訓(xùn)練信號,用于增強可變形采樣。

通過這些改變,可變形模塊仍然是輕量級的,并且可以容易地結(jié)合到現(xiàn)有網(wǎng)絡(luò)架構(gòu)中。

具體而言,我們將DCNv2合并到Faster R-CNN 和Mask R-CNN 系統(tǒng),并具有各種backbone網(wǎng)絡(luò)。在COCO基準(zhǔn)測試上的大量實驗證明了DCNv2相對于DCNv1在物體檢測和實例分割方面都有顯著改進(jìn)。

我們將在不久后發(fā)布DCNv2的代碼。

圖1:常規(guī)ConvNet、DCNv1以及DCNv2中conv5 stage最后一層節(jié)點的空間支持。

圖3:利用R-CNN feature mimicking的訓(xùn)練

結(jié)果

表4:COCO 2017 test-dev set 中各種backbones上的DCNv2、DCNv1和regular ConvNets的結(jié)果。

圖4:在COCO 2017 test-dev set不同分辨率的輸入圖像上,DCNv2和regular ConvNets(Faster R-CNN + ResNet-50 / ResNet-101)的APbbox分?jǐn)?shù)。

表6:DCNv2、DCNv1和regular ConvNets的ImageNet分類準(zhǔn)確度。

可以看到,Deformable ConvNets v2的結(jié)果相當(dāng)亮眼!下面,我們精選了兩篇業(yè)內(nèi)對這篇論文的評價,經(jīng)授權(quán)發(fā)布:

業(yè)界良心DCNV2:方法簡單,結(jié)果好,分析充分

知乎用戶Bowen Cheng的評價:

一周前就聽說 Jifeng 組做出了Deformable ConvNet V2(DCNV2),今天 Jifeng 告訴我 paper 已經(jīng)掛 ArXiv 上之后果斷放下所有事把這篇 paper 好好讀了讀。感覺這個工作特別 solid,果然沒有讓人失望。下面簡單談?wù)剛€人對這篇 paper 的理解,可能有不對的地方請大家多多指點!

DCNV2 首先用了更好的 visualization 來更深入的理解 DCNV1 為什么 work 以及還存在什么缺陷,發(fā)現(xiàn)存在的問題就是因為 offset 不可控導(dǎo)致引入了過多的 context,而這些 context 可能是有害的([1]和 [2] 中也說明了這些 context 可能是有害的)。

解決方法也很簡單粗暴:

(1) 增加更多的 Deformable Convolution

(2)讓 Deformable Conv 不僅能學(xué)習(xí) offset,還能學(xué)習(xí)每個采樣點的權(quán)重(modulation)

(3)模擬 R-CNN 的 feature(knowledge distillation)

(1) 就不用說了,在 DCNV1 中只有 ResNet 的 Conv5 stage 中有 Deformable Conv,在 DCNV2 中把 Conv3-Conv5 的 3x3 convolution 都換成了 Deformable Conv

(2) 在 DCNV1 里,Deformable Conv 只學(xué)習(xí) offset:

而在 DCNV2 中,加入了對每個采樣點的權(quán)重:

其中是學(xué)到的 offset,是學(xué)到的權(quán)重。這樣的好處是增加了更大的自由度,對于某些不想要的采樣點權(quán)重可以學(xué)成 0。

(3) [1] 中作者(好吧,其實作者是我)發(fā)現(xiàn)把 R-CNN 和 Faster RCNN 的 classification score 結(jié)合起來可以提升 performance,說明 R-CNN 學(xué)到的 focus 在物體上的 feature 可以解決 redundant context 的問題。但是增加額外的 R-CNN 會使 inference 速度變慢很多。DCNV2 里的解決方法是把 R-CNN 當(dāng)做 teacher network,讓 DCNV2 的 ROIPooling 之后的 feature 去模擬 R-CNN 的 feature。(圖里畫的很清楚了)

其中 feature mimic 的 loss 定義是:

在 end-to-end train 的時候這個 loss 給了一個 0.1 的 weight。

實驗結(jié)果大家看 paper 就好了,在 ResNet-50 backbone COCO 上跟 DCNV1 比漲了 5 個點!這比目前大部分 detection paper 靠東拼西湊漲的那一兩個點要強多了。我驚訝的是和 DCNV1 對比,在 image classification 上也有很大的提升。

說說自己的想法吧,DCNV2 方法簡單,結(jié)果好,分析充分,我覺得和近期各種 detection paper 比算是業(yè)界良心了。我覺得還有可以學(xué)習(xí)的一點就是 context 的問題。很多 detection 的 paper 都在引入 context(大家都 claim 說小物體需要引入 context 來解決),其實我個人覺得有點在扯淡,物體小最直接的方法難道不是放大物體來解決嗎?比如 SNIP/SNIPER 都是在 “放大” 物體。所以在 context 這個問題上我(詳情見 [1] 和[2])跟 Jifeng 他們的看法是一樣的,我們也許不需要那么多沒用的 context。作者都是熟人,我也不多吹了,反正我是準(zhǔn)備去 follow 這個工作了哈哈。

最后說說 DCN 有一個小缺點,其實就是速度的問題。因為沒有 cudnn 的加速,DCN 完全是靠 im2col 實現(xiàn)的(從目前的 MXNet 版本來看是這樣的),當(dāng) batchsize 大的時候我感覺速度會比有 cudnn 加速的 3x3 conv 慢。很好奇當(dāng) batchsize 大的時候(比如 ImageNet)的 training 時間會慢多少。希望以后能和 dilated convolution 一樣被加到 cudnn 里支持吧。

發(fā)現(xiàn)好多人好像沒有看過 [1][2],放張 network 的圖(宣傳一下自己的工作),DCN V2 的 mimic R-CNN 和 DCR V1 的結(jié)構(gòu)類似,但是通過 knowledge distillation 很巧妙的在 inference 階段把 R-CNN 給去掉了。

[1] Revisiting RCNN: On Awakening the Classification Power of Faster RCNN

[2] Decoupled Classification Refinement: Hard False Positive Suppression for Object Detection

創(chuàng)新性與性能雙贏,COCO漲了5個點!

知乎用戶孔濤的評價:

首先祭出結(jié)論,這是一篇干貨滿滿,novelty 和 performance 雙贏的 paper(COCO 直接漲了~ 5 個點?。?。

自己一直在做 object detection 相關(guān)的工作,再加上之前在 MSRA 跟 Jifeng 及 CV 組的小伙伴共事過一段時間,努力給出客觀的評價吧。

從 Deform ConvNet V1 說起

目標(biāo)檢測中有一個比較棘手的問題,即所謂的幾何形變問題(Geometric variations)。就拿人檢測來講,人的姿態(tài)有多種多樣(想想跳舞的場景),這就需要我們設(shè)計的模型具備 deformation 的能力。通常情況下為了解決這類問題有兩種思路:(a) 收集更多樣的數(shù)據(jù)用于模型的訓(xùn)練;(b) 設(shè)計 transformation invariant 的特征來提升模型多樣化能力。

Deform ConvNet 是在卷積神經(jīng)網(wǎng)絡(luò)的框架下,對 transformation-invariant feature 的比較成功的嘗試。思想非常直觀,在標(biāo)準(zhǔn)的卷積核上加入了可學(xué)習(xí)的 offset,使得原來方方正正的卷積核具備了形變的能力。

deformable convolution

用過的童鞋其實都知道,在大型的 object detection/instance segmentation 任務(wù)上的表現(xiàn)還蠻搶眼的。

Deform ConvNet V2 在干啥

我認(rèn)為,Deform ConvNet 是在解決如何讓學(xué)到的 offset 能更聚焦到感興趣的物體上邊,也就是提取到更聚焦的 feature 來幫助物體的識別定位。在下邊的圖片中,我們當(dāng)然希望模型的 feature 能夠聚焦到物體上邊,這樣才能提取到更有意義的 supporting feature。

為了做到這一點,作者主要用了幾種策略:

(a) 增加更多的 offset 層,這個不必細(xì)說;

(b) 在 deform convolution 中引入調(diào)節(jié)項 (modulation),這樣既學(xué)到了 offset,又有了每個位置的重要性信息;

(c) Feature Mimicking,作者強調(diào),簡單在對應(yīng)的 feature 上用 roi-pooling 來提取對應(yīng)位置的 feature 并不一定能提取到最有用的信息(可能包含無用的 context)。如何才能讓 feature 更加聚焦到物體上呢?解決就是 Mimicking 技術(shù),讓 roi-pooling 之后的 feature 更像直接用 R-CNN 學(xué)到的 feature。

其他

除了漂亮的結(jié)果,我覺得 paper 的可視化分析部分也挺值得好好看看的。

另外很難理解為什么 Feature Mimicking 在 regular Faster R-CNN 上不 work。

從最近的一些 paper 結(jié)果看,至少目前在 deep 的框架下,針對 task,讓模型提取更加有意義的 feature 是個比較熱 / 好的方向吧。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6723

    瀏覽量

    107416
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4830

    瀏覽量

    106935
  • 計算機視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1715

    瀏覽量

    47492

原文標(biāo)題:MSRA視覺組可變形卷積網(wǎng)絡(luò)升級!更高性能,更強建模能力

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    纖納光電獲得2025年度浙江省企業(yè)研究院認(rèn)定

    近日,浙江省經(jīng)濟和信息化廳發(fā)布2025年度擬認(rèn)定省企業(yè)研究院名單。經(jīng)企業(yè)申報、縣級審查、市級推薦、專家評審等程序,纖納光電建設(shè)的“浙江省纖納新能源鈣鈦礦技術(shù)企業(yè)研究院”成功入選。
    的頭像 發(fā)表于 12-16 17:31 ?940次閱讀

    朗迅芯海半導(dǎo)體榮獲2025年度浙江省企業(yè)研究院認(rèn)定

    近日,浙江省經(jīng)濟和信息化廳正式公布2025年度省企業(yè)研究院認(rèn)定名單,朗迅芯海半導(dǎo)體憑借在集成電路先進(jìn)測試領(lǐng)域深厚的創(chuàng)新實力與技術(shù)積累,成功獲批“浙江省企業(yè)研究院”認(rèn)定。
    的頭像 發(fā)表于 12-11 15:59 ?344次閱讀

    廣電計量與長沙三大研究院達(dá)成戰(zhàn)略合作

    11月26-27日,廣電計量與長沙北斗產(chǎn)業(yè)安全技術(shù)研究院集團股份有限公司(簡稱“長沙北斗研究院”)、長沙量子測量產(chǎn)業(yè)技術(shù)研究院有限公司(簡稱“長沙量子研究院”)、湖南大學(xué)長沙半導(dǎo)體技術(shù)
    的頭像 發(fā)表于 12-04 14:36 ?256次閱讀

    中科曙光南京研究院榮膺國家級專精特新“小巨人”企業(yè)

    近日,工業(yè)和信息化部公示第七批國家級專精特新“小巨人”企業(yè)名單,中科曙光南京研究院憑借在智能計算、人工智能領(lǐng)域的技術(shù)積淀、創(chuàng)新能力與行業(yè)實踐,成功入選并獲國家級權(quán)威認(rèn)證。
    的頭像 發(fā)表于 11-12 16:06 ?226次閱讀

    廣電計量攜手南山研究院打造大健康產(chǎn)業(yè)新生態(tài)

    10月19日, “南山研究院南海四周年系列活動”在廣東省南山醫(yī)藥創(chuàng)新研究院(簡稱“南山研究院”)成功舉辦。期間,南山研究院與廣電計量等多家單位聯(lián)合共建的華南醫(yī)學(xué)健康功效循證評價中心正式
    的頭像 發(fā)表于 10-23 17:42 ?946次閱讀

    京東方首個材料研究院項目開工

    2025年8月20日,BOE(京東方)材料研究院項目開工儀式在山東省煙臺市黃渤海新區(qū)八角片區(qū)成功舉辦。
    的頭像 發(fā)表于 08-22 09:12 ?1078次閱讀

    帝奧微車規(guī)芯片研究院獲得CNAS認(rèn)證

    近日,帝奧微車規(guī)芯片研究院通過中國合格評定國家認(rèn)可委員會(CNAS)評審,正式獲得CNAS認(rèn)證。
    的頭像 發(fā)表于 08-12 14:00 ?1781次閱讀

    今日看點丨亞馬遜上海AI研究院解散;索尼擬出售以色列芯片部門

    ? ? ? 1、 亞馬遜上海AI研究院解散! 據(jù)報道,AWS亞馬遜云科技上海AI研究院的首席應(yīng)用科學(xué)家王敏捷發(fā)朋友圈稱,他們收到通知,AWS亞馬遜云科技上海AI研究院(也是AWS最后
    發(fā)表于 07-24 09:42 ?1362次閱讀
    今日看點丨亞馬遜上海AI<b class='flag-5'>研究院</b>解散;索尼擬出售以色列芯片部門

    勇藝達(dá)人工智能研究院迎大咖加盟

    近日,深圳勇藝達(dá)總部隆重舉行 “數(shù)智融合 聚賢賦能 —— 勇藝達(dá)人工智能研究院高端人才聘任儀式”,正式聘請黃道權(quán)先生與吳天準(zhǔn)先生加盟,為研究院注入頂尖智慧力量,此舉標(biāo)志著勇藝達(dá)在人工智能領(lǐng)域的戰(zhàn)略布局邁出關(guān)鍵步,也是踐行 “人
    的頭像 發(fā)表于 07-10 18:04 ?810次閱讀

    導(dǎo)遠(yuǎn)科技與清華大學(xué)無錫應(yīng)用技術(shù)研究院達(dá)成合作

    近日,導(dǎo)遠(yuǎn)科技與清華大學(xué)無錫應(yīng)用技術(shù)研究院(以下簡稱:研究院)達(dá)成合作。導(dǎo)遠(yuǎn)科技將提供高精度定位產(chǎn)品及解決方案,以支持研究院在L4級自動駕駛和人形機器人領(lǐng)域的技術(shù)研發(fā)及轉(zhuǎn)化落地。
    的頭像 發(fā)表于 06-12 16:34 ?849次閱讀

    國家管網(wǎng)集團研究院選購我司HS-TH-3500炭黑含量測試儀

    在能源輸送管網(wǎng)建設(shè)與維護領(lǐng)域,對材料質(zhì)量的嚴(yán)格把控至關(guān)重要。國家管網(wǎng)集團研究院直致力于提升管網(wǎng)材料的性能與安全性,在眾多檢測環(huán)節(jié)中,測定管材中炭黑含量是確保材料質(zhì)量的關(guān)鍵環(huán)。?國家管網(wǎng)集團
    的頭像 發(fā)表于 03-26 09:15 ?581次閱讀
    國家管網(wǎng)集團<b class='flag-5'>研究院</b>選購我司HS-TH-3500炭黑含量測試儀

    鯤云科技與中國工業(yè)互聯(lián)網(wǎng)研究院成立AI+安全生產(chǎn)聯(lián)合實驗室

    在 2025 年 1 月 14 日舉行的智算創(chuàng)新研究院開業(yè)盛典上,鯤云科技與中國工業(yè)互聯(lián)網(wǎng)研究院(以下簡稱“工聯(lián)”)正式宣布聯(lián)合成立“AI+安全生產(chǎn)聯(lián)合實驗室”,工聯(lián)問斌副院長、尚
    的頭像 發(fā)表于 01-14 18:01 ?1579次閱讀

    加速科技榮獲“浙江省企業(yè)研究院”認(rèn)定

    近日,浙江省經(jīng)濟和信息化廳公布“2024年認(rèn)定(備案)省級企業(yè)研發(fā)機構(gòu)名單”。經(jīng)過多輪嚴(yán)格評審和公示,加速科技榮獲“省企業(yè)研究院”認(rèn)定。這是加速科技繼獲國家級專精特新“小巨人”企業(yè)認(rèn)定榮譽后的又一
    的頭像 發(fā)表于 01-07 16:32 ?661次閱讀
    加速科技榮獲“浙江省企業(yè)<b class='flag-5'>研究院</b>”認(rèn)定

    浪潮信息與智源研究院攜手共建大模型多元算力生態(tài)

    近日,浪潮信息與北京智源人工智能研究院正式簽署戰(zhàn)略合作協(xié)議,雙方將緊密合作,共同構(gòu)建大模型多元算力開源創(chuàng)新生態(tài)。 此次合作旨在提升大模型創(chuàng)新研發(fā)的算力效率,降低大模型應(yīng)用開發(fā)的算力門檻,推動
    的頭像 發(fā)表于 12-31 11:49 ?897次閱讀

    安謀科技與智源研究院達(dá)成戰(zhàn)略合作,共建開源AI“芯”生態(tài)

    12月25日,安謀科技(中國)有限公司(以下簡稱“安謀科技”)與北京智源人工智能研究院(以下簡稱“智源研究院”)正式簽署戰(zhàn)略合作協(xié)議,雙方將面向多元AI芯片領(lǐng)域開展算子庫優(yōu)化與適配、編譯器與工具鏈
    發(fā)表于 12-26 17:06 ?640次閱讀
    安謀科技與智源<b class='flag-5'>研究院</b>達(dá)成戰(zhàn)略合作,共建開源AI“芯”生態(tài)