chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

計算機視覺和自然語言處理這兩個領域AI進展的真實情況

DPVg_AI_era ? 來源:lq ? 2018-12-12 09:24 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2018年還剩20天,人工智能的熱度一點沒減。除了下圍棋、認人臉,人工智能究竟發(fā)展到了什么地步?匯總各領域學術論文最先進成果,今天,讓我們來看計算機視覺和自然語言處理這兩個領域AI進展的真實情況。

2018年,人工智能熱度不減,成果不斷。

雖然少了去年動輒“超越人類”的銳氣,但“輔助人類”的人工智能,如今究竟發(fā)展到什么程度?就讓我們在2018即將結束的時候,來一個簡單的回顧。

拋開劑量談毒性是耍流氓,拋開數(shù)據(jù)集和特定任務談人工智能進展也一樣。“state of the art.ai”是MIT和UNAM的學生做的一個網站,收進了目前最優(yōu)的算法,涵蓋了計算機視覺、游戲、自然語言處理、網絡圖和知識庫、程序歸納和程序合成、音頻處理、時間序列處理七個領域。

下面,我們就根據(jù)已經發(fā)表的科研論文,先來看看計算機視覺和自然語言處理這兩大AI領域的情況。

計算機視覺

3D/3D Reconstruction

“3D”可以說是眼下CV領域最火的一個詞。今年各家智能手機宣傳里都提到了“3D結構光”。那么,3D視覺發(fā)展到了什么程度?

2017年的CVPR,MIT、馬薩諸塞大學阿默斯特分校和谷歌DeepMind的研究人員展示了一項成果,使用自動編碼器(VAE),構建了一個名叫SingleVPNet的框架,能從多個視角的深度圖或其相應的輪廓(silhouette)學習生成模型,并使用渲染函數(shù)從這些圖像生成細節(jié)精致的3D形狀。

不僅如此,他們提出的框架還能通過綜合不同視角的2D深度圖(甚至在有遮擋的情況下),生成新的3D形狀。

SingleVPNet在3D形狀數(shù)據(jù)集SharpNetCore上取得了平均誤差0.35的結果。換句話說,生成逼真的3D形狀還有一段距離。

補充,SharpNetCore是ShapeNet的一個子集,目前包括55個常見對象類別(覆蓋了計算機視覺領域常用的3D基準數(shù)據(jù)集PASCAL 3D+的12個對象類別),約有51300個獨特的3D模型,每個模型都有手動驗證的類別和對齊注釋,由普林斯頓、斯坦福和豐田技術研究所(TTIC)的研究人員共同創(chuàng)建。

動作識別

動作識別指從視頻中識別不同的動作,這個動作可能貫穿整個視頻,也可能不會。動作識別是圖像識別的擴展,涉及從多幀視頻中進行圖像識別,然后從每一個幀中聚集預測結果。

2017年的NeurIPS,CMU機器人學院的研究人員Rohit Girdhar 和 Deva Ramanan 利用注意力機制(Attentional Pooling),在保持網絡復雜度和計算量基本不變的情況下,在三個靜態(tài)圖像和視頻標準動作識別數(shù)據(jù)集上提升了動作識別的基準。其中,在MPII人體姿態(tài)數(shù)據(jù)集上取得了12.5%的相對改進。

不過,看絕對值,平均精度還停留在52.2個百分點上面。

人臉識別

根據(jù)美國國家標準與技術研究院(NIST)今年11月16日公布的結果,在被譽為工業(yè)界“黃金標準”的全球人臉識別算法測試(FRVT)中,依圖科技以千萬分之一誤報下的識別準確率超過99%,繼續(xù)保持全球人臉識別競賽冠軍。

千萬分位誤報下的識別準確率超過99%,意味著更多核心關鍵的安防場景被解鎖。相比于去年同期,全球人臉識別性能提升了80%。

值得一提,在這份官方公布的報告中,中國人工智能公司實力展現(xiàn),依圖科技(yitu)、商湯科技(sensetime)、曠視科技(megvii)囊括了前十中的五席,加上排名第五的中國科學院深圳先進技術研究院(siat),中國團隊已經超過半數(shù),并穩(wěn)穩(wěn)“霸屏”前五,領跑全球人臉識別算法。

人體姿態(tài)估計

今年2月,上海交通大學盧策吾團隊MVIG實驗室AlphaPose 系統(tǒng)上線,是首個在 COCO 數(shù)據(jù)集上可達到 70+ mAP 的開源姿態(tài)估計系統(tǒng)。

今年9月,AlphaPose系統(tǒng)升級,采用 PyTorch 框架,在姿態(tài)估計標準測試集COCO validation set上,達到 71mAP的精度(比 OpenPose 相對提升17%,Mask-RCNN相對提升8%),同時,速度達到了20FPS(比 OpenPose 相對提高66%,Mask-RCNN相對提高300%)。

AlphaPose系統(tǒng),是基于上海交大MVIG組提出的 RMPE 二步法框架(ICCV 2017論文)構建的,相比其他開源系統(tǒng)在準確率有很大提高,比OpenPose相對提高17%,Mask-RCNN相對提高8.2%。

升級后,各個開源框架在COCO-Validation上性能,時間在單卡1080ti GPU測出指標如下:

圖像分類

計算機在圖像分類任務上的精度早已超越了人類,因此當前圖像分類精度的最好成績,往往是其他研究的副產物。ICLR 2017,谷歌大腦 Barret Zoph 和 Quoc V. Le 發(fā)表了“Neural Architecture Search with Reinforcement Learning”,他們用強化學習自動搜索神經網絡結構,最終AI自己設計出的模型,在 CIFAR-10數(shù)據(jù)集上做圖像分類取得了96.35%的精度。

或許令人意外,圖像分類目前最好結果是Facebook AI Research的Benjamin Graham在他2015年Arxiv論文“Fractional Max-Pooling”中得到的,經過100次測試后在CIFAR-10上誤差僅為3.47%。這篇論文提出了一種新的fractional max-pooling方法,降低了各種數(shù)據(jù)集上的過擬合。

圖像生成

說到圖像生成,那自然就是生成對抗網絡(GAN)。

GAN在今年不斷發(fā)展,今年ICLR DeepMind 提出的 BigGAN,可謂當前最強圖像生成模型,在128x128分辨率的ImageNet上訓練,BigGAN的Inception 分數(shù)(IS)可以達到 166.3 ,F(xiàn)rechet Inception 距離(FID)9.6。

關于BigGAN更詳細的介紹看這里。

未來GAN還能提升到什么程度,值得期待!

圖像分割

是的,圖像分割王者是何愷明等人2017年提出的Mask-RCNN,mAP值26.2。

2018年8月,密歇根大學和谷歌大腦的研究人員合作,提出了一種圖像語義分層處理框架,可以實現(xiàn)像素級別的圖像語義理解和操縱,在圖像中任意添加、改變、移動對象,并與原圖渾然一體,實現(xiàn)真正的“毫無PS痕跡”。

雖然相關論文還未經過同行評議,但是根據(jù)上述研究人員在Arxiv論文匯報的結果,他們在圖像分割上更勝一籌。

自然語言處理

分類/語義相似度/語法/電影評論/語義等價/問答/實體識別

BERT這個名字近來在NLP領域可謂是紅紅火火。

10月13日,谷歌AI團隊新發(fā)布的BERT模型,在機器閱讀理解頂級水平測試SQuAD1.1中表現(xiàn)出驚人的成績:全部兩個衡量指標上全面超越人類!并且還在11種不同NLP測試中創(chuàng)出最佳成績,包括將GLUE基準推至80.4%(絕對改進7.6%),MultiNLI準確度達到86.7% (絕對改進率5.6%)等。

谷歌團隊的Thang Luong直接定義:BERT模型開啟了NLP的新時代!

BERT的新語言表示模型,它代表Transformer的雙向編碼器表示。與最近的其他語言表示模型不同,BERT旨在通過聯(lián)合調節(jié)所有層中的上下文來預先訓練深度雙向表示。因此,預訓練的BERT表示可以通過一個額外的輸出層進行微調,適用于廣泛任務的最先進模型的構建。

如前文所述,BERT在11項NLP任務中刷新了性能表現(xiàn)記錄!在此舉出其中一項結果。

GLUE測試結果,由GLUE評估服務器給出。每個任務下方的數(shù)字表示訓練樣例的數(shù)量?!捌骄币粰谥械臄?shù)據(jù)與GLUE官方評分稍有不同,因為我們排除了有問題的WNLI集。BERT 和OpenAI GPT的結果是單模型、單任務下的數(shù)據(jù)。所有結果來自https://gluebenchmark.com/leaderboard和https://blog.openai.com/language-unsupervised/

SQuAD 結果。BERT 集成是使用不同預訓練檢查點和微調種子(fine-tuning seed)的 7x 系統(tǒng)。

CoNLL-2003 命名實體識別結果。超參數(shù)由開發(fā)集選擇,得出的開發(fā)和測試分數(shù)是使用這些超參數(shù)進行五次隨機重啟的平均值。

總體而言,BERT模型在NLP領域中的多項任務取得目前最佳效果,包括

分類、語義相似度、語法、電影評論、語義等價、問答、實體識別等等。

常識推理

在常識推理方面(Commensense Inference),目前取得最先進水平的是Antonio Lieto等人于2017年發(fā)布的文章:Dual PECCS: a cognitive system for conceptual representation and categorization。

當然,該篇文章的結果在概念分類準確率(Concept Categorization Accuracy)上目前最佳,為89;但在Dev和Test準確率方面,目前依舊BERT模型結果最佳,分別為86.6和86.3。

機器翻譯

在機器翻譯任務中(Machine Translation),目前取得最佳結果來自于Zhen Yang等人于今年4月在Arxiv上發(fā)布的文章:

該文章的算法主要結合了Transformer+BR-CSGAN,在BLEU上取得的評分結果為43.01,為目前最佳結果。

自然語言推斷

在自然語言推斷(Natural Language Inference)任務中,目前最佳結果來自于Yichen Gong等人于今年5月在Arxiv上發(fā)布的文章:

該論文采用的算法是DIIN,在準確率方面目前為89.84,目前處于最佳水平。

以上是計算機視覺和自然語言處理兩個領域的最新發(fā)展情況。想要了解AI其它領域中各任務目前取得的最佳結果可以參考如下鏈接:

https://www.stateoftheart.ai/

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1819

    文章

    50284

    瀏覽量

    266808
  • 計算機視覺
    +關注

    關注

    9

    文章

    1715

    瀏覽量

    47703
  • 自然語言處理

    關注

    1

    文章

    630

    瀏覽量

    14712

原文標題:2018,一文看盡AI發(fā)展真相(上)

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    計算機專業(yè)408考研科目

    408 跨考零基礎:三月入門到精通路線 站在2026年的節(jié)點回望,計算機考研408(計算機學科專業(yè)基礎綜合)早已超越了單純的知識點考核,它更像是一場對邏輯思維與系統(tǒng)觀的深度洗禮。對于跨考且零基
    發(fā)表于 04-11 16:44

    傳音相關研究成果入選計算機視覺頂會CVPR 2026

    (Mohamed bin Zayed University of Artificial Intelligence,簡稱MBZUAI)聯(lián)合開展的“拍照解題”項目研究取得重要進展,相關成果論文已被計算機視覺
    的頭像 發(fā)表于 04-03 17:45 ?2883次閱讀
    傳音相關研究成果入選<b class='flag-5'>計算機</b><b class='flag-5'>視覺</b>頂會CVPR 2026

    融合多場耦合效應:生成式人工智能技術演進及其在航空發(fā)動機復雜工程系統(tǒng)中的賦能機制研究

    人工智能技術正經歷著從感知智能向生成智能、再向代理智能與物理智能演進的深刻變革。在這一進程中,生成式AI技術的突破性發(fā)展尤為引人矚目,其不僅能夠在自然語言處理計算機
    的頭像 發(fā)表于 02-26 10:07 ?619次閱讀
    融合多場耦合效應:生成式人工智能技術演進及其在航空發(fā)動機復雜工程系統(tǒng)中的賦能機制研究

    自然語言處理NLP的概念和工作原理

    自然語言處理 (NLP) 是人工智能 (AI) 的一分支,它會教計算機如何理解口頭和書面形式的人類語言
    的頭像 發(fā)表于 01-29 14:01 ?562次閱讀
    <b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>NLP的概念和工作原理

    AI機器人控制進階教程(入門版)》閱讀指引

    的預編程,只能在結構化環(huán)境中工作。AI的引入(如計算機視覺、自然語言處理),賦予機器人感知、理解和決策的能力,使其能適應開放、動態(tài)的
    的頭像 發(fā)表于 01-07 10:56 ?2394次閱讀
    《<b class='flag-5'>AI</b>機器人控制進階教程(入門版)》閱讀指引

    上海計算機視覺企業(yè)行學術沙龍走進西井科技

    12月5日,由中國圖象圖形學學會青年工作委員會(下簡稱“青工委”)、上海市計算機學會計算機視覺專委會(下簡稱“專委會”)聯(lián)合主辦,上海西井科技股份有限公司、江蘇路街道商會承辦的“上海計算機
    的頭像 發(fā)表于 12-16 15:39 ?712次閱讀

    使用代理式AI激活傳統(tǒng)計算機視覺系統(tǒng)的三種方法

    當前的計算機視覺系統(tǒng)擅長于識別物理空間與流程中的事件,卻難以詮釋場景細節(jié)及其意義,也無法推理后續(xù)可能發(fā)生的情況。
    的頭像 發(fā)表于 12-01 09:44 ?757次閱讀

    云知聲論文入選自然語言處理頂會EMNLP 2025

    近日,自然語言處理(NLP)領域國際權威會議 ——2025 年計算語言學與自然語言
    的頭像 發(fā)表于 11-10 17:30 ?894次閱讀
    云知聲論文入選<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>頂會EMNLP 2025

    NVIDIA DGX Spark桌面AI計算機開啟預訂

    DGX Spark 現(xiàn)已開啟預訂!麗臺科技作為 NVIDIA 授權分銷商,提供從產品到服務的一站式解決方案,助力輕松部署桌面 AI 計算機。
    的頭像 發(fā)表于 09-23 17:20 ?1498次閱讀
    NVIDIA DGX Spark桌面<b class='flag-5'>AI</b><b class='flag-5'>計算機</b>開啟預訂

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+可期之變:從AI硬件到AI濕件

    的基本邏輯門 所謂生物計算是一新興的交叉學科領域,其研究靈感來源于自然界生命系統(tǒng)的神奇功能。它將生物學和計算機科學的原理及方法相結合,旨在
    發(fā)表于 09-06 19:12

    【HZ-T536開發(fā)板免費體驗】5- 無需死記 Linux 命令!用 CangjieMagic 在 HZ-T536 開發(fā)板上搭建 MCP 服務器,自然語言輕松控板

    引言:為什么需要 “自然語言控板”? 痛點引入 :嵌入式開發(fā)中,開發(fā)者常需通過 SSH 等工具登錄開發(fā)板,手動輸入復雜的 Linux 命令(如ls -l、gpio readall、ifconfig等
    發(fā)表于 08-23 13:10

    AI芯片:加速人工智能計算的專用硬件引擎

    人工智能(AI)的快速發(fā)展離不開高性能計算硬件的支持,而傳統(tǒng)CPU由于架構限制,難以高效處理AI任務中的大規(guī)模并行計算需求。因此,專為
    的頭像 發(fā)表于 07-09 15:59 ?1928次閱讀

    任正非說 AI已經確定是第四次工業(yè)革命 那么如何從容地加入進來呢?

    多個學科知識。例如,在計算機視覺領域,了解物理學中的光學知識有助于理解圖像的形成和采集過程;在自然語言處理中,
    發(fā)表于 07-08 17:44

    milvus向量數(shù)據(jù)庫的主要特性和應用場景

    Milvus 是一開源的向量數(shù)據(jù)庫,專門為處理和分析大規(guī)模向量數(shù)據(jù)而設計。它適用于需要高效存儲、檢索和管理向量數(shù)據(jù)的應用場景,如機器學習、人工智能、計算機視覺
    的頭像 發(fā)表于 07-04 11:36 ?1216次閱讀
    milvus向量數(shù)據(jù)庫的主要特性和應用場景

    思必馳與上海交大聯(lián)合實驗室篇論文入選ICML 2025

    會議。會議涵蓋了機器學習的各個前沿方向,包括但不限于深度學習、強化學習、自然語言處理、計算機視覺、貝葉斯方法及優(yōu)化算法等。
    的頭像 發(fā)表于 06-16 09:23 ?1591次閱讀
    思必馳與上海交大聯(lián)合實驗室<b class='flag-5'>兩</b>篇論文入選ICML 2025