chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

NLP 2019 Highlights 給NLP從業(yè)者的一個參考

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:深度學習自然語言 ? 2020-09-25 16:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自然語言處理專家elvis在medium博客上發(fā)表了關于NLP在2019年的亮點總結(jié)。對于自然語言處理(NLP)領域而言,2019年是令人印象深刻的一年。在這篇博客文章中,我想重點介紹一些我在2019年遇到的與機器學習和NLP相關的最重要的故事。我將主要關注NLP,但我還將重點介紹一些與AI相關的有趣故事。標題沒有特別的順序。故事可能包括論文,工程工作,年度報告,教育資源的發(fā)布等。

論文刊物

ML / NLP創(chuàng)造力與社會

ML / NLP工具和數(shù)據(jù)集

文章和博客文章

人工智能倫理

ML / NLP教育

Google AI引入了ALBERT,它是BERT 的精簡版本,用于自監(jiān)督學習上下文語言表示。主要改進是減少冗余并更有效地分配模型的容量。該方法提高了12個NLP任務的最新性能。

Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, Radu Soricut:ALBERT: ALiteBERTforSelf-supervised LearningofLanguageRepresentations.ICLR 2020.

Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. NAACL-HLT (1) 2019: 4171-4186
arxiv.org/abs/1810.0480

機器在比賽中的表現(xiàn)(類似sat的閱讀理解)。隨機猜測的基線得分為25.0。最高分是95.0分。

今年早些時候,NVIDIA的研究人員發(fā)表了一篇頗受歡迎的論文(Coined StyleGAN)(arxiv.org/pdf/1812.0494),提出了一種從樣式轉(zhuǎn)換中采用的GAN替代生成器架構(gòu)。這是一項后續(xù)工作(arxiv.org/pdf/1912.0495),著重于改進,例如重新設計生成器歸一化過程。

Tero Karras, Samuli Laine, Timo Aila:A Style-Based Generator Architecture for Generative Adversarial Networks. CVPR 2019: 4401-4410

Tero Karras, Samuli Laine, Miika Aittala, Janne Hellsten, Jaakko Lehtinen, Timo Aila:Analyzing and Improving the Image Quality of StyleGAN. CoRR abs/1912.04958 (2019)

上排顯示目標圖像,下排顯示合成圖像

我今年最喜歡的論文之一是code2seq(code2seq.org/),它是一種從結(jié)構(gòu)化代碼表示中生成自然語言序列的方法。這樣的研究可以讓位于諸如自動代碼摘要和文檔之類的應用程序。

Uri Alon, Shaked Brody, Omer Levy, Eran Yahav:code2seq: Generating Sequences from Structured Representations of Code. ICLR (Poster) 2019

有沒有想過是否有可能為生物醫(yī)學文本挖掘訓練生物醫(yī)學語言模型?答案是BioBERT(arxiv.org/abs/1901.0874),這是一種從生物醫(yī)學文獻中提取重要信息的情境化方法。

Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, Jaewoo Kang:BioBERT: a pre-trained biomedical language representation model for biomedical text mining. CoRR abs/1901.08746 (2019)

BERT發(fā)布后,F(xiàn)acebook研究人員發(fā)布了RoBERTa,該版本引入了新的優(yōu)化方法來改進BERT,并在各種NLP基準上產(chǎn)生了最新的結(jié)果。(ai.facebook.com/blog/-t)

Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, Veselin Stoyanov:RoBERTa: A Robustly Optimized BERT Pretraining Approach. CoRR abs/1907.11692 (2019)

來自Facebook AI的研究人員最近還發(fā)布了一種基于全注意力關注層的方法,用于提高Transformer語言模型的效率。從這個研究小組更多的工作包括方法來教如何使用自然語言規(guī)劃的AI系統(tǒng)。

Sainbayar Sukhbaatar, Edouard Grave, Piotr Bojanowski, Armand Joulin:Adaptive Attention Span in Transformers. ACL (1) 2019: 331-335

可解釋性仍然是機器學習和NLP中的重要主題。集大成者!可解釋人工智能(XAI)研究最新進展萬字綜述論文: 概念體系機遇和挑戰(zhàn)—構(gòu)建負責任的人工智能

Alejandro Barredo Arrieta, Natalia Díaz Rodríguez, Javier Del Ser, Adrien Bennetot, Siham Tabik, Alberto Barbado, Salvador García, Sergio Gil-Lopez, Daniel Molina, Richard Benjamins, Raja Chatila, Francisco Herrera:Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI.CoRR abs/1910.10045 (2019)

Sebastian Ruder發(fā)表了有關自然語言處理的神經(jīng)遷移學習的論文

(ruder.io/thesis/)。

Ruder2019Neural,Neural Transfer Learning for Natural Language Processing, Ruder, Sebastian,2019,National University of Ireland, Galway

一些研究人員開發(fā)了一種在對話中進行情感識別的方法(arxiv.org/abs/1910.0498),可以為情感對話的產(chǎn)生鋪平道路。另一個相關的工作涉及一種稱為DialogueGCN(aclweb.org/anthology/D1)的GNN方法,以檢測對話中的情緒。該研究論文還提供了代碼實現(xiàn)。

Devamanyu Hazarika, Soujanya Poria, Roger Zimmermann, Rada Mihalcea:Emotion Recognition in Conversations with Transfer Learning from Generative Conversation Modeling.CoRR abs/1910.04980 (2019)

Deepanway Ghosal, Navonil Majumder, Soujanya Poria, Niyati Chhaya, Alexander F. Gelbukh:DialogueGCN: A Graph Convolutional Neural Network for Emotion Recognition in Conversation. EMNLP/IJCNLP (1) 2019: 154-164

Google AI Quantum團隊在《自然》雜志上發(fā)表了一篇論文(nature.com/articles/s41),他們聲稱自己開發(fā)了一種量子計算機,其速度比世界上最大的超級計算機還要快。在此處詳細了解他們的實驗。

Arute, F., Arya, K., Babbush, R. et al.Quantum supremacy using a programmable superconducting processor.Nature 574, 505–510 (2019) doi:10.1038/s41586-019-1666-5

如前所述,神經(jīng)網(wǎng)絡體系結(jié)構(gòu)需要大量改進的領域之一是可解釋性。本論文(arxiv.org/abs/1908.0462)探討了在語言模型的上下文explainability一個可靠的方法關注的局限性。

Sarah Wiegreffe, Yuval Pinter:Attention is not not Explanation. EMNLP/IJCNLP (1) 2019: 11-20

神經(jīng)邏輯機器是一種神經(jīng)符號網(wǎng)絡體系結(jié)構(gòu)(arxiv.org/abs/1904.1169),能夠很好地在歸納學習和邏輯推理方面做得很好。該模型在諸如排序數(shù)組和查找最短路徑之類的任務上表現(xiàn)出色。

Honghua Dong, Jiayuan Mao, Tian Lin, Chong Wang, Lihong Li, Denny Zhou:Neural Logic Machines. ICLR (Poster) 2019

神經(jīng)邏輯機器架構(gòu)

這是一篇將Transformer語言模型應用于提取和抽象神經(jīng)類文檔摘要的論文(arxiv.org/abs/1909.0318)。

Sandeep Subramanian, Raymond Li, Jonathan Pilault, Christopher J. Pal:OnExtractiveandAbstractiveNeuralDocumentSummarizationwithTransformerLanguageModels.CoRRabs/1909.03186 (2019)

研究人員開發(fā)了一種方法,側(cè)重于使用比較來建立和訓練ML模型。這種技術不需要大量的特征標簽對,而是將圖像與以前看到的圖像進行比較,以確定圖像是否屬于某個特定的標簽。

blog.ml.cmu.edu/2019/03

Nelson Liu等人發(fā)表了一篇論文,討論了預先訓練的語境設定者(如BERT和ELMo)獲取的語言知識的類型。

arxiv.org/abs/1903.0885

Nelson F. Liu, Matt Gardner, Yonatan Belinkov, Matthew E. Peters, Noah A. Smith:Linguistic Knowledge and Transferability of Contextual Representations. NAACL-HLT (1) 2019: 1073-1094

XLNet是NLP的一種前訓練方法,它在20個任務上都比BERT有改進。我寫了一個總結(jié),這偉大的工作在這里。

arxiv.org/abs/1906.0823

Zhilin Yang, Zihang Dai, Yiming Yang, Jaime G. Carbonell, Ruslan Salakhutdinov, Quoc V. Le:XLNet: Generalized Autoregressive Pretraining for Language Understanding. CoRR abs/1906.08237 (2019)

這項來自DeepMind的工作報告了一項廣泛的實證調(diào)查的結(jié)果,該調(diào)查旨在評估應用于各種任務的語言理解模型。這種廣泛的分析對于更好地理解語言模型所捕獲的內(nèi)容以提高它們的效率是很重要的。

arxiv.org/abs/1901.1137

Dani Yogatama, Cyprien de Masson d'Autume, Jerome Connor, Tomás Kocisky, Mike Chrzanowski, Lingpeng Kong, Angeliki Lazaridou, Wang Ling, Lei Yu, Chris Dyer, Phil Blunsom:Learning and Evaluating General Linguistic Intelligence. CoRR abs/1901.11373 (2019)

VisualBERT是一個簡單而健壯的框架,用于建模視覺和語言任務,包括VQA和Flickr30K等。這種方法利用了一組Transformer層,并結(jié)合了self-attention來對齊文本中的元素和圖像中的區(qū)域。

arxiv.org/abs/1908.0355

Liunian Harold Li, Mark Yatskar, Da Yin, Cho-Jui Hsieh, Kai-Wei Chang:VisualBERT: A Simple and Performant Baseline for Vision and Language. CoRR abs/1908.03557 (2019)

這項工作提供了一個詳細的分析比較NLP轉(zhuǎn)移學習方法和指導NLP的從業(yè)者。

arxiv.org/abs/1903.0598

Matthew E. Peters, Sebastian Ruder, Noah A. Smith:To Tune or Not to Tune? Adapting Pretrained Representations to Diverse Tasks.RepL4NLP@ACL 2019: 7-14

Alex Wang和Kyunghyun提出了BERT的實現(xiàn),能夠產(chǎn)生高質(zhì)量、流暢的表示。

arxiv.org/abs/1902.0409

Facebook的研究人員發(fā)表了XLM的代碼(PyTorch實現(xiàn)),這是一個跨語言模型的預培訓模型。

github.com/facebookrese

本文全面分析了強化學習算法在神經(jīng)機器翻譯中的應用。

cl.uni-heidelberg.de/st

這篇發(fā)表在JAIR上的調(diào)查論文對跨語言單詞嵌入模型的培訓、評估和使用進行了全面的概述。

jair.org/index.php/jair

Gradient發(fā)表了一篇優(yōu)秀的文章,詳細闡述了強化學習目前的局限性,并提供了一條潛在的分級強化學習的前進道路。一些人發(fā)布了一套優(yōu)秀的教程來開始強化學習。

thegradient.pub/the-pro

這篇簡要介紹了上下文詞表示。

arxiv.org/abs/1902.0600

責任編輯:xj

原文標題:【前沿】28篇標志性論文見證「自然語言處理NLP」2019->2020年度亮點進展

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 自然語言處理

    關注

    1

    文章

    630

    瀏覽量

    14712
  • nlp
    nlp
    +關注

    關注

    1

    文章

    491

    瀏覽量

    23337

原文標題:【前沿】28篇標志性論文見證「自然語言處理NLP」2019->2020年度亮點進展

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    場為嵌入式與邊緣AI從業(yè)者量身定制的技術盛宴,搶先預約席位!

    各位關注嵌入式與邊緣計算的朋友們注意啦,「AI向?qū)嵣鷳B(tài)共融」嵌入式及邊緣AI技術生態(tài)大會將于4月17日在深圳舉辦,絕對是你今年不容錯過的行業(yè)盛會!立即免費報名>>這場大會聚焦嵌入式與邊緣AI技術落地,不僅有新趨勢、新產(chǎn)品解讀,更聯(lián)合瑞芯微、全志、江波龍、鴻湖萬聯(lián)等重磅生態(tài)伙伴,分享前沿方向的實戰(zhàn)經(jīng)驗——從技術能力構(gòu)建到可靠性測試,從平臺賦能到生態(tài)協(xié)同,內(nèi)容覆
    的頭像 發(fā)表于 04-01 07:59 ?91次閱讀
    <b class='flag-5'>一</b>場為嵌入式與邊緣AI<b class='flag-5'>從業(yè)者</b>量身定制的技術盛宴,搶先預約席位!

    4 月 1 日起執(zhí)行分布式光伏監(jiān)控新規(guī),直接影響從業(yè)者與項目收益

    光伏人注意啦!份關乎分布式光伏行業(yè)規(guī)范化、智能化發(fā)展的重磅國標,即將正式落地實施 ——GB/T 34932-2025《分布式光伏發(fā)電系統(tǒng)遠程監(jiān)控技術規(guī)范》,將于2026 年 4 月 1 日正式生效
    的頭像 發(fā)表于 03-20 15:45 ?181次閱讀
    4 月 1 日起執(zhí)行分布式光伏監(jiān)控新規(guī),直接影響<b class='flag-5'>從業(yè)者</b>與項目收益

    具身智能規(guī)模化落地卡在何處?靈境智源正叩響“四扇門”的最后關隘

    當資本的潮水涌向具身智能,當實驗室的炫酷demo不斷刷新認知,更根本的問題卻擺在所有從業(yè)者面前:從技術突破到規(guī)模化落地,我們究竟被卡在了哪里?是“身體”不夠強健,還是“大腦”不夠聰明?是工具不夠趁手,還是我們?nèi)栽凇肮聧u”中創(chuàng)
    的頭像 發(fā)表于 03-04 17:28 ?640次閱讀

    人形機器人產(chǎn)業(yè)地圖:文看清千億賽道的關鍵拼圖

    當人形機器人從科幻走進現(xiàn)實,其背后是龐大而復雜的產(chǎn)業(yè)體系正在快速成型。對于從業(yè)者、投資者或任何希望理解這領域的人而言,張清晰的“產(chǎn)業(yè)
    的頭像 發(fā)表于 02-14 21:16 ?1.2w次閱讀

    NVIDIA全新開放物理AI模型和框架加速人形機器人開發(fā)

    本文是洞悉 Omniverse 系列文章。“洞悉 Omniverse”重點介紹開發(fā)者、3D 從業(yè)者與企業(yè)如何使用 OpenUSD 和 NVIDIA Omniverse 的最新進展從根本上變革他們的工作流程。
    的頭像 發(fā)表于 02-06 15:36 ?742次閱讀

    自然語言處理NLP的概念和工作原理

    自然語言處理 (NLP) 是人工智能 (AI) 的分支,它會教計算機如何理解口頭和書面形式的人類語言。自然語言處理將計算語言學與機器學習和深度學習相結(jié)合來處理語音和文本數(shù)據(jù),這些數(shù)據(jù)也可以與其他類型的數(shù)據(jù)
    的頭像 發(fā)表于 01-29 14:01 ?562次閱讀
    自然語言處理<b class='flag-5'>NLP</b>的概念和工作原理

    文讀懂:直線模組兩滑塊距離能否調(diào)節(jié)?

    直線模組作為自動化設備中的核心傳動部件,廣泛應用于數(shù)控機床、自動化流水線、機器人等各類設備中,其滑塊的安裝與調(diào)節(jié)直接影響設備的運行精度和穩(wěn)定性。不少從事設備安裝、調(diào)試或選型的從業(yè)者都會面臨
    的頭像 發(fā)表于 12-29 15:47 ?419次閱讀
    <b class='flag-5'>一</b>文讀懂:直線模組兩<b class='flag-5'>個</b>滑塊距離能否調(diào)節(jié)?

    【免費送書】本書吃透千億產(chǎn)值的EDA產(chǎn)業(yè)

    本書以產(chǎn)業(yè)史觀融合技術洞察,既可作為EDA從業(yè)者的行業(yè)全景圖鑒,也可為政府制定產(chǎn)業(yè)政策、投資機構(gòu)把握賽道機遇、高校培養(yǎng)專業(yè)人才提供系統(tǒng)化參考,更是半導體領域研究者不可或缺的產(chǎn)業(yè)演進啟示錄。
    的頭像 發(fā)表于 12-16 08:08 ?436次閱讀
    【免費送書】<b class='flag-5'>一</b>本書吃透千億產(chǎn)值的EDA產(chǎn)業(yè)

    福田歐曼銀河燃氣車推動物流行業(yè)高價值運輸

    在物流行業(yè)競爭加劇、運營成本高企的當下,降本增效成為從業(yè)者的核心訴求,燃氣重卡憑借經(jīng)濟高效的特性,已成為干線運輸領域的主流選擇。
    的頭像 發(fā)表于 11-21 14:49 ?673次閱讀

    2025無線遙控開關產(chǎn)品:技術對比與應用方案解析

    本文將基于權威數(shù)據(jù)平臺的研究,對無線遙控開關的技術特點、市場趨勢、品牌廠商和應用方案進行深度解析,為行業(yè)從業(yè)者提供全面、客觀的指導參考。
    的頭像 發(fā)表于 11-14 10:40 ?621次閱讀

    億緯鋰能分享鋰電池40年從業(yè)者的心聲

    11月10日,億緯鋰能董事長劉金成博士應邀出席中國化學會第二十三次全國電化學大會,發(fā)表《鋰電池40年從業(yè)者的心聲》主題報告。他以自己四十年的鋰電池從業(yè)經(jīng)歷,回顧了中國鋰電池從艱難起步到引領全球的發(fā)展之路,并分享了對于行業(yè)未來發(fā)展趨勢的深刻洞見。
    的頭像 發(fā)表于 11-11 14:05 ?1062次閱讀

    RFID是啥?從RFID工作原理到實際用處全方位解析

    景,幫你徹底搞懂RFID距離不同的真正原因。無論你是倉儲管理、物流從業(yè)者,還是科技愛好者,這篇文章都能讓你秒懂RFID。
    的頭像 發(fā)表于 10-13 15:21 ?4321次閱讀
    RFID是<b class='flag-5'>個</b>啥?從RFID工作原理到實際用處全方位解析

    傾佳電子SiC碳化硅功率器件戰(zhàn)略市場精通指南:從業(yè)者進階之路

    傾佳電子SiC碳化硅功率器件戰(zhàn)略市場精通指南:從業(yè)者進階之路 傾佳電子(Changer Tech)是家專注于功率半導體和新能源汽車連接器的分銷商。主要服務于中國工業(yè)電源、電力電子設備和新能源
    的頭像 發(fā)表于 10-09 17:47 ?901次閱讀
    傾佳電子SiC碳化硅功率器件戰(zhàn)略市場精通指南:<b class='flag-5'>從業(yè)者</b>進階之路

    使用NVIDIA Cosmos模型提高未來智能汽車安全性

    本文是洞悉 Omniverse 系列文章?!岸聪?Omniverse” 重點介紹開發(fā)者、3D 從業(yè)者與企業(yè)如何使用 OpenUSD 和 NVIDIA Omniverse 的最新進展深入改變他們的工作流。
    的頭像 發(fā)表于 07-14 11:46 ?1303次閱讀

    網(wǎng)絡安全從業(yè)者入門指南

    所有網(wǎng)絡安全專業(yè)和各部門人員都有共同的總體目標,就是要降低網(wǎng)絡風險。但是,對于工業(yè)、醫(yī)療保健、其他以網(wǎng)絡化物理系統(tǒng) (CPS) 為運營基礎的關鍵基礎設施領域的企業(yè)來說,這目標正在逐步消失。原因之
    發(fā)表于 06-20 15:56 ?1次下載