chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

受控文本生成模型的一般架構(gòu)及故事生成任務(wù)等方面的具體應(yīng)用

深度學(xué)習(xí)自然語言處理 ? 來源:哈工大訊飛聯(lián)合實驗室 ? 作者:申資卓 ? 2021-10-13 09:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來自:哈工大訊飛聯(lián)合實驗室

本期導(dǎo)讀:本文是對受控文本生成任務(wù)的一個簡單的介紹。首先,本文介紹了受控文本生成模型的一般架構(gòu),點明了受控文本生成模型的特點。然后,本文介紹了受控文本生成技術(shù)在故事生成任務(wù)和常識生成任務(wù)上的具體應(yīng)用,指出了受控文本生成技術(shù)在具體應(yīng)用場景下的改進方向。

0. 什么是受控文本生成

文本生成任務(wù)是自然語言處理領(lǐng)域十分重要的一類任務(wù)。文本摘要、語法糾錯、人機對話等很多自然語言處理任務(wù)都可以被視為文本生成任務(wù)。GPT-2、BART、T5等文本生成相關(guān)的技術(shù)也在這些任務(wù)上取得了較好的效果。

受控文本生成任務(wù)與常規(guī)的文本生成任務(wù)有一些不同。常規(guī)的文本生成任務(wù)對生成文本的內(nèi)容(Content)通常沒有強制性的約束,而受控文本生成任務(wù)會要求生成文本的內(nèi)容必須滿足一些既定的約束條件,如風(fēng)格(Style)、主題(Topic)等。

例如,文本風(fēng)格轉(zhuǎn)換(Text Style Transfer)就是一類十分經(jīng)典的受控文本生成任務(wù),該任務(wù)要求生成文本的內(nèi)容在語義上需要與轉(zhuǎn)換前保持一致,在風(fēng)格上需要轉(zhuǎn)換為預(yù)定義好的目標風(fēng)格。從應(yīng)用的角度來看,受控文本生成技術(shù)更有希望構(gòu)建出場景適配的、用戶可接受的文本生成系統(tǒng)。因此,受控文本生成技術(shù)已經(jīng)被越來越多的研究者關(guān)注。

1. 受控文本生成模型的一般架構(gòu)

CMU的一些研究者們發(fā)表在COLING 2020的一篇論文對受控文本生成模型的一般架構(gòu)(見圖1)進行了比較細致的描述。受控文本生成模型在生成受控文本時可以通過5個子模塊對生成文本進行控制。

第一個模塊稱為額外輸入模塊(External Input module),該模塊負責(zé)提供生成受控文本時的初始信號。

第二個模塊稱為序列輸入模塊(Sequential Input module),該模塊負責(zé)提供生成受控文本時每個時間步上的輸入。

第三個模塊稱為生成操作模塊(Generator Operations module),該模塊決定每個時間步向量表示的計算方式,即是使用RNN計算,還是使用Transformer計算,亦或是使用其他計算方式。

第四個模塊稱為輸出模塊(Output module),該模塊負責(zé)將每個時間步的向量表示映射為輸出結(jié)果。

第五個模塊稱為訓(xùn)練目標模塊(Training Objective module),該模塊負責(zé)損失函數(shù)的計算。

其中額外輸入模塊,是受控文本生成模型中比較特殊且重要的一個模塊,該模塊通常會提供一個與控制目標相關(guān)的向量表示作為受控文本生成的初始信號,從而保證生成的文本滿足預(yù)定義的控制目標。另外,輸出模塊也是受控文本生成模型致力于改進的一個模塊。常規(guī)的文本生成任務(wù)只需要將每個時間步的向量表示映射為詞表分布作為輸出空間即可,而在受控文本生成模型中就需要通過某種方式改變輸出空間的分布去獲得期望的輸出結(jié)果。

2. 受控文本生成技術(shù)在故事生成任務(wù)上的應(yīng)用

本節(jié)介紹一個發(fā)表在EMNLP 2020上的利用受控文本生成技術(shù)改進故事生成的工作。該工作使用的數(shù)據(jù)集為ROCStories dataset(該數(shù)據(jù)集中的每個故事都由5個句子組成),其任務(wù)設(shè)定為給定故事的第一個句子,機器自動生成后面的句子。

如果不使用受控文本生成技術(shù),該任務(wù)就是一個簡單的語言模型式的文本生成任務(wù),直接使用GPT-2就可以完成。但是,直接使用GPT-2生成的故事很難保證生成的結(jié)果是語義連貫且邏輯自洽的。因此,將受控文本生成技術(shù)引入到故事生成任務(wù)中就有可能控制故事生成的內(nèi)容,從而改進故事生成的效果。

該工作首先使用一個基于GPT-2的關(guān)鍵詞預(yù)測模型預(yù)測出與下一句相關(guān)的關(guān)鍵詞,然后使用這些關(guān)鍵詞去大規(guī)模的知識庫中檢索出與這些關(guān)鍵詞相關(guān)的三元組,這些三元組會通過一些模板被轉(zhuǎn)化為句子。

由于這些由三元組轉(zhuǎn)化的句子數(shù)量較多且可能存在大量的噪音,因此,還需要一個與下一句信息相關(guān)聯(lián)的基于BERT的排序模型對這些句子進行排序,從而選擇出與下一句信息最相關(guān)的TopN個句子。在獲得這些來源于知識庫的句子后,我們就可以將這些句子作為控制信息并與當(dāng)前句進行拼接一起作為GPT-2的輸入去生成下一句。上述流程需要循環(huán)進行直到生成故事中所有的句子。圖2是該工作整體的流程圖。

e3bc4c42-14b5-11ec-8fb8-12bb97331649.png

圖2 基于知識庫信息控制的故事生成流程圖

這個工作雖然沒有對受控文本生成模型進行改進,但是從大規(guī)模知識庫中獲取控制信息進行文本生成的思路還是有一定借鑒意義的。

3. 受控文本生成技術(shù)在常識生成任務(wù)上的應(yīng)用

本節(jié)介紹一個發(fā)表在ACL 2021上將受控文本生成技術(shù)應(yīng)用在常識生成任務(wù)上的工作。常識生成任務(wù)是一項比較新穎的文本生成任務(wù)。該任務(wù)的設(shè)定為給定一個概念集合,機器需要自動生成一個能夠描述這個概念集合的句子,并且生成的句子不能違背常識。例如,給定一個概念集合{apple, bag, put},理想情況下機器應(yīng)該生成“A girl puts an apple in her bag”這樣的句子。如果機器生成了“A girl eats an apple”或者“A girl puts a bag in her apple”,都不能算是一個合格的生成結(jié)果。因此,要想獲得一個較好的生成結(jié)果,我們首先需要保證的就是概念集合里的概念都要出現(xiàn)在輸出結(jié)果中。

本節(jié)介紹的工作提出了一種名為“Mention Flags”的方法,通過在解碼端引入一個提及標記矩陣(Mention Flag Matrix)來標記輸入項與輸出項的提及關(guān)系,從而控制每個時間步解碼時的輸出。提及標記矩陣中的元素共有3種不同的取值,取0時表示該輸入項不是控制項,取1時表示該輸入項是控制項,但在輸出項中未出現(xiàn)。取2時表示該輸入項是控制項,并已經(jīng)在輸出項中出現(xiàn)。以輸入為{apple, bag, put},輸出為“A girl puts an apple in her bag”為例。

在訓(xùn)練時,提及標記矩陣可以通過輸入與輸出的對齊數(shù)據(jù)直接轉(zhuǎn)換得到。在推理時,我們只需要在每個時間步遞增式地擴充提及標記矩陣的每一列即可。

最后是如何將提及標記矩陣融入到模型中的問題。由于該工作使用的是基于Transformer的文本生成模型,其作者將提及標記矩陣視為輸入項與輸出項的相對位置(Relative Position),在計算輸出項與輸入項的交叉注意力(Cross Attention)時將相對位置信息融入到模型計算中。

4. 小結(jié)

本文簡單介紹了受控文本生成與常規(guī)文本生成任務(wù)的區(qū)別,并對受控文本生成模型的一般架構(gòu)進行了闡述。受控文本生成的特殊點主要在于受控信息的獲取以及對輸出結(jié)果的控制。因此,要想獲得一個較好的受控文本生成系統(tǒng),就可以從這兩點上對文本生成的模型或方案進行改進。另外,文本還介紹了受控文本生成技術(shù)在故事生成任務(wù)和常識生成任務(wù)上的應(yīng)用,這些方法和思想同樣可以借鑒到其他受控文本生成任務(wù)中。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • CMU
    CMU
    +關(guān)注

    關(guān)注

    0

    文章

    21

    瀏覽量

    15627
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1240

    瀏覽量

    26258
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    16954
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23335

原文標題:受控文本生成任務(wù)簡述

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    工作流大模型節(jié)點說明

    模型節(jié)點是平臺提供的基礎(chǔ)節(jié)點之,開發(fā)者可以在該節(jié)點使用大語言模型處理任務(wù)。 節(jié)點說明 大模型節(jié)點可以調(diào)用大型語言
    發(fā)表于 03-19 14:56

    京東零售廣告創(chuàng)意:統(tǒng)的布局生成和評估模型

    至關(guān)重要的作用。當(dāng)前的布局生成方法在能力上具有任務(wù)特定性,并且評估標準與人類感知不致,導(dǎo)致其應(yīng)用范圍有限且評估效果不佳。為了解決這些問題,Uni-Layout實現(xiàn)了統(tǒng)一生成、模擬人類
    的頭像 發(fā)表于 01-13 16:18 ?1161次閱讀
    京東零售廣告創(chuàng)意:統(tǒng)<b class='flag-5'>一</b>的布局<b class='flag-5'>生成</b>和評估<b class='flag-5'>模型</b>

    模型支撐后勤保障方案生成系統(tǒng):功能特點與平臺架構(gòu)解析

    ? ? 大模型支撐后勤保障方案生成系統(tǒng):功能特點與平臺架構(gòu)解析 ? ?大模型支撐后勤保障方案生成系統(tǒng)憑借智能預(yù)測、動態(tài)調(diào)度、路徑優(yōu)化、庫存管
    的頭像 發(fā)表于 12-17 15:49 ?396次閱讀

    五大大模型支撐后勤保障方案生成系統(tǒng)軟件的應(yīng)用與未來發(fā)展

    ”綜合管理平臺,以及北約聯(lián)合后勤管理信息系統(tǒng)(JLMIS)。這些系統(tǒng)融合大數(shù)據(jù)、人工智能、物聯(lián)網(wǎng)等前沿技術(shù),實現(xiàn)從資源調(diào)度到應(yīng)急響應(yīng)的全流程智能優(yōu)化。具體如下: ? ?、北京華盛恒輝大模型后勤保障方案
    的頭像 發(fā)表于 12-17 15:24 ?387次閱讀

    萬里紅文本生成算法通過國家網(wǎng)信辦備案

    近日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了第十四批深度合成服務(wù)算法備案信息,北京萬里紅科技有限公司(以下簡稱:萬里紅)自主研發(fā)的“萬里紅文本生成算法”正式通過備案。該算法致力于通過自動化的方式,提升知識問答、RAG分類、預(yù)測、文檔生成的準確率,確保信息的安全性和合規(guī)性,為用戶提供及
    的頭像 發(fā)表于 11-14 09:06 ?790次閱讀

    如何讓大模型生成你想要的測試用例?

    應(yīng)用大模型生成測試用例,常見的知識庫,測試大模型,微調(diào),RAG等技術(shù)門檻都不低,甚至很難,因此對于應(yīng)用者而言,最快的方式就是應(yīng)用好提示詞,調(diào)教屬于個人風(fēng)格的測試用例智能生成模塊,讓智能
    的頭像 發(fā)表于 09-26 10:01 ?1103次閱讀
    如何讓大<b class='flag-5'>模型</b><b class='flag-5'>生成</b>你想要的測試用例?

    思必馳鳴智能客服大模型通過生成式人工智能服務(wù)備案

    近日,江蘇網(wǎng)信發(fā)布新生成式人工智能服務(wù)備案信息,其中,由思必馳控股子公司馳必準自主研發(fā)的鳴智能客服大模型通過《生成式人工智能服務(wù)管理暫
    的頭像 發(fā)表于 09-16 18:08 ?1319次閱讀

    【Sipeed MaixCAM Pro開發(fā)板試用體驗】基于MaixCAM-Pro的AI生成圖像鑒別系統(tǒng)

    能夠有效捕捉AI生成圖像與真實手繪掃描圖像在紋理、筆觸、光影、全局致性等方面的細微差異。 邊緣端部署:將模型量化、編譯,最終高效運行在算力有限的MaixCAM-Pro開發(fā)板上。 實時
    發(fā)表于 08-21 13:59

    AI生成的測試用例真的靠譜嗎?

    軟件測試正經(jīng)歷場深刻的技術(shù)革命。AI,尤其是以GPT、通義千問、文心言、Claude等為代表的大語言模型(LLM),開始廣泛介入測試流程:從需求分析、測試用例設(shè)計,到腳本生成與測試
    的頭像 發(fā)表于 08-01 10:02 ?1886次閱讀
    AI<b class='flag-5'>生成</b>的測試用例真的靠譜嗎?

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗】書籍介紹+第章讀后心得

    分析(趨勢分析、數(shù)據(jù)可視化 ),輔助決策流程 自然語言處理 :語言理解(文本分類、意圖識別等 )、翻譯(多語言 )、轉(zhuǎn)換(文體、格式轉(zhuǎn)換 )、文本生成(文案、故事、詩歌文學(xué)創(chuàng)作 ),處理各類自然語言
    發(fā)表于 07-17 11:59

    Copilot操作指南():使用圖片生成原理圖符號、PCB封裝

    “ ?上周推出支持圖片生成模型的華秋發(fā)行版之后,得到了很多小伙伴的肯定。但看到更多的回復(fù)是:為什么我的 Copilot 無法生成符號?只有普通的文本回復(fù)?今天就為大家詳細講解下圖片
    的頭像 發(fā)表于 07-15 11:14 ?5195次閱讀
    Copilot操作指南(<b class='flag-5'>一</b>):使用圖片<b class='flag-5'>生成</b>原理圖符號、PCB封裝

    關(guān)于鴻蒙App上架中“AI文本生成模塊的資質(zhì)證明文件”的情況說明

    檢查結(jié)果為“通過”或?qū)徍藸顟B(tài)為“審核通過”。 那么對于這個問題,我也是嘗試去解決……這里分享下我了解到的情況和方法 首先,這個政策雖然說是針對AI文本生成模塊,但實際上,針對的是所有調(diào)用了AI大模型
    發(fā)表于 06-30 18:37

    谷歌新生成式AI媒體模型登陸Vertex AI平臺

    我們在 Vertex AI 上推出新生成式 AI 媒體模型: Imagen 4、Veo 3 和 Lyria 2。
    的頭像 發(fā)表于 06-18 09:56 ?1277次閱讀

    生成式人工智能認證:重構(gòu)AI時代的人才培養(yǎng)與職業(yè)躍遷路徑

    ,恰似座連接技術(shù)前沿與個體成長的橋梁,既承載著時代對人才的迫切需求,也指向著未來職場的核心競爭力。 、技術(shù)革命的雙重性:賦能與失衡并存 生成式人工智能的突破性,在于其首次讓機器具備了“無中生有”的創(chuàng)造力。從
    的頭像 發(fā)表于 05-23 09:29 ?971次閱讀

    小白學(xué)大模型:從零實現(xiàn) LLM語言模型

    在當(dāng)今人工智能領(lǐng)域,大型語言模型(LLM)的開發(fā)已經(jīng)成為個熱門話題。這些模型通過學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然語言
    的頭像 發(fā)表于 04-30 18:34 ?1433次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:從零實現(xiàn) LLM語言<b class='flag-5'>模型</b>