chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

VisCPM:邁向多語言多模態(tài)大模型時代

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:未知 ? 2023-07-10 10:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著 GPT-4 和 Stable Diffusion 等模型多模態(tài)能力的突飛猛進(jìn),多模態(tài)大模型已經(jīng)成為大模型邁向通用人工智能(AGI)目標(biāo)的下一個前沿焦點??傮w而言,面向圖像和文本的多模態(tài)生成能力可以大致分為兩類:

1. 在圖生文(image-to-text generation)方面,以 GPT-4 為代表的多模態(tài)大模型,可以面向圖像進(jìn)行開放域?qū)υ捄蜕疃韧评恚?/span>

2. 在文生圖(text-to-image generation)方面,以 Stable Diffusion 為代表的多模態(tài)模型,可以根據(jù)文本生成圖像內(nèi)容。由這些多模態(tài)模型掀起的 AIGC 浪潮,廣泛而深刻地改變著學(xué)術(shù)界和工業(yè)界的思想實踐。

然而,目前多模態(tài)大模型的成功很大程度上局限于英文世界,而中文等其他非英語語言的多模態(tài)能力明顯落后。這是因為相比于英文世界,中文等其他非英語語言的多模態(tài)數(shù)據(jù)嚴(yán)重稀缺,難以滿足多模態(tài)大模型對大規(guī)模高質(zhì)量圖文對數(shù)據(jù)的需求。這些問題使得多語言多模態(tài)大模型的構(gòu)建極具挑戰(zhàn)性。

為了解決上述挑戰(zhàn),我們提出使用高資源語言(如英語)作為橋接圖像信號和低資源語言(如中文)的橋梁,實現(xiàn)多語言多模態(tài)大模型能力的快速泛化,從而緩解對低資源語言下模態(tài)對齊數(shù)據(jù)(圖文對數(shù)據(jù))的依賴。

通過類比人類的學(xué)習(xí)過程,我們可以直觀地理解該方法:人類學(xué)習(xí)者可以僅通過母語與視覺信號的對應(yīng)關(guān)系,以及母語與不同語言之間的對應(yīng)關(guān)系,自然地建立起不同語言下對視覺信號的統(tǒng)一認(rèn)知。這是由于不同的自然語言符號系統(tǒng),很大程度上都是以描述相同的客觀世界為驅(qū)動力演化發(fā)展而來的,這為多語言多模態(tài)能力的快速泛化提供了基礎(chǔ)。

為了驗證上述方法,我們以中英雙語的多模態(tài)大模型為例,構(gòu)建了 VisCPM 系列模型,建立中英雙語的多模態(tài)對話能力(VisCPM-Chat 模型)和文到圖生成能力(VisCPM-Paint 模型)。

多語言對齊方面,我們選用百億參數(shù)量的 CPM-Bee 10B 作為基底語言模型。該模型優(yōu)秀的中英雙語能力,提供了多語言對齊的基礎(chǔ)。在多模態(tài)對齊方面,我們?yōu)镃PM-Bee分別融合視覺編碼器(Q-Former)和視覺解碼器(Diffusion-UNet)以支持視覺信號的輸入和輸出。得益于 CPM-Bee 基座優(yōu)秀的雙語能力,VisCPM 可以僅通過英文多模態(tài)數(shù)據(jù)預(yù)訓(xùn)練,泛化實現(xiàn)優(yōu)秀的中文多模態(tài)能力。

c50d57a8-1ec4-11ee-962d-dac502259ad0.png

中英雙語多模態(tài)對話模型VisCPM-Chat

VisCPM-Chat 模型使用 Q-Former 作為視覺編碼器,使用 CPM-Bee(10B)作為語言基座模型,并通過語言建模訓(xùn)練目標(biāo)融合視覺和語言模型。模型訓(xùn)練包括預(yù)訓(xùn)練和指令精調(diào)兩階段:

  • 預(yù)訓(xùn)練:我們使用約 100M 高質(zhì)量英文圖文對數(shù)據(jù)對 VisCPM-Chat 進(jìn)行了預(yù)訓(xùn)練,數(shù)據(jù)包括 CC3M、CC12M、COCO、Visual Genome、LAION 等。在預(yù)訓(xùn)練階段,語言模型參數(shù)保持固定,僅更新Q-Former部分參數(shù),以支持大規(guī)模視覺-語言表示的高效對齊。

  • 指令精調(diào):我們采用 LLaVA-150K 英文指令精調(diào)數(shù)據(jù),并混合相應(yīng)翻譯后的中文數(shù)據(jù)對模型進(jìn)行指令精調(diào),以對齊模型多模態(tài)基礎(chǔ)能力和用戶使用意圖。在指令精調(diào)階段,我們更新全部模型參數(shù),以提升指令精調(diào)數(shù)據(jù)的利用效率。有趣的是,我們發(fā)現(xiàn)即使僅采用英文指令數(shù)據(jù)進(jìn)行指令精調(diào),模型也可以理解中文問題,但僅能用英文回答。這表明模型的多語言多模態(tài)能力已經(jīng)得到良好的泛化。在指令精調(diào)階段進(jìn)一步加入少量中文翻譯數(shù)據(jù),可以將模型回復(fù)語言和用戶問題語言對齊。

我們在 LLaVA 標(biāo)準(zhǔn)英文測試集和翻譯的中文測試集對模型進(jìn)行了評測,該評測基準(zhǔn)考察模型在開放域?qū)υ?、圖像細(xì)節(jié)描述、復(fù)雜推理方面的表現(xiàn),并使用 GPT-4 進(jìn)行打分??梢杂^察到,在不使用任何中文圖文對預(yù)訓(xùn)練數(shù)據(jù)的情況下,VisCPM-Chat 在中文多模態(tài)能力方面取得了最佳的平均性能,在通用域?qū)υ捄蛷?fù)雜推理表現(xiàn)出色,同時也表現(xiàn)出了不錯的英文多模態(tài)能力。

在上述平衡的中英雙語能力(VisCPM-Chat-balance)基礎(chǔ)上,我們在預(yù)訓(xùn)練階段額外加入 20M 清洗后的原生中文圖文對數(shù)據(jù)和 120M 翻譯到中文的圖文對數(shù)據(jù),可以實現(xiàn)中文多模態(tài)能力的進(jìn)一步強(qiáng)化(VisCPM-Chat-zhplus)。

c53a43b2-1ec4-11ee-962d-dac502259ad0.png

VisCPM-Chat 表現(xiàn)出令人印象深刻的圖像理解能力,并能夠在對話中運用世界知識和常識知識。例如在下圖中,VisCPM 能夠識別染色的地圖和人像,并正確理解出染色代表的不同含義。除此之外,VisCPM-Chat 還具有不錯的中文特色能力,比如能用李白的詩描繪黃河的景象并作解讀,在面對中秋月夜時還能用蘇軾的《水調(diào)歌頭》借景抒情。

c5b3070c-1ec4-11ee-962d-dac502259ad0.png

中英雙語文生圖模型VisCPM-Paint

VisCPM-Paint 使用 CPM-Bee(10B)作為文本編碼器,使用 UNet 作為圖像解碼器,并通過擴(kuò)散模型訓(xùn)練目標(biāo)融合語言和視覺模型。在訓(xùn)練過程中,語言模型參數(shù)始終保持固定。我們使用 Stable Diffusion 2.1 的 UNet 參數(shù)初始化視覺解碼器,并通過逐步解凍其中關(guān)鍵的橋接參數(shù)將其與語言模型融合。該模型在 LAION 2B 英文圖文對數(shù)據(jù)上進(jìn)行了訓(xùn)練。

我們在標(biāo)準(zhǔn)圖像生成測試集 MSCOCO 上采樣了 3 萬張圖片,計算了常用評估圖像生成指標(biāo) FID(Fréchet Inception Distance)評估生成圖片的質(zhì)量。與 VisCPM 類似,我們發(fā)現(xiàn)得益于 CPM-Bee 的雙語能力,VisCPM-Paint 可以僅通過英文圖文對訓(xùn)練,泛化實現(xiàn)良好的中文文到圖生成能力,達(dá)到中文開源模型的最佳效果。在中英平衡能力(VisCPM-Paint-balance)的基礎(chǔ)上,通過進(jìn)一步加入 20M 清洗后的原生中文圖文對數(shù)據(jù),以及 120M 翻譯到中文的圖文對數(shù)據(jù),模型的中文文到圖生成能力可以獲得進(jìn)一步提升(VisCPM-Paint-zhplus)。

c5dc28e4-1ec4-11ee-962d-dac502259ad0.png

VisCPM-Paint 模型中分別輸入“海上生明月,天涯共此時,唯美風(fēng)格,抽象風(fēng)格”和“人閑桂花落,月靜春山空”兩條 prompts,生成了以下兩張圖片??梢钥闯?,VisCPM-Paint 對中國特色意向也有較好的把握能力。

為了推動多模態(tài)大模型開源社區(qū)和相關(guān)研究領(lǐng)域的發(fā)展,我們將 VisCPM 系列的所有模型免費開源(https://github.com/OpenBMB/VisCPM),歡迎個人和研究用途自由使用。未來我們也會將 VisCPM 整合到 huggingface代碼框架中,以及陸續(xù)完善安全模型、 支持快速網(wǎng)頁部署、 支持模型量化功能、支持模型微調(diào)等功能,歡迎持續(xù)關(guān)注。

· ·


原文標(biāo)題:VisCPM:邁向多語言多模態(tài)大模型時代

文章出處:【微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:VisCPM:邁向多語言多模態(tài)大模型時代

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    海光DCU完成Qwen3.5模態(tài)MoE模型全量適配

    近日,海光DCU完成Qwen3.5-397B MoE旗艦模態(tài)模型、Qwen3.5-35B-A3B MoE模態(tài)
    的頭像 發(fā)表于 03-26 09:35 ?616次閱讀

    京東多語言質(zhì)量解決方案

    一、業(yè)界多語言面臨的通用挑戰(zhàn)是什么 做這個事之前,我們先看看業(yè)界做了什么。 ??阿里巴巴全球化測試技術(shù)介紹? ??螞蟻全球化無線端質(zhì)量解決方案? ??談?wù)?b class='flag-5'>多語言測試? 總結(jié)下來,需要面臨3個通用
    的頭像 發(fā)表于 01-13 16:18 ?1043次閱讀
    京東<b class='flag-5'>多語言</b>質(zhì)量解決方案

    商湯科技日日新V6.5榮獲2025年模態(tài)模型全國第一

    近日,權(quán)威大模型評測基準(zhǔn) SuperCLUE 發(fā)布《中文模態(tài)視覺語言模型測評基準(zhǔn)12月報告》,商湯日日新V6.5(SenseNova V6
    的頭像 發(fā)表于 01-06 14:44 ?898次閱讀
    商湯科技日日新V6.5榮獲2025年<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>全國第一

    模態(tài)感知大模型驅(qū)動的密閉空間自主勘探系統(tǒng)的應(yīng)用與未來發(fā)展

    ? ? 模態(tài)感知大模型驅(qū)動的密閉空間自主勘探系統(tǒng) ? ?北京華盛恒輝模態(tài)感知大模型驅(qū)動的密閉
    的頭像 發(fā)表于 12-29 11:27 ?404次閱讀

    模態(tài)模型驅(qū)動的復(fù)雜環(huán)境精準(zhǔn)導(dǎo)航避障系統(tǒng)平臺的應(yīng)用

    模態(tài)模型驅(qū)動的復(fù)雜環(huán)境精準(zhǔn)導(dǎo)航避障系統(tǒng)平臺的應(yīng)用
    的頭像 發(fā)表于 12-22 13:15 ?385次閱讀
    <b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>驅(qū)動的復(fù)雜環(huán)境精準(zhǔn)導(dǎo)航避障系統(tǒng)平臺的應(yīng)用

    商湯科技正式發(fā)布并開源全新模態(tài)模型架構(gòu)NEO

    商湯科技正式發(fā)布并開源了與南洋理工大學(xué)S-Lab合作研發(fā)的全新模態(tài)模型架構(gòu) —— NEO,為日日新SenseNova 模態(tài)
    的頭像 發(fā)表于 12-08 11:19 ?1138次閱讀
    商湯科技正式發(fā)布并開源全新<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b><b class='flag-5'>模型</b>架構(gòu)NEO

    亞馬遜云科技上線Amazon Nova模態(tài)嵌入模型

    Embeddings模態(tài)嵌入模型現(xiàn)已在Amazon Bedrock上線,這是一款專為Agentic RAG與語義搜索應(yīng)用打造的頂尖模態(tài)
    的頭像 發(fā)表于 10-29 17:15 ?351次閱讀
    亞馬遜云科技上線Amazon Nova<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>嵌入<b class='flag-5'>模型</b>

    阿里巴巴國際站關(guān)鍵字搜索 API 實戰(zhàn):3 步搞定多語言適配 + 限流破局,詢盤量提升 40%

    跨境電商API開發(fā)常陷合規(guī)、多語言、限流等坑。本文詳解從國際合規(guī)(GDPR/CCPA)到參數(shù)優(yōu)化、數(shù)據(jù)結(jié)構(gòu)化及區(qū)域化搜索的全鏈路方案,附Python代碼模板與緩存重試架構(gòu),助力提升調(diào)用成功率至99%+,精準(zhǔn)詢盤增長42%。
    的頭像 發(fā)表于 10-20 14:44 ?1946次閱讀

    速賣通全球運營利器:商品詳情接口多語言 + 合規(guī) + 物流適配技術(shù)全解析

    速賣通全球化適配是跨境成功關(guān)鍵!本文詳解2025最新接口方案,涵蓋多語言智能翻譯、合規(guī)自動校驗、物流精準(zhǔn)推薦與性能優(yōu)化四大模塊,助力商家提升轉(zhuǎn)化率30%+,降低風(fēng)險,提效80%。附實操代碼與新手三步走策略,適合所有想出海的賣家。
    的頭像 發(fā)表于 10-16 09:30 ?705次閱讀
    速賣通全球運營利器:商品詳情接口<b class='flag-5'>多語言</b> + 合規(guī) + 物流適配技術(shù)全解析

    商湯日日新V6.5模態(tài)模型登頂全球權(quán)威榜單

    根據(jù)權(quán)威評測平臺OpenCompass模態(tài)模型學(xué)術(shù)榜單(Multi-modal Academic Leaderboard)最新數(shù)據(jù)顯示,商湯「日日新 V6.5」(SenseNova-V6.5
    的頭像 發(fā)表于 09-10 09:55 ?922次閱讀

    米爾RK3576部署端側(cè)模態(tài)輪對話,6TOPS算力驅(qū)動30億參數(shù)LLM

    細(xì)化需求,系統(tǒng)需實時調(diào)整響應(yīng)策略 1.2 輪對話系統(tǒng)鳥瞰:三顆“核心”協(xié)同驅(qū)動RK3576 模態(tài)交互對話方案基于 RKLLM 的核心運作,依賴于圖像視覺編碼器、大語言
    發(fā)表于 09-05 17:25

    淺析模態(tài)標(biāo)注對大模型應(yīng)用落地的重要性與標(biāo)注實例

    ?在人工智能邁向AGI通用智能的關(guān)鍵道路上,大模型正從單一的文本理解者,演進(jìn)為能同時看、聽、讀、想的“多面手”。驅(qū)動這一進(jìn)化的核心燃料,正是高質(zhì)量的模態(tài)數(shù)據(jù),而將原始數(shù)據(jù)轉(zhuǎn)化為“機(jī)器
    的頭像 發(fā)表于 09-05 13:49 ?2701次閱讀

    模態(tài)感知+豆包大模型!家居端側(cè)智能升級

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)日前,在火山引擎2025春季FORCE原動力大會上,星宸科技股份有限公司董事副總經(jīng)理陳立敬談到,在人工智能技術(shù)飛速發(fā)展的時代,模態(tài)感知與大模型的融合成為
    的頭像 發(fā)表于 06-21 00:06 ?7301次閱讀
    <b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>感知+豆包大<b class='flag-5'>模型</b>!家居端側(cè)智能升級

    商湯日日新SenseNova融合模態(tài)模型 國內(nèi)首家獲得最高評級的大模型

    近日,中國信息通信研究院(以下簡稱“中國信通院”)完成可信AI模態(tài)模型首輪評估。 商湯日日新SenseNova融合模態(tài)模型在所有
    的頭像 發(fā)表于 06-11 11:57 ?1546次閱讀

    愛芯通元NPU適配Qwen2.5-VL-3B視覺模態(tài)模型

    熟悉愛芯通元NPU的網(wǎng)友很清楚,從去年開始我們在端側(cè)模態(tài)模型適配上一直處于主動緊跟的節(jié)奏。先后適配了國內(nèi)最早開源的模態(tài)大模MiniCP
    的頭像 發(fā)表于 04-21 10:56 ?3658次閱讀
    愛芯通元NPU適配Qwen2.5-VL-3B視覺<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>