chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OneLLM:對齊所有模態(tài)的框架!

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 2024-01-04 11:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今天為大家介紹香港中文大學(xué)聯(lián)合上海人工智能實驗室的最新研究論文,關(guān)于在LLM時代將各種模態(tài)的信息對齊的框架。

隨著LLM的興起,由于其強大的語言理解和推理能力,在學(xué)術(shù)和工業(yè)界中越來越受歡迎。LLM的進展也啟發(fā)了研究人員將LLM作為多模態(tài)任務(wù)的接口,如視覺語言學(xué)習(xí)、音頻語音識別、視頻理解等,因此多模態(tài)大語言模型(Multimodal Large Language Model, MLLM)也引起了研究人員的關(guān)注。然而,目前的研究依賴特定于單模態(tài)的編碼器,通常在架構(gòu)上有所不同,并且僅限于常見的模態(tài)。本文提出了OneLLM,這是一種MLLM,它使用一個統(tǒng)一的框架將八種模式與語言對齊。通過統(tǒng)一的多模態(tài)編碼器和漸進式多模態(tài)對齊pipelines來實現(xiàn)這一點。不同多模態(tài)LLM的比較如下圖所示,可以明顯的看出OneLLM框架的工作方式與之前研究的區(qū)別。

5a99f7a2-972b-11ee-8b88-92fbcf53809c.png

OneLLM由輕量級模態(tài)標記器、通用編碼器、通用投影模塊(UPM)和LLM組成。與之前的工作相比,OneLLM 中的編碼器和投影模塊在所有模態(tài)之間共享。特定于模態(tài)的標記器,每個標記器僅由一個卷積層組成,將輸入信號轉(zhuǎn)換為一系列標記。此外,本文添加了可學(xué)習(xí)的模態(tài)標記,以實現(xiàn)模態(tài)切換并將不同長度的輸入標記轉(zhuǎn)換為固定長度的標記。

動機

眾多特定于模態(tài)的編碼器通常在架構(gòu)上有所不同,需要付出相當大的努力將它們統(tǒng)一到一個框架中。此外,提供可靠性能的預(yù)訓(xùn)練編碼器通常僅限于廣泛使用的模式,例如圖像、音頻和視頻。這種限制對 MLLM 擴展到更多模式的能力施加了限制。因此,MLLM 的一個關(guān)鍵挑戰(zhàn)是如何構(gòu)建一個統(tǒng)一且可擴展的編碼器,能夠處理廣泛的模態(tài)。

貢獻

本文提出了一個統(tǒng)一框架來將多模態(tài)輸入與語言對齊。與現(xiàn)有的基于模態(tài)的編碼器的工作不同,展示了一個統(tǒng)一的多模態(tài)編碼器,它利用預(yù)訓(xùn)練的視覺語言模型和投影專家的混合,可以作為 MLLM 的通用且可擴展的組件。

OneLLM 是第一個在單個模型中集成八種不同模態(tài)的MLLM。通過統(tǒng)一的框架和漸進式多模態(tài)對齊pipelines,可以很容易地擴展OneLLM以包含更多數(shù)據(jù)模式。

本文策劃了一個大規(guī)模的多模態(tài)指令數(shù)據(jù)集。在這個數(shù)據(jù)集上微調(diào)的 OneLLM 在多模態(tài)任務(wù)上取得了更好的性能,優(yōu)于主流模型和現(xiàn)有的 MLLM。

相關(guān)工作

LLM的迅猛發(fā)展引起了研究人員的重視,因此有研究人員提出了視覺領(lǐng)域的大型視覺語言模型,并取得了較好的性能。除了視覺領(lǐng)域大語言模型之外,研究人員將其拓展到了多模態(tài)領(lǐng)域,如音頻、視頻和點云數(shù)據(jù)中,這些工作使得將多種模式統(tǒng)一為一個LLM成為可能即多模態(tài)大語言模型。X-LLM,ChatBridge,Anymal,PandaGPT,ImageBind-LLM等MLLM不斷涌現(xiàn)。然而,當前的 MLLM 僅限于支持常見的模式,例如圖像、音頻和視頻。目前尚不清楚如何使用統(tǒng)一的框架將 MLLM 擴展到更多模式。在這項工作中,提出了一個統(tǒng)一的多模態(tài)編碼器來對齊所有模態(tài)和語言。將多種模式對齊到一個聯(lián)合嵌入空間中對于跨模態(tài)任務(wù)很重要,這可以分為:判別對齊和生成對齊。判別對齊最具代表性的工作是CLIP,它利用對比學(xué)習(xí)來對齊圖像和文本。后續(xù)工作將 CLIP 擴展到音頻文本、視頻文本等。本文的工作屬于生成對齊。與之前的工作相比,直接將多模態(tài)輸入與LLM對齊,從而擺脫訓(xùn)練模態(tài)編碼器的階段。

方法

模型架構(gòu)

wKgZomWWJbyAA2gGAAJq_939EiE671.png

上圖展示了 OneLLM 的四個主要組件:特定于模態(tài)的標記器通用編碼器、通用投影模塊LLM

模態(tài)標記器:模態(tài)標記器是將輸入信號轉(zhuǎn)換為標記序列,因此基于轉(zhuǎn)換器的編碼器可以處理這些標記。為每個模態(tài)設(shè)計了一個單獨的標記器。對于圖像和視頻等二維位置信息的視覺輸入,直接使用單個二維卷積層作為標記器。對于其他模態(tài),將輸入轉(zhuǎn)換為 2D 或 1D 序列,然后使用 2D/1D 卷積層對其進行標記。

通用編碼器:利用預(yù)訓(xùn)練的視覺語言模型作為所有模態(tài)的通用編碼器。視覺語言模型在對大量圖文數(shù)據(jù)進行訓(xùn)練時,通常學(xué)習(xí)視覺和語言之間的穩(wěn)健對齊,因此它們可以很容易地轉(zhuǎn)移到其他模式。在OneLLM中,使用CLIPViT作為通用計算引擎。保持CLIPViT的參數(shù)在訓(xùn)練過程中被凍結(jié)。

通用投影模塊:與現(xiàn)有的基于模態(tài)投影的工作不同,提出了一個通用投影模塊,將任何模態(tài)投影到 LLM 的嵌入空間中。由 K 個投影專家組成,其中每個專家都是在圖像文本數(shù)據(jù)上預(yù)訓(xùn)練的一堆transformer層。盡管一位專家還可以實現(xiàn)任何模態(tài)到 LLM 的投影,但實證結(jié)果表明,多個專家更有效和可擴展。當擴展到更多模態(tài)時,只需要添加幾個并行專家。

LLM:采用開源LLaMA2作為框架中的LLM。LLM的輸入包括投影的模態(tài)標記和單詞嵌入后的文本提示。為了簡單起見,本文總是將模態(tài)標記放在輸入序列的開頭。然后LLM被要求以模態(tài)標記和文本提示為條件生成適當?shù)捻憫?yīng)。

漸進式多模態(tài)對齊

多模態(tài)對齊的簡單方法是在多模態(tài)文本數(shù)據(jù)上聯(lián)合訓(xùn)練模型。然而,由于數(shù)據(jù)規(guī)模的不平衡,直接在多模態(tài)數(shù)據(jù)上訓(xùn)練模型會導(dǎo)致模態(tài)之間的偏差表示。本文訓(xùn)練了一個圖像到文本模型作為初始化,并將其他模式逐步接地到LLM中。包括圖文對齊、多模態(tài)-文本對齊。同時為每個模態(tài)收集 X 文本對。圖像-文本對包括LAION-400M和LAION-COCO。視頻、音頻和視頻的訓(xùn)練數(shù)據(jù)分別為WebVid-2.5M、WavCaps和Cap3D。由于沒有大規(guī)模的deep/normal map數(shù)據(jù),使用預(yù)訓(xùn)練的 DPT 模型來生成deep/normal map。源圖像和文本以及 CC3M。對于IMU-text對,使用Ego4D的IMU傳感器數(shù)據(jù)。對于fMRI-text對,使用來自NSD數(shù)據(jù)集的 fMRI 信號,并將與視覺刺激相關(guān)的字幕作為文本注釋。

多模態(tài)指令調(diào)優(yōu)

在多模態(tài)文本對齊之后,OneLLM 成為一個多模態(tài)字幕模型,可以為任何輸入生成簡短的描述。為了充分釋放OneLLM的多模態(tài)理解和推理能力,本文策劃了一個大規(guī)模的多模態(tài)指令調(diào)優(yōu)數(shù)據(jù)集來進一步微調(diào)OneLLM。在指令調(diào)優(yōu)階段,完全微調(diào)LLM并保持其余參數(shù)凍結(jié)。盡管最近的工作通常采用參數(shù)高效的方法,但憑經(jīng)驗表明,完整的微調(diào)方法更有效地利用 OneLLM 的多模態(tài)能力,特別是利用較小的 LLM(e.g.,LLaMA2-7B)。

實驗

實現(xiàn)細節(jié)

架構(gòu):通用編碼器是在LAION上預(yù)訓(xùn)練的CLIP VIT Large。LLM 是 LLAMA2-7B。UPM有K=3個投影專家,每個專家有8個transformer塊和88M個參數(shù)。

訓(xùn)練細節(jié):使用AdamW優(yōu)化器,β1=0.9,β2==0.95,權(quán)重衰減為0.1。在前2K次迭代中應(yīng)用了線性學(xué)習(xí)速率預(yù)熱。對于階段I,在16個A100 GPU上訓(xùn)練OneLLM 200K次迭代。有效批量大小為5120。最大學(xué)習(xí)率為5e-5。對于第II階段,在8個GPU上訓(xùn)練 OneLLM 200K,有效批量大小為1080,最大學(xué)習(xí)率為1e-5。在指令調(diào)優(yōu)階段,在8個gpu上訓(xùn)練OneLLM 1 epoch,有效批大小為512,最大學(xué)習(xí)率為2e-5。

定量評價

Image-Text Evaluation:下表結(jié)果表明,OneLLM還可以在視覺專門的LLM中達到領(lǐng)先水平,MLLM和視覺LLM之間的差距進一步縮小。

5adf94ce-972b-11ee-8b88-92fbcf53809c.png

Video-Text Evaluation:下表可以看出,本文模型在相似的 VQA 數(shù)據(jù)集上進行訓(xùn)練明顯增強了其緊急跨模態(tài)能力,有助于提高視頻QA任務(wù)的性能。

5af65632-972b-11ee-8b88-92fbcf53809c.png

Audio-Text Evaluation:對于Audio-Text任務(wù),結(jié)果顯示,在Clotho AQA上的zero-shot結(jié)果與完全微調(diào)的Pengi相當。字幕任務(wù)需要更多特定于數(shù)據(jù)集的訓(xùn)練,而QA任務(wù)可能是模型固有的零樣本理解能力更準確的度量。

5b1135ec-972b-11ee-8b88-92fbcf53809c.png

Audio-Video-Text Evaluation:下表結(jié)果表明,OneLLM-7B在所有三個數(shù)據(jù)集上都超過了 ChatBridge-13B。由于 OneLLM 中的所有模態(tài)都與語言很好地對齊,因此在推理過程中可以直接將視頻和音頻信號輸入到 OneLLM。

5b1d3f04-972b-11ee-8b88-92fbcf53809c.png

Point Cloud-Text Evaluation:從下表中可以看出,由于精心設(shè)計的指令提示在任務(wù)之間切換,OneLLM可以實現(xiàn)出色的字幕結(jié)果,而InstructBLIP和PointLLM 難以生成簡短而準確的字幕。在分類任務(wù)中,OneLLM也可以獲得與 PointLLM 相當?shù)慕Y(jié)果。

5b2bb908-972b-11ee-8b88-92fbcf53809c.png

Depth/Normal Map-Text Evaluation:如下表中所示,與CLIP相比,OneLLM實現(xiàn)了優(yōu)越的zero-shot分類精度。這些結(jié)果證實,在合成deep/normal map-text數(shù)據(jù)上訓(xùn)練的OneLLM可以適應(yīng)現(xiàn)實世界的場景。

5b40249c-972b-11ee-8b88-92fbcf53809c.png

消融實驗

為了探索 OneLLM 的一些關(guān)鍵設(shè)計。消融實驗是在訓(xùn)練數(shù)據(jù)的一個子集上進行的,除了對專家數(shù)量的研究外,它只包含圖像、音頻和視頻的多模態(tài)對齊和指令調(diào)整數(shù)據(jù)集。如果沒有指定,其他設(shè)置保持不變。消融實驗的結(jié)果如下表所示,

5b51b13a-972b-11ee-8b88-92fbcf53809c.png

MLLM 的一個重要問題是聯(lián)合訓(xùn)練的 MLLM 是否優(yōu)于特定于模態(tài)的 MLLM。為了解決這個問題,在表7(a)中比較了單獨訓(xùn)練的MLLM與聯(lián)合訓(xùn)練的MLLMs的性能。在單獨的訓(xùn)練中,模型只能訪問自己的數(shù)據(jù);在聯(lián)合訓(xùn)練中,模型在所有數(shù)據(jù)上聯(lián)合訓(xùn)練。在兩個圖文任務(wù) NoCaps 和 VQAv2 上,可以看到單獨和聯(lián)合訓(xùn)練的模型取得了可比較的結(jié)果;雖然單獨訓(xùn)練的音頻和視頻模型比 ClothoQA 和 MSVDQA 上的聯(lián)合訓(xùn)練模型差得多。這表明聯(lián)合訓(xùn)練通過允許跨模態(tài)遷移學(xué)習(xí)知識的轉(zhuǎn)移,極大地有利于數(shù)據(jù)稀缺模態(tài)(例如音頻和視頻)。

表7(b)表明,具有圖像-文本對齊的 OneLLM 可以幫助多模態(tài)文本對齊。如果使用隨機初始化的模型直接將所有模態(tài)與文本對齊,圖像和視頻的性能會顯著下降。相反,具有圖像-文本預(yù)訓(xùn)練的 OneLLM 可以更好地平衡不同的模式。

具有三個投影專家的 OneLLM 足以保持所有模態(tài)。增加專家的數(shù)量并不能帶來所需的改進,而一位專家的結(jié)果也不能令人滿意。

軟路由器優(yōu)于其他兩個路由器,表明其對多模態(tài)信號的動態(tài)路由的有效性。

定性分析

下圖中給出了 OneLLM 在八種模態(tài)上的一些定性結(jié)果。展示了 OneLLM 可以(a)理解圖像中的視覺和文本內(nèi)容,(b)利用視頻中的時間信息,(c)基于音頻內(nèi)容進行創(chuàng)造性寫作,(d)理解3D形狀的細節(jié),(e)分析fMRI數(shù)據(jù)中記錄的視覺場景,(f)基于運動數(shù)據(jù)猜測人的動作,以及(g)-(h)使用deep/normal map進行場景理解。

wKgaomWWJgSAQnvvAAavrEjsY2k628.png

以下是OneLLM框架更多的定性分析結(jié)果。

wKgaomWWJi6AJMC9AAZqFxDV0Rg887.png

總結(jié)

在這項工作中,本文介紹了 OneLLM,這是一種 MLLM,它使用一個統(tǒng)一的框架將八種模式與語言對齊。最初,訓(xùn)練一個基本的視覺LLM。在此基礎(chǔ)上,設(shè)計了一個具有通用編碼器、UPM 和 LLM 的多模態(tài)框架。通過漸進式對齊pipelines,OneLLM 可以使用單個模型處理多模態(tài)輸入。此外,本文工作策劃了一個大規(guī)模的多模態(tài)指令數(shù)據(jù)集,以充分釋放OneLLM的指令跟蹤能力。最后,在 25 個不同的基準上評估 OneLLM,顯示出其出色的性能。

限制與未來工作:本文的工作面臨兩個主要挑戰(zhàn):

缺乏圖像之外模態(tài)的大規(guī)模、高質(zhì)量的數(shù)據(jù)集,這導(dǎo)致 OneLLM 和這些模式上的專業(yè)模型之間存在一定差距。

高分辨率圖像、長序列視頻和音頻等的細粒度多模態(tài)理解。未來,將收集高質(zhì)量的數(shù)據(jù)集,設(shè)計新的編碼器來實現(xiàn)細粒度的多模態(tài)理解。

審核編輯:黃飛

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    4007

    瀏覽量

    143290
  • 路由器
    +關(guān)注

    關(guān)注

    22

    文章

    3931

    瀏覽量

    120106
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3746

    瀏覽量

    5268
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    350

    瀏覽量

    1392

原文標題:OneLLM:對齊所有模態(tài)的框架!

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    海光DCU完成Qwen3.5多模態(tài)MoE模型全量適配

    近日,海光DCU完成Qwen3.5-397B MoE旗艦多模態(tài)模型、Qwen3.5-35B-A3B MoE多模態(tài)模型全量適配、精度對齊與推理部署驗證。本次適配依托FlagOS專屬vLLM-plugin-FL多芯片插件實現(xiàn)落地。
    的頭像 發(fā)表于 03-26 09:35 ?614次閱讀

    天數(shù)智芯完成阿里云通義千問Qwen3.5系列多模態(tài)模型全量適配

    近日,天數(shù)智芯攜手眾智FlagOS 社區(qū)完成阿里云通義千問 Qwen3.5 系列多模態(tài)模型全量適配,實現(xiàn)模型精度精準對齊與端到端無縫部署,再度彰顯公司在通用 GPU 領(lǐng)域深厚的技術(shù)積淀與領(lǐng)先的生態(tài)適配能力。
    的頭像 發(fā)表于 03-26 09:25 ?1343次閱讀

    伺服電機正余弦編碼器的相位對齊方式

    伺服電機正余弦編碼器的相位對齊,本質(zhì)上是為了讓編碼器反饋的位置信號與電機轉(zhuǎn)子實際的磁極位置(電角度)建立精確的對應(yīng)關(guān)系。這是實現(xiàn)矢量控制、確保電機平穩(wěn)出力、避免飛車的基礎(chǔ)。 根據(jù)操作原理和依賴的設(shè)備
    的頭像 發(fā)表于 03-20 15:36 ?174次閱讀
    伺服電機正余弦編碼器的相位<b class='flag-5'>對齊</b>方式

    螞蟻集團全模態(tài)代碼算法團隊自研OpAgent技術(shù)框架

    為應(yīng)對真實 Web 環(huán)境的非結(jié)構(gòu)化復(fù)雜性、時序不穩(wěn)定性與交互隱式邏輯等挑戰(zhàn),螞蟻集團全模態(tài)代碼算法團隊提出了一套結(jié)合了多任務(wù)微調(diào)、在線強化學(xué)習(xí)與模塊化協(xié)作的綜合解決方案:OpAgent。
    的頭像 發(fā)表于 03-18 17:13 ?961次閱讀
    螞蟻集團全<b class='flag-5'>模態(tài)</b>代碼算法團隊自研OpAgent技術(shù)<b class='flag-5'>框架</b>

    科技云報到:兩會“中場時刻”:從技術(shù)突破到制度對齊

    科技云報到:兩會“中場時刻”:從技術(shù)突破到制度對齊
    的頭像 發(fā)表于 03-06 19:01 ?951次閱讀

    CW32操作FLASH地址對齊的要求

    地址邊界對齊,即使用 16bit 位寬訪問 FLASH 時的地址必須是偶地址,使用 32bit 位寬時的地址必須是 4 的倍數(shù)地址。 正確地址對齊的代碼示例: 8bit 讀取: tempdata
    發(fā)表于 12-15 06:30

    摩爾線程新一代大語言模型對齊框架URPO入選AAAI 2026

    近日,摩爾線程在人工智能前沿領(lǐng)域取得重要突破,其提出的新一代大語言模型對齊框架——URPO統(tǒng)一獎勵與策略優(yōu)化,相關(guān)研究論文已被人工智能領(lǐng)域的國際頂級學(xué)術(shù)會議AAAI 2026收錄。這一成果標志著摩爾線程在大模型基礎(chǔ)技術(shù)探索上邁出了關(guān)鍵一步,為簡化大模型訓(xùn)練流程、突破模型性
    的頭像 發(fā)表于 11-17 16:03 ?589次閱讀
    摩爾線程新一代大語言模型<b class='flag-5'>對齊</b><b class='flag-5'>框架</b>URPO入選AAAI 2026

    亞馬遜云科技上線Amazon Nova多模態(tài)嵌入模型

    專為Agentic RAG與語義搜索量身打造,以行業(yè)頂尖的準確率實現(xiàn)跨模態(tài)檢索 北京2025年10月29日 /美通社/ -- 亞馬遜云科技宣布,Amazon Nova Multimodal
    的頭像 發(fā)表于 10-29 17:15 ?350次閱讀
    亞馬遜云科技上線Amazon Nova多<b class='flag-5'>模態(tài)</b>嵌入模型

    淺析多模態(tài)標注對大模型應(yīng)用落地的重要性與標注實例

    ”的關(guān)鍵工序——多模態(tài)標注重要性日益凸顯。 一、什么是多模態(tài)標注? 多模態(tài)標注是指對文本、圖像、語音、視頻、點云等異構(gòu)數(shù)據(jù)進行跨模態(tài)語義關(guān)聯(lián)的標注過程,通過建立數(shù)據(jù)間的時空一致性和語義
    的頭像 發(fā)表于 09-05 13:49 ?2700次閱讀

    “端云+多模態(tài)”新范式:《移遠通信AI大模型技術(shù)方案白皮書》正式發(fā)布

    大模型技術(shù)方案的核心優(yōu)勢、落地路徑及標桿案例,為行業(yè)智能化升級提供了可借鑒的實踐框架。洞察技術(shù)演進:AI大模型邁入“端云協(xié)同+多模態(tài)”新階段白皮書指出,AI大模型
    的頭像 發(fā)表于 07-28 13:08 ?1383次閱讀
    “端云+多<b class='flag-5'>模態(tài)</b>”新范式:《移遠通信AI大模型技術(shù)方案白皮書》正式發(fā)布

    斜齒式超聲電機定子振動模態(tài)的有限元分析

    超聲電機是一種利用壓電陶瓷逆壓電效應(yīng)制成的全新概念的電機,主要由定子、轉(zhuǎn)子以及施加預(yù)壓力的機構(gòu)等部件構(gòu)成。其中,斜齒式模態(tài)轉(zhuǎn)換型超聲電機是一種針對大力矩、單一旋向等特殊需求的超聲電機。一般情況下
    發(fā)表于 07-16 19:04

    潤和軟件StackRUNS異構(gòu)分布式推理框架的應(yīng)用案例

    江蘇潤和軟件股份有限公司(以下簡稱“潤和軟件”)自主研發(fā)的StackRUNS異構(gòu)分布式推理框架已在實際場景中取得顯著成效,成功應(yīng)用于大型園區(qū)多模態(tài)模型演練及高校滿血版DeepSeek-MoE 671B的運行,有效推動了大模型技術(shù)的快速落地。
    的頭像 發(fā)表于 06-13 09:11 ?1413次閱讀
    潤和軟件StackRUNS異構(gòu)分布式推理<b class='flag-5'>框架</b>的應(yīng)用案例

    商湯日日新SenseNova融合模態(tài)大模型 國內(nèi)首家獲得最高評級的大模型

    近日,中國信息通信研究院(以下簡稱“中國信通院”)完成可信AI多模態(tài)大模型首輪評估。 商湯日日新SenseNova融合模態(tài)大模型在所有模型中,獲得當前最高評級——4+級,并成為國內(nèi)首家獲得最高評級
    的頭像 發(fā)表于 06-11 11:57 ?1546次閱讀

    Allegro Skill布局功能--器件絲印過孔對齊介紹與演示

    Allegro系統(tǒng)雖然提供了基本的元件對齊功能,但其適用范圍較為有限。相比之下,F(xiàn)anyskill 的“對齊”命令在操作體驗和功能性上更具優(yōu)勢:其界面設(shè)計更加直觀易用,并支持多種元素的對齊操作,包括
    發(fā)表于 05-14 08:59 ?4403次閱讀
    Allegro Skill布局功能--器件絲印過孔<b class='flag-5'>對齊</b>介紹與演示

    電機聯(lián)軸控制的旋轉(zhuǎn)機械定轉(zhuǎn)子模態(tài)分析

    結(jié)構(gòu)優(yōu)化具有指導(dǎo)意義。純分享帖,需要者可點擊附件獲取完整資料~~~*附件:電機聯(lián)軸控制的旋轉(zhuǎn)機械定轉(zhuǎn)子模態(tài)分析.pdf 【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請第一時間告知,刪除內(nèi)容!
    發(fā)表于 04-24 21:07