近日,國際頂級人工智能會議ICLR 2026(International Conference on Learning Representations,國際表征學(xué)習(xí)大會)公布論文接收結(jié)果。西井科技攜手同濟大學(xué)長聘教授、上海創(chuàng)智學(xué)院全時導(dǎo)師陳廣,共有3篇人工智能研究成果被大會正式錄用。作為全球人工智能領(lǐng)域最具影響力的學(xué)術(shù)會議之一,ICLR 致力于推動深度學(xué)習(xí)與表征學(xué)習(xí)的前沿突破。此次三篇論文同時入選,不僅彰顯西井科技在基礎(chǔ)研究方面的深厚積累,也標志著公司與同濟大學(xué)在人工智能“產(chǎn)學(xué)研”深度融合上再獲重要成果。
此次入選的三篇論文分別聚焦于大場景三維重建、多智能體協(xié)同視覺導(dǎo)航、開放環(huán)境下的點云語義分割三大前沿方向。這些成果緊密圍繞大規(guī)模環(huán)境建模、多智能體協(xié)同規(guī)劃與開放場景感知等核心挑戰(zhàn),不僅推動了學(xué)術(shù)前沿,也為西井科技下一代自動駕駛系統(tǒng)在港口、機場、工廠、園區(qū)等典型復(fù)雜真實環(huán)境中的落地提供了重要支撐。
論文一:面向大規(guī)模場景重建的信號結(jié)構(gòu)感知高斯?jié)姙R技術(shù)
Signal Structure-Aware Gaussian Splatting for Large-Scale Scene Reconstruction

高斯?jié)姙R(Gaussian Splatting)在新視角合成任務(wù)中展現(xiàn)了顯著潛力。與小規(guī)模場景相比,大規(guī)模場景不可避免地包含觀測稀疏區(qū)域,其初始點云往往極度稀疏。在這種情況下,若直接利用高頻圖像對由低頻稀疏點初始化的高斯基元進行監(jiān)督,容易引發(fā)失控的密化過程并生成大量冗余基元,從而同時損害訓(xùn)練效率與重建質(zhì)量。
我們從信號恢復(fù)的角度重新審視三維重建的過程,場景的訓(xùn)練調(diào)度可總結(jié)為如下方式:一是通過控制高斯密化過程來調(diào)節(jié)目標信號頻率,二是通過調(diào)整圖像分辨率來調(diào)節(jié)采樣頻率。然而,現(xiàn)有調(diào)度方法大多采用硬編碼規(guī)則,難以感知并自適應(yīng)場景頻率的收斂行為。為此,我們從信號結(jié)構(gòu)恢復(fù)的視角重新審視場景重建問題,提出了一種新的調(diào)度器 SIG(Synchronizing Image supervision with Gaussian frequencies),用于實現(xiàn)圖像監(jiān)督與高斯頻率的動態(tài)同步。具體而言,我們推導(dǎo)了三維表示的平均采樣頻率與帶寬,并據(jù)此根據(jù)場景頻率的收斂狀態(tài)自適應(yīng)地調(diào)節(jié)訓(xùn)練圖像分辨率與高斯密化進程。
此外,我們引入了球約束高斯(Sphere-Constrained Gaussians),利用初始化點云的空間先驗對高斯優(yōu)化過程進行有效約束。該框架實現(xiàn)了頻率一致、具備幾何感知且無漂浮偽影的訓(xùn)練過程,在大規(guī)模場景中在效率與渲染質(zhì)量兩方面均以顯著優(yōu)勢達到了當前最先進水平。
論文二:協(xié)作長視程視覺語言導(dǎo)航基準CoNavBench
CoNavBench: Collaborative Long-Horizon Vision-Language Navigation Benchmark

視覺語言導(dǎo)航(VLN)目前主要集中于以單智能體為中心的方法,通過逐步執(zhí)行人類指令來完成任務(wù)。然而,在需求密集或存在并行工作流的真實環(huán)境中,協(xié)作式 VLN 展現(xiàn)了顯著優(yōu)勢,能通過并行處理和角色分工縮短完工時間并增強系統(tǒng)魯棒性。與此同時,協(xié)作式 VLN 也引入了單智能體模型所忽視的新挑戰(zhàn),如擁堵、交接錯誤以及匯合時機把控。
鑒于現(xiàn)有數(shù)據(jù)集和評估協(xié)議仍以單智能體為中心,忽略了協(xié)作輔助的機會與機器人間的干擾,我們提出了協(xié)作式長航程 VLN 基準(CoNavBench)。該基準包含 4048 個具有圖級標注的單體與協(xié)作任務(wù)序列,并定義了一套控制交接風(fēng)格與匯合模式的協(xié)作分類法。為了實現(xiàn)大規(guī)模的數(shù)據(jù)生成與評估,我們構(gòu)建了自動化圖結(jié)構(gòu)生成平臺 NavCraft,采用兩階段分層架構(gòu)來規(guī)劃任務(wù)、分配子目標并驗證交接點。智能體在基于 Habitat-Sim 的場景圖閉環(huán)中運行,支持可達性檢測、耗時預(yù)估等,并能通過效率工具庫進行調(diào)度迭代。作為參考,我們基于 Qwen2.5-VL-3B 微調(diào)協(xié)作基線模型。實驗證明,在 CoNavBench 上訓(xùn)練的協(xié)作策略在任務(wù)效率和可靠性上均優(yōu)于單機器人,提升單機器人在 step-level 任務(wù)成功率約 18.11% 。
論文三:用于點云開集測試時自適應(yīng)的幾何引導(dǎo)分布外建模方法GOOD
GOOD: Geometry-guided Out-of-Distribution Modeling for Open-set Test-time Adaptation in Point Cloud Semantic Segmentation

開集測試時自適應(yīng)(OSTTA)目前主要集中于 2D 圖像領(lǐng)域,旨在解決在線模型優(yōu)化與開放場景識別的挑戰(zhàn)。然而,在 3D 點云語義分割的真實環(huán)境中,點云數(shù)據(jù)的無序性與已知(ID)及未知(OOD)樣本間的極度失衡帶來了顯著困難,導(dǎo)致現(xiàn)有方法難以捕捉幾何先驗且易誤判稀疏的 OOD 實例 。
鑒于現(xiàn)有技術(shù)在處理 OOD 樣本稀疏甚至缺失時的局限性,我們提出了幾何引導(dǎo)的離群分布建模(GOOD)框架。該框架利用幾何聚類將點云轉(zhuǎn)化為超點以緩解數(shù)值差異,并定義了一套結(jié)合純度與熵的置信度指標配合高斯混合模型進行初步篩選。為了增強判別魯棒性,我們構(gòu)建了超點 ID 原型策略與時間偽標簽分支,通過原型細化與時序一致性約束來生成可靠的監(jiān)督信號。實驗證明,GOOD 在四個基準數(shù)據(jù)集上的表現(xiàn)均優(yōu)于現(xiàn)有方法,特別是在 Synth4D 到 SemanticKITTI 任務(wù)中,其 AUROC 和 FPR95 分別提升了 8.99% 與 7.91% 。
作為深耕AI和智慧物流領(lǐng)域的科創(chuàng)企業(yè),西井科技積累了豐富的多場景產(chǎn)業(yè)應(yīng)用經(jīng)驗;而同濟大學(xué)作為國內(nèi)智能交通領(lǐng)域的頂尖高校,在人才培養(yǎng)、基礎(chǔ)研究方面擁有得天獨厚的優(yōu)勢,能夠為產(chǎn)業(yè)創(chuàng)新提供源源不斷的技術(shù)支撐與人才供給。未來,西井科技將繼續(xù)與同濟大學(xué)等高校持續(xù)深化合作,進一步推動更多前沿技術(shù)從實驗室走向產(chǎn)業(yè)一線,賦能海港、空港、工廠、園區(qū)等場景的智能化升級,激活新質(zhì)生產(chǎn)力,共繪高質(zhì)量發(fā)展新藍圖!
-
AI
+關(guān)注
關(guān)注
91文章
40908瀏覽量
302489 -
人工智能
+關(guān)注
關(guān)注
1819文章
50284瀏覽量
266803 -
西井科技
+關(guān)注
關(guān)注
0文章
277瀏覽量
5839
原文標題:西井科技與同濟大學(xué)合作三篇AI研究成果入選頂會ICLR 2026
文章出處:【微信號:westwelllab,微信公眾號:westwell西井科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
AI 賦能物聯(lián),創(chuàng)新引領(lǐng)未來 —— 同濟大學(xué)創(chuàng)新沙龍圓滿舉辦
傳音相關(guān)研究成果入選計算機視覺頂會CVPR 2026
西井科技攜手兩大高校研究團隊發(fā)布自動駕駛感知合作成果
思特威于ISSCC 2026發(fā)表論文研究成果
后摩智能4篇論文入選人工智能頂會ICLR 2026
維智科技與同濟大學(xué)達成戰(zhàn)略合作
時識科技聯(lián)合創(chuàng)新成果SpikeRAM芯片入選ISSCC 2026
理想汽車12篇論文入選全球五大AI頂會
沐曦聯(lián)合香港科技大學(xué)登上AI頂會
奧托立夫與同濟大學(xué)交通學(xué)院深化合作
Nullmax端到端自動駕駛最新研究成果入選ICCV 2025
西井科技攜手同濟大學(xué) 三篇AI研究成果入選頂會ICLR 2026
評論