亚洲性欧美在线se-亚洲性欧美色另-亚洲性免费-亚洲性猛交xxxx-亚洲性久久久影院-亚洲性精品

歡迎來到知識分享

知識分享

當(dāng)前位置:

ICCV 2025

時間:2025-07-12 08:39:04 出處:綜合閱讀(143)

來自加州大學(xué)河濱分校(UC Riverside)、密歇根大學(xué)(University of Michigan)、威斯康星大學(xué)麥迪遜分校(University of Wisconsin–Madison)、德州農(nóng)工大學(xué)(Texas A&M University)的團(tuán)隊在 ICCV 2025 發(fā)表首個面向自動駕駛語義占用柵格構(gòu)造或預(yù)測任務(wù)的統(tǒng)一基準(zhǔn)框架 UniOcc。

UniOcc 融合真實世界(nuScenes、Waymo)與仿真環(huán)境(CARLA、OpenCOOD)的多源數(shù)據(jù),統(tǒng)一體素(voxel)格式與語義(semantic)標(biāo)簽,首次引入體素級前后向運(yùn)動流標(biāo)注,并支持多車協(xié)同占位預(yù)測與推理。為擺脫偽標(biāo)簽(pseudo-label)評估限制,UniOcc 設(shè)計了多項免真值(ground-truth-free)指標(biāo),用于衡量物體形狀合理性與時序一致性。在多個 SOTA 模型上驗證了其在運(yùn)動流信息利用、跨域泛化和協(xié)同預(yù)測方面的顯著優(yōu)勢。

ICCV 2025

UniOcc 已全面開源,支持占位預(yù)測、長時序預(yù)測、動態(tài)追蹤等多種任務(wù),致力于構(gòu)建標(biāo)準(zhǔn)化的感知研究平臺,推動自動駕駛邁向多模態(tài)、泛化能力更強(qiáng)的新階段。

ICCV 2025

  • 論文標(biāo)題:UniOcc: A Unified Benchmark for Occupancy Forecasting and Prediction in Autonomous Driving

    ICCV 2025

  • 論文鏈接: https://arxiv.org/abs/2503.24381

  • 項目主頁: https://uniocc.github.io/

  • 代碼開源: https://github.com/tasl-lab/UniOcc

  • 數(shù)據(jù)集下載:

    Hugging Face: https://huggingface.co/datasets/tasl-lab/uniocc

    Google Drive: https://drive.google.com/drive/folders/18TSklDPPW1IwXvfTb6DtSNLhVud5-8Pw?usp=sharing

    百度網(wǎng)盤: https://pan.baidu.com/s/17Pk2ni8BwwU4T2fRmVROeA?pwd=kdfj 提取碼 kdfj

背景與挑戰(zhàn)

占用柵格(3D Occupancy Grid)是自動駕駛感知的重要方向,旨在從傳感器數(shù)據(jù)構(gòu)造或預(yù)測(Prediction and Forecasting)三維占用格柵。然而當(dāng)前研究面臨諸多挑戰(zhàn):

偽標(biāo)簽缺陷:主流數(shù)據(jù)集(如 nuScenes、Waymo)缺乏真實占位標(biāo)注,只能依賴 LiDAR 啟發(fā)式生成的偽標(biāo)簽。這些偽標(biāo)簽通常僅覆蓋可見表面,無法反映真實物體的完整形狀,導(dǎo)致訓(xùn)練出的模型結(jié)果欠佳,且使用傳統(tǒng) IoU 等指標(biāo)無法發(fā)現(xiàn)此類問題。Figure 3 展示了 Occ3D 偽標(biāo)簽的缺失形狀與模型預(yù)測的對比。

數(shù)據(jù)割裂:現(xiàn)有方法多局限于單一數(shù)據(jù)源,不同數(shù)據(jù)集間配置、采樣率、格式、注釋不統(tǒng)一,訓(xùn)練和評估都需分別適配。為此迫切需要統(tǒng)一格式和工具鏈來跨數(shù)據(jù)集訓(xùn)練和測試,提高模型泛化能力。

動態(tài)信息缺失:當(dāng)前三維占位標(biāo)簽通常不包含物體運(yùn)動信息,模型無法利用運(yùn)動線索進(jìn)行預(yù)測。與以往單個物體層面(Object-level)的運(yùn)動流(Occupancy Flow)不同,UniOcc 首次在占位數(shù)據(jù)中提供體素級(Voxel-level)的三維運(yùn)動流標(biāo)注(對比如下圖),可以捕捉物體的平移和旋轉(zhuǎn)信息,從而增強(qiáng)對動態(tài)場景的建模。

協(xié)同駕駛:盡管多車協(xié)同感知是前沿方向,之前缺乏多車協(xié)同占位預(yù)測的數(shù)據(jù)集。UniOcc 基于 OpenCOOD 擴(kuò)展了多車場景,成為首個支持多車協(xié)同占位預(yù)測的開放基準(zhǔn)。

UniOcc?的四項關(guān)鍵創(chuàng)新

多源數(shù)據(jù)統(tǒng)一處理:UniOcc 匯聚了真實場景(nuScenes、Waymo)和仿真場景(CARLA、OpenCOOD)的數(shù)據(jù),統(tǒng)一格式并提供標(biāo)準(zhǔn)化的數(shù)據(jù)預(yù)處理和加載 Dataloader。這是首個將多個占位數(shù)據(jù)源集成在同一個框架下的工作,使得研究者可以 “開箱即用” 地進(jìn)行跨域訓(xùn)練和評估 (Table 1)。

體素級運(yùn)動流標(biāo)注:UniOcc 為每個三維體素同時標(biāo)注了前向和反向三維速度向量,全面記錄物體的平移與旋轉(zhuǎn)。這種體素級運(yùn)動流標(biāo)注是占位預(yù)測領(lǐng)域首次提出的創(chuàng)新,有助于模型更好地捕捉場景中的動態(tài)變化(Figure 2)。

免真值評估指標(biāo):UniOcc 提出了免真值的評估指標(biāo)和工具,避免只依賴偽標(biāo)簽進(jìn)行評價。通過學(xué)習(xí)真實物體尺寸分布的高斯混合模型(GMM)等方法,UniOcc 可以在無完美標(biāo)簽的情況下定量評估預(yù)測合理性。在時間維度上,UniOcc 提供的工具可以對連續(xù)幀中同一物體及背景的 Voxel 分別進(jìn)行提取和對齊,實現(xiàn)了對于時序一致性的評估(Figure 4)。

支持協(xié)同預(yù)測能力:通過擴(kuò)展 OpenCOOD 框架,UniOcc 涵蓋了多車協(xié)同感知場景,使得研究者可以探索多車傳感器融合的方法。

實驗驗證

引入運(yùn)動流信息:將 UniOcc 提供的體素運(yùn)動流輸入 OccWorld 等 3D 占位預(yù)測模型后,預(yù)測性能顯著提升。Table 3 中可見,在 nuScenes 和 Waymo 上加入流信息后,各類別的 mIoU 指標(biāo)均有提高。

多源聯(lián)合訓(xùn)練:利用多源數(shù)據(jù)進(jìn)行訓(xùn)練可增強(qiáng)跨域泛化能力。Table 4 顯示,在 nuScenes 和 CARLA 等多域數(shù)據(jù)上聯(lián)合訓(xùn)練 OccWorld,其在各自測試集上的 mIoU 均優(yōu)于單源訓(xùn)練,詳見 Table 4 中 不同訓(xùn)練源組合下的性能。與此同時由于從 CARLA 獲得的占用柵格外形接近完美,不存在偽標(biāo)簽中的不完整問題,訓(xùn)練中加入 CARLA 數(shù)據(jù)提高了生成物體的真實性(Figure 5)。

驗證現(xiàn)有 Occupancy 預(yù)測模型的質(zhì)量:在 Table 5 中,作者使用 UniOcc 對 Cam4DOcc 和 CVTOcc 的生成質(zhì)量進(jìn)行了度量并且使用 UniOcc 可以對如 Figure 3 的不完整預(yù)測進(jìn)行歸類分析(Problem Cluster)。

協(xié)同預(yù)測效果:在模擬的多車場景中驗證了協(xié)同優(yōu)勢。以 CoHFF 模型為例,在 OpenCOOD 多車數(shù)據(jù)上進(jìn)行測試時,通過多車信息共享對 Car 類別的 IoU 達(dá)到了 87.22%,驗證了協(xié)同感知能夠擴(kuò)展視野、減輕遮擋的潛力。

開源與應(yīng)用價值

UniOcc 框架設(shè)計統(tǒng)一,可支持多種占位相關(guān)任務(wù),包括:

  • 單幀占位預(yù)測:從當(dāng)前相機(jī) / 激光雷達(dá)數(shù)據(jù)估計當(dāng)前時刻的 3D 占位格 (如 CVTOcc);

  • 多幀占位預(yù)測:基于歷史信息預(yù)測未來時刻的三維占位(如 OccWorld);

  • 多車協(xié)同預(yù)測:在多車共享感知信息下完成占位預(yù)測,提升覆蓋范圍 (如 CoHFF);

  • 動態(tài)分割與跟蹤:利用體素級流信息進(jìn)行動態(tài)目標(biāo)的分割與跟蹤。UniOcc 還包含體素分割和跟蹤工具,使得研究者可以直接在占位格空間中進(jìn)行目標(biāo)識別和跨幀關(guān)聯(lián)。

總結(jié)與展望

UniOcc 作為首個自動駕駛占位預(yù)測統(tǒng)一基準(zhǔn),將推動行業(yè)從依賴偽標(biāo)簽的階段邁向真正的統(tǒng)一評估體系。它提供了跨域的數(shù)據(jù)格式、完整的流注釋、分割跟蹤工具和免真值評估指標(biāo),極大簡化了研究者的開發(fā)和對比工作。未來,隨著多模態(tài)和大型模型在自動駕駛中的興起,UniOcc 統(tǒng)一的占位–圖像數(shù)據(jù)為訓(xùn)練和評估多模態(tài) / 語言模型奠定了基礎(chǔ)。期待基于 UniOcc 的數(shù)據(jù)和工具,能夠涌現(xiàn)出更多創(chuàng)新算法,加速語義占位預(yù)測技術(shù)向前發(fā)展。

無人駕駛 新浪科技公眾號

“掌”握科技鮮聞 (微信搜索techsina或掃描左側(cè)二維碼關(guān)注)

相關(guān)新聞

分享到:

溫馨提示:以上內(nèi)容和圖片整理于網(wǎng)絡(luò),僅供參考,希望對您有幫助!如有侵權(quán)行為請聯(lián)系刪除!

友情鏈接:

主站蜘蛛池模板: 欧美成人一区二区三区在线电影 | 成人区人妻精品一区二区不卡 | 久久h视频| 91麻豆精品在线观看 | 国产真实视频在线播放 | 色中爽 | 亚洲欧美日韩国产精品影院 | 极品成人影院 | 三级中文字幕 | 2024国产麻豆剧传媒在线观看 | 日本欧美日韩中文字幕 | 日本欧美一区二区三区在线播放 | 波多野结衣强奷系列在线观看 | 麻豆果冻传媒新剧国产杜鹃 | 麻豆自拍视频网 | 日韩中文字幕在线亚洲一区 | 成人国产一区二区三区精品不卡 | 一区二区三区在线免费视频 | 伊在人亚洲香蕉精品区麻豆 | 国产综合91天堂亚洲国产 | 国产av无码久久综合 | 欧美日韩亚洲精品瑜伽裤 | 国产精品久久久久久搜索 | 一本道久久综合一区 | 国产成人精品久久免费 | 特级黄色毛片 | 久久国产精品久久 | 国产日韩乱码精品一区二区 | 5566在线资源| 久久午夜av无码鲁丝片精品久久真人一级毛片 | 国产亚洲精品AV片在线观看播放 | 国产精品成人国产乱一区 | 日韩精品一区二区三区四区 | 高潮喷水无码AV亚洲 | 国产av午夜精品一区二区三区 | 国产成人精品久久久久免费 | 国产中文字幕在线免费观看 | 男人的天堂精品国产一区 | 日韩一区二区三区国产精品无码 | 九九精品视频一区二区三区 | 天天日天天靠 |