成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

超過所有視覺方案!HTCL:分層時間上下文問鼎OCC(ECCV'24)

人工智能 智能汽車
今天為大家分享ECCV2024最新的工作—HTCL!在SemanticKITTI基準測試中超過了所有基于相機的方法,甚至在和OpenOccupancy基準測試中超過了LiDAR!

本文經(jīng)自動駕駛之心公眾號授權轉載,轉載請聯(lián)系出處。

本文是對ECCV2024接受的文章 HTCL: 的介紹,HTCL在SemanticKITTI基準測試中超過了所有基于相機的方法,甚至在和OpenOccupancy基準測試中超過了LiDAR,實現(xiàn)了最先進的性能。代碼已開源,歡迎大家試用和Star~

代碼鏈接:https://github.com/Arlo0o/HTCL
論文鏈接:https://arxiv.org/abs/2407.02077

圖片

Demo video 展示:

圖片

我們對比了同樣采用時序雙目圖像輸入的VoxFormer-T,并用更少的輸入幀數(shù)(3 vs. 4)取得了更好的預測效果,在場景整體布局、相機視野外區(qū)域、遠距離動態(tài)物體等的預測中表現(xiàn)出明顯優(yōu)勢。

Motivation

基于相機的三維語義場景補全(SSC)對于從有限的二維圖像觀測中預測復雜的三維場景信息至關重要?,F(xiàn)有的主流解決方案通過對歷史幀信息的粗略堆疊來試圖補充當前視角下的不完整觀測,這種簡單的時序建模方式不可避免地減少了有效的視覺線索,增加了模型學習難度。

圖片

為了解決上述問題,我們提出了HTCL,一種新穎的分層時序上下文學習范式,用于改進基于相機的語義場景補全。HTCL將時序上下文學習分解為兩個層次步驟:(a)跨幀親和度測量;(b)基于親和度的動態(tài)細化。首先,為了從冗余信息中分離關鍵相關上下文,我們提出了尺度感知隔離策略,用于構建多個獨立的學習模塊,進而建模細粒度上下文對應關系。隨后,為了動態(tài)補償不完整的觀測結果,我們基于識別出的具有高親和度特征的空間位置及其鄰近的相關區(qū)域,自適應地細化特征采樣位置。

Method

我們提出的分層時序上下文學習(HTCL)范式可以有效改進時序特征聚合的可靠性,從而實現(xiàn)精確的三維語義場景補全。HTCL從不同時間幀的RGB圖像中分層地推斷三維語義Occupancy,以實現(xiàn)細粒度的場景理解。如下圖所示,我們提出的分層時時序下文建模包括兩個順序步驟:(1)顯式地測量當前幀和歷史幀之間的上下文特征親和力,提取最相關的高親和度特征;(2)基于高親和力特征的空間位置及其附近的相關上下文自適應地細化采樣位置,以動態(tài)補償不完整的觀測。HTCL在創(chuàng)新性方面主要做出了以下貢獻:

  • 提出了一種時序上下文學習范式,以用于動態(tài)和可靠的三維語義場景補全。
  • 提出了一種具有尺度感知隔離和多個獨立學習模塊的親和度測量策略,用于細粒度的上下文對應關系建模。
  • 提出了一個基于親和度的動態(tài)細化方案,以重新分配時序上下文信息,并自適應地補償不完整的觀測結果。
  • HTCL在SemanticKITTI基準測試中超過了所有基于相機的方法,甚至在和OpenOccupancy基準測試中超過了LiDAR,實現(xiàn)了最先進的性能。

圖片

如上圖所示,我們提出的方法整體框架主要由三個部分組成:Aligned Temporal Volume Construction,Voxel Feature Volume Construction,以及Reliable Temporal Aggregation。

效果如下圖所示,跨幀模式親和(CPA)有效地表示了時間內容中的上下文對應關系。

圖片

鑒于我們的目標是完成并理解與當前幀相對應的三維場景,因此必須為最相關的位置分配更大的權重,同時也需要調查其鄰近的相關區(qū)域以彌補不完整的觀察結果。為此,我們提出基于親和力的動態(tài)細化(ADR),根據(jù)已確定的高親和性位置及其鄰近相關區(qū)域,用三維可變形卷積自適應地改進特征采樣位置。具體來說,我們通過引入基于親和力的對應權重和可變形位置偏移來實現(xiàn)動態(tài)細化:

為了進一步通過分層上下文推理動態(tài)建模,我們通過考慮級聯(lián)的不同特征層上下文信息 :

Experiment

實驗表明,我們的方法在SemanticKITTI Benchmark上排名第一,并在OpenOccupancy BenchMark中取得了超過基于LiDAR方法的mIoU。

  • 定量實驗結果:

圖片

在SemanticKITTI基準測試中,我們提出的方法明顯優(yōu)于所有其他方法。與VoxFomer-T相比,我們的方法即使在較少的歷史輸入(3 vs. 4)中也取得了顯著的相對增益。在OpenOccupancy基準測試中,盡管基于LiDAR的在IoU方面具有固有的優(yōu)勢,但我們的HTCL在mIoU方面超過了所有其他方法(包括基于LiDAR的LMSCNet和JS3C-Net ),證明了我們的方法在語義場景補全方面的有效性。

  • 定性試驗結果:

圖片

圖5展示了我們提出的方法與VoxFormer在SemanticKITTI上的定性比較??梢杂^察到,真實世界的場景非常復雜,而注釋的地面實況相對稀少,這給從有限的視覺線索中完全重建語義場景帶來了挑戰(zhàn)。與 VoxFormer 相比,我們的方法能捕捉到更完整、更準確的場景布局(如第二行和第三行的十字路口)。此外,我們的方法還能有效地補全攝像機視野外更多合適的景物(如第一行和第二行中的陰影區(qū)域),并在移動物體(如第二行中的卡車)方面表現(xiàn)出明顯的優(yōu)勢。圖6展示了我們的方法在 OpenOccupancy 上的預測結果,我們提出的方法與GT相比,可以生成的結果更密集、更真實的Semantic Occupancy。

責任編輯:張燕妮 來源: 自動駕駛之心
相關推薦

2017-05-11 14:00:02

Flask請求上下文應用上下文

2022-09-05 08:02:10

上下文切換服務器

2022-05-03 21:01:10

架構項目映射

2012-12-31 10:01:34

SELinuxSELinux安全

2022-09-14 13:13:51

JavaScript上下文

2022-09-15 08:01:14

繼承基礎設施基礎服務

2023-07-11 10:02:23

2017-12-17 17:01:23

限界上下文系統(tǒng)模型

2022-10-28 16:24:33

Context上下文鴻蒙

2024-09-30 14:10:00

2025-03-18 08:14:05

2020-07-24 10:00:00

JavaScript執(zhí)行上下文前端

2021-07-26 07:47:36

Cpu上下文進程

2025-06-06 08:00:00

上下文管理器Python開發(fā)

2023-10-23 13:23:03

數(shù)據(jù)訓練

2023-07-09 15:09:18

機器學習能力

2010-02-25 17:04:54

WCF實例上下文

2012-07-30 16:29:40

架構架構模式.NET

2022-04-24 15:37:26

LinuxCPU

2019-05-06 14:36:48

CPULinux寄存器
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日韩色图视频 | 成人免费一区二区 | 欧美一级大黄 | 在线观看a视频 | 日本三级全黄三级三级三级口周 | 91国产视频在线 | 久久精品小视频 | 日韩综合在线 | 亚洲精品免费视频 | 国产精品美女久久久久aⅴ国产馆 | 久久精品一区二区 | 亚洲精品二区 | 国产成人精品a视频一区www | 久久综合激情 | 精品不卡 | 亚洲精品二三区 | 日韩在线观看视频一区 | 伊人99| 伊人伊人伊人 | 日韩美香港a一级毛片免费 国产综合av | 福利片在线 | 少妇特黄a一区二区三区88av | 国产乱码精品1区2区3区 | 91精品久久久久久久久 | 久热国产精品 | 久久中文字幕一区 | 日韩在线精品视频 | 99色在线视频 | 高清国产一区二区 | 欧美日韩中文字幕在线 | 日本不卡一区 | 亚洲成人午夜在线 | 天堂网色 | 亚洲精品欧美 | 欧美成人影院 | 亚洲国产免费 | 日本特黄a级高清免费大片 特黄色一级毛片 | 久久国产精品无码网站 | 成人欧美一区二区 | 亚洲精品久久久蜜桃网站 | 国产传媒在线观看 |