成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

SurroundOcc:環視三維占據柵格新SOTA!

人工智能 智能汽車
本文是對我們ICCV 2023被接收的文章Multi-camera 3D Occupancy Prediction for Autonomous Driving的介紹。

本文經自動駕駛之心公眾號授權轉載,轉載請聯系出處。

在這個工作中,我們通過多幀點云構建了稠密占據柵格數據集,并設計了基于transformer的2D-3D Unet結構的三維占據柵格網絡。很榮幸地,我們的文章被ICCV 2023收錄,目前項目代碼已開源,歡迎大家試用。

arXiv:https://arxiv.org/pdf/2303.09551.pdf

Code:https://github.com/weiyithu/SurroundOcc

主頁:https://weiyithu.github.io/SurroundOcc/

最近一直在瘋狂找工作,沒有閑下來寫,正好最近提交了camera-ready,作為一個工作的收尾覺得還是寫個知乎總結下。其實文章部分的介紹各個公眾號寫的已經很好了,也感謝他們的宣傳,大家可以直接參考自動駕駛之心的自動駕駛之心:nuScenes SOTA!SurroundOcc:面向自動駕駛的純視覺3D占據預測網絡(清華&天大)。總的來說,contribution分為兩塊,一部分是如何利用多幀的lidar點云構建稠密occupancy數據集,另一部分是如何設計occupancy預測的網絡。其實兩部分的內容都比較直接易懂,大家有哪塊不理解的也可以隨時問我。那么這篇文章我想講點論文之外的事情,一個是如何改進當前方案使其更加易于部署,另一個是未來的發展方向。

部署

一個網絡是否易于部署,主要看其中有沒有比較難在板端實現的算子,SurroundOcc這個方法里比較難搞的兩個算子是transformer層以及3D卷積。

transformer的主要作用是將2D feature轉換到3D空間,那么其實這部分也可以用LSS,Homography甚至mlp來實現,所以可以根據已實現的方案去修改這部分的網絡。但據我所知,transformer的方案在幾個方案里對calibration不敏感并且性能也比較好,建議有能力實現transformer部署的還是利用原有方案。

對于3D卷積來說,可以將其替換成2D卷積,這里需要將原來 (C, H, W, Z) 的3D feature reshape成(C* Z, H, W)的 2D feature,然后就可以用2D卷積進行特征提取了,在最后occupancy預測那步再把它reshape回(C, H, W, Z),并進行監督。另一方面,skip connection由于分辨率比較大所以比較吃顯存,部署的時候可以去掉只留最小分辨率那一層。我們實驗發現3D卷積中的這兩個操作在nuscenes上都會有些許掉點,但業界數據集規模要遠大于nuscenes,有時候有些結論也會改變,掉點應該會少甚至不掉。

數據集構建方面,最耗時的一步是泊松重建那步。由于我們用的是nuscenes數據集,是用32線lidar采集的,即使利用了多幀拼接技術,我們發現拼接后的點云還是有很多的洞,所以我們利用泊松重建補洞。但其實現在業界用的許多lidar的點云都比較稠密,例如M1,RS128等,那么泊松重建這一步可以省略,將加速數據集構建這一步。

另一方面,SurroundOcc里是利用nuscenes中標注好的三維目標檢測框將靜態場景和動態物體分離的。但實際應用過程中,可以利用autolabel,也就是三維目標檢測&跟蹤大模型去得到每個物體在整個sequence中的檢測框。相較于人工標注的label,利用大模型跑出來的結果肯定會存在一些誤差,最直接的體現就是多幀的物體拼接后會有重影的現象。但其實occupancy對于物體形狀的要求沒有那么高,只要檢測框位置比較準就能滿足需求。

未來方向

當前方法還是比較依賴lidar提供occupancy的監督信號的,但很多車上,尤其是一些低階輔助駕駛的車上沒有lidar,這些車通過shadow模式可以傳回來大量的RGB數據,那么一個未來方向是能不能只利用RGB進行自監督學習。一個自然的解決思路就是利用NeRF進行監督,具體來說,前面backbone部分不變,得到一個occupancy的預測,然后利用體素渲染得到每個相機視角下的RGB,和訓練集中的真值RGB做loss形成監督信號。但很可惜的是這一套straightforward的方法我們試了試并不是很work,可能的原因是室外場景range太大,nerf可能hold不住,但也可能我們沒有調好,大家也可以再試試。

另一個方向是時序&occupancy flow。其實occupancy flow對于下游任務的用處遠比單幀occupancy大。ICCV的時候沒來得及整occupancy flow的數據集,而且發paper的話還要對比很多flow的baseline,所以當時就沒搞這塊。時序網絡可以參考BEVFormer和BEVDet4D的方案,比較簡單有效。難的地方還是flow數據集這一部分,一般的物體可以用sequence的三維目標檢測框算出來,但異型物體例如小動物塑料袋等,可能需要借助場景流的方法進行標注。

原文鏈接:https://mp.weixin.qq.com/s/_crun60B_lOz6_maR0Wyug

責任編輯:張燕妮 來源: 自動駕駛之心
相關推薦

2023-12-26 09:29:12

自動駕駛數據

2024-01-09 09:37:36

自動駕駛視覺

2023-12-28 09:35:59

2010-09-03 09:28:30

2009-11-10 12:55:26

VB.NET三維模型

2013-04-17 16:22:53

2009-11-10 12:48:17

VB.NET三維模型

2024-03-22 10:24:02

系統評估

2021-03-16 09:53:35

人工智能機器學習技術

2014-08-26 16:04:30

2009-05-08 10:19:11

2023-12-14 11:18:16

視覺檢測

2013-05-03 16:50:22

三維實景

2014-04-01 12:54:53

2023-10-27 14:54:33

智能駕駛云計算

2025-03-24 09:41:22

2024-06-28 13:47:17

2012-03-24 20:28:47

iPad

2021-04-16 10:30:45

三維家數字化

2022-08-10 10:00:00

人工智能三維模型編程技術
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 欧美视频成人 | 久久久久久综合 | 国产一级片免费在线观看 | 亚洲精品第一国产综合野 | 国产乱码精品一区二区三区五月婷 | 在线成人av | 亚洲 成人 在线 | 美女在线视频一区二区三区 | 久久久久久国产精品 | 一区天堂 | 黑人一级黄色大片 | 亚洲国产中文字幕 | 国产一区在线免费观看视频 | av中文字幕在线观看 | 九九久久国产精品 | 欧美高清视频一区 | 日本在线视频中文字幕 | 国产激情一区二区三区 | 久久69精品久久久久久国产越南 | 一区在线观看 | 亚洲欧美高清 | 欧美日韩视频 | 天堂一区二区三区 | 欧美vide| 一区二区三区在线 | 亚洲精选久久 | 国产日韩精品一区 | 91大片| 九色国产 | 欧美黑人体内she精在线观看 | 黄色毛片免费看 | 成人二区| 中文字幕啪啪 | 久久综合久色欧美综合狠狠 | 一级在线观看 | 成人永久免费视频 | 九九九久久国产免费 | www四虎com| 黄色一级视频免费 | 在线观看视频91 | 国产精品久久久久一区二区三区 |