超越ORB-SLAM3!SL-SLAM:低光、嚴(yán)重抖動(dòng)和弱紋理場(chǎng)景全搞定
本文經(jīng)自動(dòng)駕駛之心公眾號(hào)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。
寫(xiě)在前面
今天我們探討下深度學(xué)習(xí)技術(shù)如何改善在復(fù)雜環(huán)境中基于視覺(jué)的SLAM(同時(shí)定位與地圖構(gòu)建)性能。通過(guò)將深度特征提取和深度匹配方法相結(jié)合,這里介紹了一種多功能的混合視覺(jué)SLAM系統(tǒng),旨在提高在諸如低光條件、動(dòng)態(tài)光照、弱紋理區(qū)域和嚴(yán)重抖動(dòng)等挑戰(zhàn)性場(chǎng)景中的適應(yīng)性。我們的系統(tǒng)支持多種模式,包括單目、立體、單目-慣性以及立體-慣性配置。除此之外,還分析了如何將視覺(jué)SLAM與深度學(xué)習(xí)方法相結(jié)合,以啟發(fā)其他研究。通過(guò)在公共數(shù)據(jù)集和自采樣數(shù)據(jù)上的廣泛實(shí)驗(yàn),展示了SL-SLAM系統(tǒng)相較于傳統(tǒng)方法的優(yōu)勢(shì)。實(shí)驗(yàn)結(jié)果表明,SL-SLAM在定位精度和跟蹤魯棒性方面優(yōu)于最先進(jìn)的SLAM算法。
工程鏈接:https://github.com/zzzzxxxx111/SLslam.
當(dāng)前SLAM應(yīng)用背景介紹
SLAM(同時(shí)定位與地圖構(gòu)建)是機(jī)器人技術(shù)、自動(dòng)駕駛和3D重建中的關(guān)鍵技術(shù),它同時(shí)確定傳感器的位置(定位)并構(gòu)建環(huán)境的地圖。視覺(jué)和慣性傳感器是最常用的傳感設(shè)備,相關(guān)的解決方案已經(jīng)被深入討論和探索。經(jīng)過(guò)幾十年的發(fā)展,視覺(jué)(慣性)SLAM的處理架構(gòu)已經(jīng)形成了一個(gè)基本框架,包括跟蹤、地圖構(gòu)建和回環(huán)檢測(cè)。
近年來(lái),相關(guān)研究集中在提高極端條件下的魯棒性和適應(yīng)性。由于SLAM技術(shù)的發(fā)展歷史悠久,有許多基于傳統(tǒng)幾何方法的SLAM代表性工作,如ORBSLAM、VINS-Mono、DVO、MSCKF。然而,仍然存在一些未解決的問(wèn)題。在諸如低光或動(dòng)態(tài)光照、嚴(yán)重抖動(dòng)和弱紋理區(qū)域等挑戰(zhàn)性環(huán)境中,由于傳統(tǒng)特征提取算法僅考慮圖像中的局部信息,而沒(méi)有考慮圖像的結(jié)構(gòu)和語(yǔ)義信息,當(dāng)遇到上述情況時(shí),現(xiàn)有的SLAM系統(tǒng)可能會(huì)因?yàn)殡y以提取和匹配準(zhǔn)確穩(wěn)定的特征而陷入困境。因此,在這些條件下,SLAM系統(tǒng)的跟蹤可能會(huì)變得不穩(wěn)定甚至無(wú)效。
深度學(xué)習(xí)的快速發(fā)展為計(jì)算機(jī)視覺(jué)領(lǐng)域帶來(lái)了革命性的變革。通過(guò)利用大量數(shù)據(jù)訓(xùn)練,深度學(xué)習(xí)模型能夠模擬復(fù)雜的場(chǎng)景結(jié)構(gòu)和語(yǔ)義信息,從而提升SLAM系統(tǒng)對(duì)場(chǎng)景的理解和表達(dá)能力。這種方法主要分為兩種途徑。第一種是基于深度學(xué)習(xí)的端到端算法,如Droid-slam 、NICE-SLAM 、DVI-SLAM 。然而,這些方法需要大量的數(shù)據(jù)進(jìn)行訓(xùn)練,同時(shí)需要高計(jì)算資源和存儲(chǔ)空間,難以實(shí)現(xiàn)實(shí)時(shí)跟蹤。此外,它們可能僅在具有類(lèi)似訓(xùn)練數(shù)據(jù)集的特定場(chǎng)景中表現(xiàn)出色。面對(duì)復(fù)雜環(huán)境時(shí),其估計(jì)的軌跡往往會(huì)出現(xiàn)偏差甚至無(wú)效。第二種途徑稱(chēng)為混合SLAM,它利用深度學(xué)習(xí)來(lái)增強(qiáng)SLAM中的特定模塊?;旌蟂LAM充分利用了傳統(tǒng)幾何方法和深度學(xué)習(xí)方法的優(yōu)勢(shì),能夠在幾何約束和語(yǔ)義理解之間找到平衡。盡管目前該領(lǐng)域已有一些研究,但如何有效地整合深度學(xué)習(xí)技術(shù)仍是一個(gè)值得進(jìn)一步研究的方向。
目前,現(xiàn)有的混合SLAM存在一些局限性。DXNet 只是簡(jiǎn)單地將ORB特征點(diǎn)替換為深度特征點(diǎn),但仍繼續(xù)使用傳統(tǒng)方法來(lái)跟蹤這些特征。因此,這可能導(dǎo)致深度特征信息的不連貫。SP-Loop 僅將深度學(xué)習(xí)特征點(diǎn)引入閉環(huán)模塊,而在其他地方保留傳統(tǒng)的特征點(diǎn)提取方法。因此,這些混合SLAM方法并沒(méi)有有效且全面地結(jié)合深度學(xué)習(xí)技術(shù),這導(dǎo)致在某些復(fù)雜場(chǎng)景中跟蹤和建圖效果的下降。
為了解決這些問(wèn)題,這里提出了一個(gè)基于深度學(xué)習(xí)的多功能SLAM系統(tǒng)。將Superpoint特征點(diǎn)提取模塊整合到系統(tǒng)中,并將其作為唯一的表示形式貫穿始終。此外,在復(fù)雜環(huán)境中,傳統(tǒng)的特征匹配方法經(jīng)常表現(xiàn)出不穩(wěn)定性,導(dǎo)致跟蹤和建圖質(zhì)量的下降。然而,最近基于深度學(xué)習(xí)的特征匹配方法的進(jìn)步已經(jīng)顯示出在復(fù)雜環(huán)境中實(shí)現(xiàn)改進(jìn)匹配性能的潛力。這些方法利用場(chǎng)景的先驗(yàn)信息和結(jié)構(gòu)細(xì)節(jié)來(lái)增強(qiáng)匹配的有效性。Lightglue 作為最新的SOTA(state-of-the-art)匹配方法,因其高效且輕量級(jí)的特性,對(duì)于需要高實(shí)時(shí)性能的SLAM系統(tǒng)具有優(yōu)勢(shì)。因此,我們已將整個(gè)SLAM系統(tǒng)中的特征匹配方法替換為L(zhǎng)ightglue,相較于傳統(tǒng)方法,提高了魯棒性和準(zhǔn)確性。
此外,我們對(duì)Superpoint特征點(diǎn)描述符進(jìn)行了預(yù)處理,以與相應(yīng)的視覺(jué)詞袋的訓(xùn)練保持一致。當(dāng)與Lightglue結(jié)合時(shí),這種方法實(shí)現(xiàn)了精確的場(chǎng)景識(shí)別效果。同時(shí),為了保持準(zhǔn)確性與效率之間的平衡,設(shè)計(jì)了一種特征點(diǎn)選擇策略??紤]到可擴(kuò)展性、可移植性和實(shí)時(shí)性能,我們利用ONNX Runtime庫(kù)來(lái)部署這些深度學(xué)習(xí)模型。最后,設(shè)計(jì)了一系列實(shí)驗(yàn)來(lái)證明方法在多種具有挑戰(zhàn)性的場(chǎng)景中提高了SLAM算法的軌跡預(yù)測(cè)精度和跟蹤魯棒性,如圖8所示。
SL-SLAM系統(tǒng)框架
SL-SLAM的系統(tǒng)結(jié)構(gòu)如圖2所示,該系統(tǒng)主要有四種傳感器配置,即單目、單目慣性、雙目和雙目慣性。該系統(tǒng)基于ORB-SLAM3作為基線(xiàn),包含三個(gè)主要模塊:跟蹤、局部建圖和回環(huán)檢測(cè)。為了將深度學(xué)習(xí)模型集成到系統(tǒng)中,使用了ONNX Runtime深度學(xué)習(xí)部署框架,結(jié)合了SuperPoint和LightGlue模型。
對(duì)于每個(gè)輸入圖像,系統(tǒng)首先將其輸入到SuperPoint網(wǎng)絡(luò)中,以獲取特征點(diǎn)的概率張量和描述符張量。然后,系統(tǒng)使用兩幀進(jìn)行初始化,并對(duì)每個(gè)后續(xù)幀進(jìn)行粗略跟蹤。它進(jìn)一步通過(guò)跟蹤局部地圖來(lái)細(xì)化姿態(tài)估計(jì)。在跟蹤失敗的情況下,系統(tǒng)要么使用參考幀進(jìn)行跟蹤,要么執(zhí)行重定位以重新獲取姿態(tài)。請(qǐng)注意,在粗略跟蹤、初始化、參考幀跟蹤和重定位中,都使用了LightGlue進(jìn)行特征匹配。這確保了準(zhǔn)確且魯棒的匹配關(guān)系,從而提高了跟蹤的有效性。
在基線(xiàn)算法中,局部建圖線(xiàn)程的主要作用是在實(shí)時(shí)動(dòng)態(tài)地構(gòu)建局部地圖,包括地圖點(diǎn)和關(guān)鍵幀。它利用局部地圖執(zhí)行捆集調(diào)整優(yōu)化,從而減少跟蹤誤差并增強(qiáng)一致性。局部建圖線(xiàn)程使用跟蹤線(xiàn)程輸出的關(guān)鍵幀,基于LightGlue的三角測(cè)量和自適應(yīng)局部捆集調(diào)整(BA)優(yōu)化來(lái)重建精確的地圖點(diǎn)。然后區(qū)分并移除冗余的地圖點(diǎn)和關(guān)鍵幀。
閉環(huán)校正線(xiàn)程利用基于SuperPoint描述符訓(xùn)練的關(guān)鍵幀數(shù)據(jù)庫(kù)和詞袋模型來(lái)檢索相似的關(guān)鍵幀。通過(guò)對(duì)SuperPoint描述符進(jìn)行二值化來(lái)增強(qiáng)檢索效率。選定的關(guān)鍵幀使用LightGlue進(jìn)行特征匹配,以進(jìn)行共同視圖幾何驗(yàn)證,減少不匹配的可能性。最后,執(zhí)行閉環(huán)融合和全局BA(Bundle Adjustment)來(lái)優(yōu)化整體姿態(tài)。
1)Feature Extraction
SuperPoint 網(wǎng)絡(luò)結(jié)構(gòu):SuperPoint網(wǎng)絡(luò)架構(gòu)主要由三個(gè)部分組成:一個(gè)共享編碼器、一個(gè)特征檢測(cè)解碼器和一個(gè)描述符解碼器。編碼器是一個(gè)VGG風(fēng)格的網(wǎng)絡(luò),能夠降低圖像維度并提取特征。特征檢測(cè)解碼器的任務(wù)是計(jì)算圖像中每個(gè)像素的概率,以確定其成為特征點(diǎn)的可能性。描述符解碼網(wǎng)絡(luò)利用子像素卷積來(lái)減輕解碼過(guò)程的計(jì)算復(fù)雜度。然后,網(wǎng)絡(luò)輸出一個(gè)半密集描述符,接著應(yīng)用雙三次插值算法來(lái)獲取完整的描述符。在獲取了網(wǎng)絡(luò)輸出的特征點(diǎn)張量和描述符張量之后,為了提高特征提取的魯棒性,我們采用了一種自適應(yīng)閾值選擇策略來(lái)過(guò)濾特征點(diǎn),并進(jìn)行后處理操作以獲取特征點(diǎn)及其描述符。特征提取模塊的具體結(jié)構(gòu)如圖3所示。
自適應(yīng)特征選擇:首先,每個(gè)圖像,標(biāo)記為I(W × H),在調(diào)整大小以匹配SuperPoint網(wǎng)絡(luò)的輸入圖像尺寸(W′ × H′)之前,會(huì)先轉(zhuǎn)換為灰度圖像。圖像過(guò)小可能會(huì)阻礙特征提取,從而降低跟蹤性能,而圖像過(guò)大則可能導(dǎo)致過(guò)高的計(jì)算需求和內(nèi)存使用。因此,為了平衡特征提取的準(zhǔn)確性和效率,本文選擇W′ = 400和H′ = 300。隨后,一個(gè)大小為W′ × H′的張量被送入網(wǎng)絡(luò),產(chǎn)生兩個(gè)輸出張量:得分張量S,以及描述符張量D。一旦獲得特征點(diǎn)得分張量和特征描述符,下一步就是設(shè)置一個(gè)閾值th來(lái)過(guò)濾特征點(diǎn)。
在具有挑戰(zhàn)性的場(chǎng)景中,每個(gè)特征點(diǎn)的置信度會(huì)降低,如果采用固定的置信度閾值th,則可能導(dǎo)致提取的特征數(shù)量減少。為了解決這個(gè)問(wèn)題,我們引入了自適應(yīng)的SuperPoint閾值設(shè)置策略。這種自適應(yīng)方法根據(jù)場(chǎng)景動(dòng)態(tài)調(diào)整特征提取的閾值,從而在具有挑戰(zhàn)性的場(chǎng)景中實(shí)現(xiàn)更魯棒的特征提取。自適應(yīng)閾值機(jī)制考慮了兩個(gè)因素:特征內(nèi)部關(guān)系和幀間特征關(guān)系。
在具有挑戰(zhàn)性的場(chǎng)景中,每個(gè)特征點(diǎn)的置信度會(huì)降低,如果采用固定的置信度閾值th,則可能導(dǎo)致提取的特征數(shù)量減少。為了解決這個(gè)問(wèn)題,引入了自適應(yīng)的SuperPoint閾值設(shè)置策略。這種自適應(yīng)方法根據(jù)場(chǎng)景動(dòng)態(tài)調(diào)整特征提取的閾值,從而在具有挑戰(zhàn)性的場(chǎng)景中實(shí)現(xiàn)更魯棒的特征提取。自適應(yīng)閾值機(jī)制考慮了兩個(gè)因素:特征內(nèi)部關(guān)系和幀間特征關(guān)系。
2)特征匹配與前端
LightGlue網(wǎng)絡(luò)結(jié)構(gòu):LightGlue模型由多個(gè)相同的層組成,這些層共同處理兩組特征。每一層都包含自注意力和交叉注意力單元,用于更新點(diǎn)的表示。每一層中的分類(lèi)器決定推斷的停止,避免了不必要的計(jì)算。最后,一個(gè)輕量級(jí)的頭部計(jì)算部分匹配得分。網(wǎng)絡(luò)的深度會(huì)根據(jù)輸入圖像的復(fù)雜性動(dòng)態(tài)調(diào)整。如果圖像對(duì)很容易匹配,由于標(biāo)記的高置信度,可以實(shí)現(xiàn)早期終止。因此,LightGlue具有更短的運(yùn)行時(shí)間和更低的內(nèi)存消耗,使其適合集成到需要實(shí)時(shí)性能的任務(wù)中。
相鄰幀之間的時(shí)間間隔,通常只有幾十毫秒,ORB-SLAM3假設(shè)相機(jī)在這段短暫的時(shí)間內(nèi)進(jìn)行勻速運(yùn)動(dòng)。它利用前一幀的姿態(tài)和速度來(lái)估計(jì)當(dāng)前幀的姿態(tài),并使用這個(gè)估計(jì)的姿態(tài)進(jìn)行投影匹配。然后,它在一定范圍內(nèi)搜索匹配點(diǎn),并據(jù)此細(xì)化姿態(tài)。然而,在現(xiàn)實(shí)中,相機(jī)的運(yùn)動(dòng)可能并不總是均勻的。突然的加速、減速或旋轉(zhuǎn)都可能對(duì)這種方法的有效性產(chǎn)生不利影響。Lightglue可以通過(guò)直接在當(dāng)前幀和前一幀之間匹配特征來(lái)有效解決這個(gè)問(wèn)題。然后,它使用這些匹配的特征來(lái)細(xì)化初始姿態(tài)估計(jì),從而減少突然加速或旋轉(zhuǎn)的負(fù)面影響。
在先前幀中圖像跟蹤失敗的情況下,無(wú)論是由于突然的相機(jī)運(yùn)動(dòng)還是其他因素,都需要使用參考關(guān)鍵幀進(jìn)行跟蹤或重新定位?;€(xiàn)算法采用詞袋(Bag-of-Words, BoW)方法來(lái)加速當(dāng)前幀和參考幀之間的特征匹配。然而,BoW方法將空間信息轉(zhuǎn)換為基于視覺(jué)詞匯的統(tǒng)計(jì)信息,可能會(huì)丟失特征點(diǎn)之間的準(zhǔn)確空間關(guān)系。此外,如果BoW模型中使用的視覺(jué)詞匯不足或不夠代表性,它可能無(wú)法捕獲場(chǎng)景的豐富特征,導(dǎo)致匹配過(guò)程中的不準(zhǔn)確。
結(jié)合Lightglue的跟蹤:由于相鄰幀之間的時(shí)間間隔很短,通常只有幾十毫秒,ORB-SLAM3假設(shè)相機(jī)在這段時(shí)間內(nèi)進(jìn)行勻速運(yùn)動(dòng)。它使用前一幀的姿態(tài)和速度來(lái)估計(jì)當(dāng)前幀的姿態(tài),并使用這個(gè)估計(jì)的姿態(tài)進(jìn)行投影匹配。然后,它在一定范圍內(nèi)搜索匹配點(diǎn),并據(jù)此細(xì)化姿態(tài)。然而,在現(xiàn)實(shí)中,相機(jī)的運(yùn)動(dòng)可能并不總是均勻的。突然的加速、減速或旋轉(zhuǎn)都可能對(duì)這種方法的有效性產(chǎn)生不利影響。Lightglue可以有效地解決這個(gè)問(wèn)題,通過(guò)直接在當(dāng)前幀和前一幀之間匹配特征。然后,它使用這些匹配的特征來(lái)細(xì)化初始姿態(tài)估計(jì),從而減少突然加速或旋轉(zhuǎn)的負(fù)面影響。
在先前幀中圖像跟蹤失敗的情況下,無(wú)論是由于突然的相機(jī)運(yùn)動(dòng)還是其他因素,都需要使用參考關(guān)鍵幀進(jìn)行跟蹤或重新定位。基線(xiàn)算法采用詞袋(Bag-of-Words, BoW)方法來(lái)加速當(dāng)前幀和參考幀之間的特征匹配。然而,BoW方法將空間信息轉(zhuǎn)換為基于視覺(jué)詞匯的統(tǒng)計(jì)信息,可能會(huì)丟失特征點(diǎn)之間的準(zhǔn)確空間關(guān)系。此外,如果BoW模型中使用的視覺(jué)詞匯不足或不夠代表性,它可能無(wú)法捕獲場(chǎng)景的豐富特征,導(dǎo)致匹配過(guò)程中的不準(zhǔn)確。
為了解決這些問(wèn)題,在整個(gè)系統(tǒng)中用Lightglue替換了BoW方法。這一改變顯著提高了在大規(guī)模變換下成功跟蹤和重新定位的概率,從而增強(qiáng)了我們的跟蹤過(guò)程的準(zhǔn)確性和魯棒性。圖4展示了不同匹配方法的有效性??梢杂^察到,基于Lightglue的匹配方法相比ORB-SLAM3中使用的基于投影或詞袋(Bag-of-Words)的匹配方法,表現(xiàn)出了更優(yōu)的匹配性能。因此,在SLAM操作過(guò)程中,它使得地圖點(diǎn)的跟蹤更加均勻和穩(wěn)定,如圖6所示。
結(jié)合Lightglue的局部建圖:在局部建圖線(xiàn)程中,新地圖點(diǎn)的三角化是通過(guò)當(dāng)前關(guān)鍵幀及其鄰近關(guān)鍵幀來(lái)完成的。為了獲得更精確的地圖點(diǎn),需要與具有更大基線(xiàn)的關(guān)鍵幀進(jìn)行匹配。然而,ORB-SLAM3使用詞袋(Bag-of-Words, BoW)匹配來(lái)實(shí)現(xiàn)這一點(diǎn),但當(dāng)基線(xiàn)較大時(shí),BoW特征匹配的性能會(huì)降低。相比之下,Lightglue算法非常適合與大基線(xiàn)進(jìn)行匹配,并能無(wú)縫地集成到系統(tǒng)中。通過(guò)使用Lightglue進(jìn)行特征匹配并對(duì)匹配點(diǎn)進(jìn)行三角化,可以恢復(fù)更全面、更高質(zhì)量的地圖點(diǎn)。
這通過(guò)在關(guān)鍵幀之間建立更多連接,以及通過(guò)共同優(yōu)化共同可見(jiàn)的關(guān)鍵幀和地圖點(diǎn)的姿態(tài)來(lái)穩(wěn)定跟蹤,從而增強(qiáng)了局部建圖能力。地圖點(diǎn)的三角化效果如圖6所示??梢杂^察到,與ORB-SLAM3相比,我們的方法構(gòu)建的地圖點(diǎn)能更好地反映場(chǎng)景的結(jié)構(gòu)信息。此外,它們?cè)诳臻g上的分布更加均勻和廣泛。
3)Loop closure
詞袋深度描述符:在閉環(huán)檢測(cè)中使用的詞袋方法是基于視覺(jué)詞匯的方法,借鑒了自然語(yǔ)言處理中詞袋的概念。它首先進(jìn)行字典的離線(xiàn)訓(xùn)練。最初,使用K-means算法將訓(xùn)練圖像集中檢測(cè)到的特征描述符聚類(lèi)成k個(gè)集合,形成字典樹(shù)的第一級(jí)。隨后,在每個(gè)集合內(nèi)進(jìn)行遞歸操作,最終得到深度為L(zhǎng)、分支數(shù)為k的最終字典樹(shù),建立視覺(jué)詞匯表。每個(gè)葉節(jié)點(diǎn)都被視為一個(gè)詞匯。
一旦字典訓(xùn)練完成,在算法執(zhí)行期間,會(huì)從當(dāng)前圖像的所有特征點(diǎn)中在線(xiàn)生成詞袋向量和特征向量。主流SLAM框架傾向于使用手動(dòng)設(shè)置的二進(jìn)制描述符,因?yàn)樗鼈兙哂休^小的內(nèi)存占用和簡(jiǎn)單的比較方法。為了進(jìn)一步提高方法效率,SP-Loop 使用期望值為0、標(biāo)準(zhǔn)差為0.07的高斯分布來(lái)表示超點(diǎn)描述符的值。因此,可以將超點(diǎn)的256維浮點(diǎn)描述符進(jìn)行二進(jìn)制編碼,以提高視覺(jué)位置識(shí)別的查詢(xún)速度。二進(jìn)制編碼如等式4所示。
基本流程:在SLAM中的閉環(huán)檢測(cè)通常涉及三個(gè)關(guān)鍵階段:尋找初始閉環(huán)候選關(guān)鍵幀、驗(yàn)證閉環(huán)候選關(guān)鍵幀以及執(zhí)行閉環(huán)校正和全局捆綁調(diào)整(Bundle Adjustment,BA)。
啟動(dòng)過(guò)程的第一步是識(shí)別初始閉環(huán)候選關(guān)鍵幀。這通過(guò)利用之前訓(xùn)練的DBoW3詞袋模型來(lái)實(shí)現(xiàn)。識(shí)別出與當(dāng)前幀Ka具有共同詞匯的關(guān)鍵幀,但排除與Ka共同可見(jiàn)的關(guān)鍵幀。計(jì)算與這些候選關(guān)鍵幀相關(guān)的共同可見(jiàn)關(guān)鍵幀的總分。從閉環(huán)候選關(guān)鍵幀中得分最高的前N組中,選擇得分最高的關(guān)鍵幀。這個(gè)選定的關(guān)鍵幀,表示為Km。
接下來(lái),需要確定從Km到當(dāng)前關(guān)鍵幀Ka的相對(duì)姿態(tài)變換Tam。在ORB-SLAM3中,使用基于詞袋的特征匹配方法來(lái)匹配當(dāng)前關(guān)鍵幀與候選關(guān)鍵幀Km及其共同可見(jiàn)的關(guān)鍵幀Kco。值得注意的是,由于lightglue算法大大提高了匹配效率,因此將當(dāng)前幀與候選幀Km進(jìn)行匹配會(huì)產(chǎn)生高質(zhì)量的地圖點(diǎn)對(duì)應(yīng)。然后,應(yīng)用RANSAC算法消除異常值,并求解Sim(3)變換以確定初始相對(duì)姿態(tài)Tam。為了避免錯(cuò)誤的位置識(shí)別,將對(duì)候選關(guān)鍵幀進(jìn)行幾何驗(yàn)證,后續(xù)步驟與ORB-SLAM3類(lèi)似。