版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、目標(biāo)識(shí)別和定位是增強(qiáng)現(xiàn)實(shí)(AugmentedReality,AR)中的重要環(huán)節(jié),可實(shí)現(xiàn)空間目標(biāo)的識(shí)別和相機(jī)相對(duì)于目標(biāo)的位姿估計(jì)。在增強(qiáng)現(xiàn)實(shí)系統(tǒng)中,通過(guò)將計(jì)算機(jī)產(chǎn)生的虛擬物體或信息與真實(shí)場(chǎng)景疊加在一起,為實(shí)現(xiàn)融合效果的感官真實(shí)性,首先識(shí)別待“增強(qiáng)”的目標(biāo)真實(shí)場(chǎng)景,并保證虛擬對(duì)象和現(xiàn)實(shí)場(chǎng)景的匹配精度和動(dòng)態(tài)一致性,這就需要實(shí)時(shí)跟蹤現(xiàn)實(shí)世界中相機(jī)的位姿。
由于現(xiàn)實(shí)環(huán)境比較復(fù)雜,在目標(biāo)識(shí)別及相機(jī)位姿估計(jì)過(guò)程中,首先需要解決的問(wèn)題是提
2、取高效穩(wěn)定的特征匹配點(diǎn)對(duì),利用匹配結(jié)果識(shí)別相同或相近物體,估計(jì)相鄰視圖之間的變換矩陣,進(jìn)而得到相機(jī)在不同位置的外部參數(shù)矩陣。可見(jiàn),特征的匹配精度及匹配效率直接影響目標(biāo)識(shí)別和定位方法的準(zhǔn)確性及實(shí)時(shí)性,特征匹配已成為目標(biāo)識(shí)別和定位的關(guān)鍵技術(shù)。目前,常用的特征描述及匹配方法主要可分為兩類:基于不變量的局部描述算子的特征識(shí)別及匹配和基于統(tǒng)計(jì)學(xué)習(xí)方法的特征識(shí)別及匹配方法。然而,特征匹配及相機(jī)位姿估計(jì)存在以下三方面問(wèn)題:
(1)局部不
3、變性特征采用高強(qiáng)度的特征描述以提高其對(duì)環(huán)境的適應(yīng)性,不僅包含關(guān)鍵點(diǎn)自身的信息,還聯(lián)合關(guān)鍵點(diǎn)周?chē)鷮?duì)其有貢獻(xiàn)的像素構(gòu)建出高維的特征向量描述子,維數(shù)越高,魯棒性越好,但計(jì)算復(fù)雜度越高。SIFT算子是128維的特征向量,SURF算子是64維向量,顯然,較高的維度使這類算子的提取及匹配過(guò)程計(jì)算量負(fù)擔(dān)大、運(yùn)算速度慢,且需占用大量的內(nèi)存空間。當(dāng)環(huán)境中有數(shù)千上萬(wàn)個(gè)特征時(shí),局部特征將無(wú)法滿足實(shí)時(shí)系統(tǒng)的要求,且對(duì)于實(shí)時(shí)AR系統(tǒng)在移動(dòng)終端上的應(yīng)用擴(kuò)展非常不利
4、。
(2)基于統(tǒng)計(jì)學(xué)習(xí)方法的特征識(shí)別及匹配方法把計(jì)算量轉(zhuǎn)移到離線分類器的訓(xùn)練,在線特征匹配具有計(jì)算量小的優(yōu)勢(shì),但該類算法特征識(shí)別及匹配效果受分類器性能影響,隨機(jī)性較強(qiáng),穩(wěn)定性較差。隨機(jī)蕨(RandomFerns)[1][2][3]方法由V.Lepetit等人在2009年提出,采用樸素貝葉斯分類模型,是迄今效果最好的機(jī)器學(xué)習(xí)特征匹配方法,但也存在匹配精度不足的問(wèn)題。由于樸素貝葉斯分類模型本身的特性,需假設(shè)各特征屬性之間相互獨(dú)
5、立,并對(duì)特征屬性進(jìn)行隨機(jī)分組。然而,由于特征屬性由灰度比較得到,圖像的像素之間又必然存在聯(lián)系,隨機(jī)分組忽略了不同屬性組合對(duì)分類器的重要性不同。而不恰當(dāng)?shù)膶傩詣澐謺?huì)影響分類器的質(zhì)量,并最終導(dǎo)致分類結(jié)果隨機(jī)性較強(qiáng),匹配率較低。
(3)在相機(jī)內(nèi)部參數(shù)已知情況下,已知空間目標(biāo)點(diǎn)與其像點(diǎn)的匹配對(duì)應(yīng)關(guān)系,可求解相機(jī)相對(duì)位姿,也被稱為PnP(Perspective-n-Point)問(wèn)題?,F(xiàn)有的PnP算法大致可分為迭代算法和非迭代算法兩類
6、。非迭代算法采用代數(shù)方法直接求出相對(duì)位姿,該類算法具有運(yùn)算量小、計(jì)算速度快等優(yōu)點(diǎn),但受誤差影響大,且精度不高,常應(yīng)用于迭代算法的初值計(jì)算。迭代算法是將PnP問(wèn)題表示為受約束的非線性優(yōu)化問(wèn)題,通過(guò)求解該優(yōu)化問(wèn)題得到相機(jī)相對(duì)位姿的數(shù)值解。該類方法精度較高,但計(jì)算量較大,且受初始值的影響算法通常會(huì)收斂到局部最小值而不是全局最小值,或收斂到錯(cuò)誤解。因此尋求一種折中的PnP問(wèn)題解決方法,對(duì)于實(shí)現(xiàn)快速準(zhǔn)確的目標(biāo)定位非常關(guān)鍵。
針對(duì)以上
7、問(wèn)題,目前目標(biāo)識(shí)別和定位的研究目的可總結(jié)為:一是簡(jiǎn)化局部不變性特征提取,并采用有效的數(shù)據(jù)結(jié)構(gòu)及搜索查詢算法,提高特征匹配的速度;二是發(fā)展完善基于統(tǒng)計(jì)學(xué)習(xí)的特征匹配方法,降低時(shí)間復(fù)雜度,并提供有意義的信息指導(dǎo)屬性組合劃分,降低盲目性,不斷提高特征識(shí)別率和匹配精度;三是設(shè)計(jì)精度較高,且計(jì)算量較小的相機(jī)位姿確定方法,并盡量減少初始值對(duì)估測(cè)結(jié)果的影響。
本文以目標(biāo)識(shí)別和定位為研究對(duì)象,重點(diǎn)系統(tǒng)研究了特征匹配技術(shù)及相機(jī)位姿估計(jì)方法,
8、本文主要工作如下:
(1)局部不變性特征的快速匹配方法
由于局部不變性特征匹配的高強(qiáng)度描述特性,為降低高維矩陣匹配的計(jì)算量,并減少對(duì)內(nèi)存的消耗。多維二進(jìn)制索引樹(shù)(Kd-樹(shù))是把二叉樹(shù)推廣到多維數(shù)據(jù)的一種主存數(shù)據(jù)結(jié)構(gòu),本文采用擴(kuò)展Kd-樹(shù)建立多維索引,并利用最近鄰查詢算法在Kd-樹(shù)中檢索與查詢點(diǎn)距離最近的數(shù)據(jù)點(diǎn),即待匹配點(diǎn)。Kd-樹(shù)的引入極大方便高維特征點(diǎn)的搜索操作,但查詢得到的結(jié)果并不一定是正確的匹配對(duì),本文
9、采用隨機(jī)抽樣一致性(RANSAC)提純匹配點(diǎn)對(duì),給定合適的迭代參數(shù),RANSAC可得到較好的擬合結(jié)果。圖像拼接的應(yīng)用實(shí)例驗(yàn)證了特征匹配的有效性。
(2)基于條件互信息量的隨機(jī)蕨特征匹配方法
本文重點(diǎn)研究隨機(jī)蕨算法,利用條件互信息量[4][5指導(dǎo)特征屬性的組合劃分,提出了一種基于條件互信息量的隨機(jī)蕨特征匹配方法,以MI-Ferns表示,其主要內(nèi)容包括:訓(xùn)練樣本獲取,特征屬性劃分,離線分類器訓(xùn)練及在線特征識(shí)別及匹
10、配。其中,最關(guān)鍵的部分是分類器的離線訓(xùn)練階段,訓(xùn)練的結(jié)果直接影響在線特征匹配效果。本文提出的MI-Ferns方法改善了隨機(jī)蕨蕨叢構(gòu)建的盲目性對(duì)分類結(jié)果的影響,提高了離線分類器的分類性能。另外,由于特征屬性間的條件互信息量計(jì)算僅存在于離線階段,因此不會(huì)增加在線匹配的運(yùn)算時(shí)間。仍利用RANSAC方法剔除誤匹配點(diǎn),進(jìn)一步提高匹配精度。通過(guò)實(shí)驗(yàn)對(duì)比原有隨機(jī)蕨算法(RF)與改進(jìn)隨機(jī)蕨方法(MI-Ferns)的特征識(shí)別率和匹配性能,驗(yàn)證了改進(jìn)隨機(jī)蕨
11、方法的有效性及較高的匹配精度。
(3)相機(jī)位姿估計(jì)方法研究
相機(jī)位姿估計(jì)有多種方法,從課題實(shí)際需求出發(fā),本文設(shè)計(jì)了一種計(jì)算量較小,受環(huán)境噪聲影響小的相機(jī)位姿確定系統(tǒng)。該系統(tǒng)中,由改進(jìn)的隨機(jī)蕨算法提供特征匹配對(duì),相機(jī)模型采用小孔成像模型,并根據(jù)張氏標(biāo)定算法求取攝像機(jī)的內(nèi)部參數(shù)矩陣,采用一種非迭代的PnP方法[6]估計(jì)相機(jī)的投影矩陣。該方法將空間坐標(biāo)點(diǎn)和圖像特征點(diǎn)均表示為4個(gè)虛擬控制點(diǎn),把PnP問(wèn)題轉(zhuǎn)化為估計(jì)4個(gè)
12、虛擬控制點(diǎn)在相機(jī)坐標(biāo)系中的坐標(biāo)值問(wèn)題。該方法計(jì)算簡(jiǎn)單,但精度與迭代方法相比仍然較低。因此本文采用高斯-牛頓非線性算法對(duì)求解結(jié)果進(jìn)行優(yōu)化,非迭代算法求取的結(jié)果作為優(yōu)化的初始值,使得該方法的計(jì)算精度可達(dá)到Lu于2000年提出的最經(jīng)典的迭代方法[7]的精度,且優(yōu)化算法的引入沒(méi)有明顯增加計(jì)算量。
實(shí)驗(yàn)結(jié)果表明,基于不變量的局部特征匹配技術(shù),對(duì)光照、尺度、遮擋等條件下具有一定的適應(yīng)能力,改進(jìn)的隨機(jī)蕨算法識(shí)別率較好,其匹配結(jié)果經(jīng)RAN
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于目標(biāo)標(biāo)識(shí)特征分析和匹配的視頻運(yùn)動(dòng)目標(biāo)識(shí)別.pdf
- 基于人類回聲定位的目標(biāo)識(shí)別方法研究.pdf
- 基于改進(jìn)的SIFT特征匹配方法在目標(biāo)識(shí)別中的應(yīng)用研究.pdf
- 基于特征級(jí)融合的目標(biāo)識(shí)別方法研究.pdf
- 基于AR的數(shù)控加工仿真中目標(biāo)識(shí)別與定位方法研究.pdf
- 基于智能輔助視域盲區(qū)目標(biāo)識(shí)別與匹配.pdf
- SAR成像目標(biāo)識(shí)別子區(qū)選取與匹配方法研究.pdf
- 基于輪廓特征的目標(biāo)識(shí)別研究.pdf
- 基于局部圖像特征的目標(biāo)識(shí)別和分類方法研究.pdf
- 基于單目視覺(jué)的目標(biāo)識(shí)別與定位研究.pdf
- 基于單目視覺(jué)的目標(biāo)識(shí)別與定位.pdf
- 基于圖像的目標(biāo)識(shí)別與跟蹤方法研究.pdf
- 基于HOG特征的目標(biāo)識(shí)別算法研究.pdf
- 衛(wèi)星目標(biāo)識(shí)別與特征參數(shù)提取方法研究.pdf
- 基于局部特征幾何結(jié)構(gòu)的目標(biāo)識(shí)別方法研究.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的目標(biāo)識(shí)別及定位方法的研究.pdf
- 基于全維視覺(jué)的目標(biāo)識(shí)別與定位.pdf
- 基于LARK和近鄰結(jié)構(gòu)匹配的紅外目標(biāo)識(shí)別方法.pdf
- 基于窄帶微動(dòng)特征的空間錐體目標(biāo)識(shí)別方法研究.pdf
- 基于雙目立體視覺(jué)的目標(biāo)識(shí)別與定位研究.pdf
評(píng)論
0/150
提交評(píng)論