版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
1、精確測量航天器之間的相對位置和姿態(tài)(統(tǒng)稱為位姿)是完成空間交會對接、攻防對抗、在軌捕獲與維護等重大航天任務(wù)的先決條件?;诠鈱W(xué)成像敏感器的視覺測量技術(shù)利用安裝在追蹤航天器上的光學(xué)成像敏感器對目標(biāo)航天器成像,再對其圖像特征進行提取和解算,以實現(xiàn)位姿測量。與其它測量技術(shù)相比,這種技術(shù)具有直觀、精度高和自主性強等優(yōu)勢,已成為上述航天任務(wù)最后逼近段相對位姿測量的主要手段。
目標(biāo)航天器按照是否安裝了合作標(biāo)志,分為合作目標(biāo)和非合作目標(biāo)???/p>
2、間合作目標(biāo)的視覺測量方法已經(jīng)得到了深入的研究和成功的應(yīng)用,相對而言,對空間非合作目標(biāo)進行視覺測量更具挑戰(zhàn)性。而且由于空間絕大多數(shù)目標(biāo)都是非合作目標(biāo),對它們進行測量更具有普遍意義。
對非合作目標(biāo)進行位姿視覺測量,需要充分利用其固有特征。輪廓和邊緣是兩種重要的圖像特征,輪廓是圖像中包圍目標(biāo)區(qū)域的封閉邊界,而邊緣是圖像中灰度、顏色或紋理不連續(xù)或突變的地方。對于遠(yuǎn)距離、成像尺寸小的目標(biāo),其細(xì)節(jié)特征難以提取,只能利用其輪廓進行位姿測量。
3、對于近距離、成像尺寸大的目標(biāo),相對于其它特征而言,邊緣特征更明顯、提取速度更快而且受光照影響較小。因此利用邊緣特征進行位姿測量具有較大的技術(shù)優(yōu)勢。
本文研究了基于輪廓和邊緣的空間非合作目標(biāo)視覺跟蹤方法,研究內(nèi)容包括兩大部分:一是針對遠(yuǎn)距離目標(biāo)的輪廓提取與跟蹤方法,二是針對近距離目標(biāo)的基于邊緣模型的位姿估計和跟蹤方法。其中,輪廓提取與跟蹤屬于2D跟蹤的范疇,其結(jié)果可作為基于輪廓位姿估計方法的輸入,用于遠(yuǎn)距離位姿估計或近距離位姿初
4、值估計?;谶吘壞P偷奈蛔斯烙嫼透櫡椒▽儆?D跟蹤的范疇,該方法首先按照位姿初值對邊緣模型進行投影,再通過“投影模型-圖像邊緣”配準(zhǔn),迭代地求解位姿精確值,以達(dá)到位姿估計和跟蹤的目的。概況起來,本文的創(chuàng)新性主要體現(xiàn)在如下幾點:
一、在目標(biāo)的輪廓提取與跟蹤方面
1、提出了基于線段編組和顯著度分析的知覺組織輪廓提取方法(LSPC)。
當(dāng)背景復(fù)雜時,常規(guī)的輪廓提取方法無法排除雜亂背景的影響,而基于知覺組織的輪廓
5、編組方法是一種僅根據(jù)圖像特征之間顯現(xiàn)的有序性對特征進行組織的方法,可以有效地解決這個問題。LSPC方法首先將圖像中的線段、線段之間的連接和連接代價分別轉(zhuǎn)化為一個帶權(quán)有向圖中的頂點、弧和弧的權(quán)值,其中,弧的權(quán)值通過知覺組織Gestalt定律中接近性、連續(xù)性和相似性原理量化得到。然后,通過“在帶權(quán)有向圖中尋找最短路徑”的方式解決“在圖像中提取輪廓”的問題。最后,對所有輪廓進行有效性驗證并輸出最顯著的一條輪廓。該方法可以在無目標(biāo)先驗知識的情況
6、下,快速地提取目標(biāo)輪廓。
2、提出了基于運動概率的幾何主動輪廓線輪廓提取方法(MGAC)。
針對復(fù)雜背景下運動目標(biāo)的輪廓提取問題,本文提出了利用特征光流計算運動概率的方法,并將運動概率引入到幾何主動輪廓線(GAC)方法中,提出了一種運動分割與GAC相結(jié)合的輪廓提取方法。該方法從運動分割的角度出發(fā),首先計算KLT特征光流并進行聚類和運動模型估計,然后計算每個像素屬于目標(biāo)的概率,最后利用GAC進行目標(biāo)的輪廓提取。實驗結(jié)果
7、證明該方法是有效的。
3、提出了基于顏色直方圖的幾何主動輪廓線輪廓跟蹤方法(HGAC)。
在提取到參考圖像中目標(biāo)的輪廓之后,該方法首先對輪廓內(nèi)部區(qū)域進行顏色直方圖統(tǒng)計,并以此作為目標(biāo)的模板。然后以兩個直方圖的Bhattacharyya系數(shù)作為兩個區(qū)域相似度的定量描述,并按照“最大化輪廓內(nèi)部區(qū)域與目標(biāo)模板的相似度,最小化輪廓外部區(qū)域與目標(biāo)模板的相似度”的原則,在后續(xù)圖像中對輪廓進行演化。該方法可以在復(fù)雜背景下對目標(biāo)輪廓
8、進行穩(wěn)定的跟蹤。
輪廓提取和跟蹤的結(jié)果除可用于位姿估計外,還可用于目標(biāo)的特征提取、形態(tài)描述和識別等。
二、在基于邊緣模型的位姿估計和跟蹤方面
1、提出了法向距離迭代加權(quán)最小二乘位姿估計方法(ND-IRLS)和距離圖迭代最小二乘(DI-ILS)位姿估計方法。
本文將邊緣模型離散成采樣點集合,以采樣點為基元進行“模型-圖像”配準(zhǔn)。ND-IRLS通過對采樣點加權(quán),解決了傳統(tǒng)的法向距離迭代最小二乘(ND-
9、ILS)位姿估計方法易受噪聲或背景干擾的問題。DI-ILS通過對測量過程的簡化,具有更好的實時性。這兩種方法都具有初值偏差容忍度大、魯棒性好的特點,并且都具有較高的精度。
2、提出了最小二乘粒子濾波位姿跟蹤方法(LSPF)。
粒子濾波(PF)是視覺跟蹤中常用的Bayesian濾波技術(shù),LSPF方法通過重要性采樣技術(shù)將最小二乘優(yōu)化方法融入PF框架,將最小二乘方法高精度、高實時性的優(yōu)勢與PF高魯棒性的優(yōu)勢結(jié)合了起來。該方
10、法只需要少量的粒子,即可實現(xiàn)穩(wěn)定、準(zhǔn)確的目標(biāo)跟蹤。
除以上三種方法的研究以外,本文對這種位姿估計和跟蹤方法的具體流程進行了設(shè)計,并對模型準(zhǔn)備、方位變化預(yù)測和多像機聯(lián)合測量等問題開展了研究。
本文提出的以上五種新方法是對空間非合作目標(biāo)視覺跟蹤的有益嘗試,可作為空間非合作目標(biāo)位姿測量的一種輔助手段。此外,實驗結(jié)果表明本文的位姿估計與跟蹤方法對于發(fā)射段目標(biāo)位姿判讀也是有效的。這些方法已成功應(yīng)用于空間非合作目標(biāo)的3D位姿估計
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于單目視覺的空間非合作單軸旋轉(zhuǎn)目標(biāo)位姿測量與跟蹤控制.pdf
- 基于視覺和激光的空間非合作目標(biāo)相對位姿測量技術(shù)研究.pdf
- 空間非合作目標(biāo)接近與姿態(tài)跟蹤控制研究.pdf
- 基于空間非合作目標(biāo)微雙目視覺導(dǎo)航敏感器的研制.pdf
- 基于非合作雷達(dá)目標(biāo)跟蹤技術(shù)的研究.pdf
- 基于動態(tài)規(guī)劃的圖像邊緣提取和目標(biāo)輪廓匹配.pdf
- 基于雙目立體視覺的空間非合作目標(biāo)的位姿測量.pdf
- 面向視覺跟蹤的運動目標(biāo)輪廓提取算法研究.pdf
- 基于直線特征的空間非合作目標(biāo)位姿視覺測量方法研究.pdf
- 基于生物視覺的邊緣檢測與目標(biāo)跟蹤算法研究與仿真.pdf
- 基于光流場和輪廓的目標(biāo)跟蹤方法研究.pdf
- 基于單目視覺的非合作目標(biāo)姿態(tài)測量研究.pdf
- 基于視覺目標(biāo)跟蹤算法的研究.pdf
- 基于優(yōu)化集成學(xué)習(xí)與空間相關(guān)濾波的視覺目標(biāo)跟蹤.pdf
- 基于視覺的目標(biāo)跟蹤技術(shù)概述
- 基于水平集的在線目標(biāo)輪廓跟蹤研究.pdf
- 基于水平集的目標(biāo)輪廓跟蹤算法的研究.pdf
- 基于視覺的目標(biāo)跟蹤與空間坐標(biāo)定位系統(tǒng)研究.pdf
- 基于顯著區(qū)域和主題模型的原目標(biāo)檢測和視覺目標(biāo)跟蹤.pdf
- 基于觸覺的空間非合作目標(biāo)慣性參數(shù)辨識研究.pdf
評論
0/150
提交評論