版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、目標(biāo)跟蹤的主要目的是獲得目標(biāo)在視頻或者圖像序列中每一時(shí)刻的運(yùn)動(dòng)狀態(tài),包括位置、大小等,進(jìn)而獲得其在整段視頻中的運(yùn)動(dòng)軌跡。作為圖像(視頻)處理和模式識(shí)別領(lǐng)域的重要研究課題,目標(biāo)跟蹤具有廣闊的應(yīng)用前景。自問(wèn)題提出以來(lái),一系列方法相繼出現(xiàn),但仍然面臨諸多困難,尤其是光照變化、遮擋、尺度變化、場(chǎng)景混亂、姿態(tài)變化、圖像模糊和劇烈運(yùn)動(dòng)等因素對(duì)目標(biāo)外觀(guān)的影響,已成為制約其在實(shí)際中進(jìn)一步應(yīng)用的關(guān)鍵。近年來(lái),在線(xiàn)目標(biāo)跟蹤(Online ObjectTra
2、cking,OOT)逐漸成為目標(biāo)跟蹤領(lǐng)域的研究熱點(diǎn),該類(lèi)方法試圖根據(jù)目標(biāo)的外觀(guān)變化對(duì)跟蹤器進(jìn)行自適應(yīng)地調(diào)整與更新,在解決上述問(wèn)題方面取得了更為令人滿(mǎn)意的效果。其中,隨著近年來(lái)信號(hào)稀疏表示、凸優(yōu)化理論以及壓縮感知的發(fā)展,利用信號(hào)稀疏性進(jìn)行目標(biāo)跟蹤的方法獲得了廣泛的關(guān)注。
為此,本文針對(duì)目標(biāo)在場(chǎng)景中外觀(guān)變化情況下的跟蹤魯棒性問(wèn)題,以目標(biāo)跟蹤為研究對(duì)象,以外觀(guān)變化場(chǎng)景下基于稀疏表示理論的在線(xiàn)目標(biāo)跟蹤為目標(biāo)展開(kāi)研究。主要工作和創(chuàng)新點(diǎn)如
3、下:
(1)基于稀疏表示理論,本文提出了一種基于選擇性稀疏外觀(guān)模型和時(shí)空分析的生成性在線(xiàn)跟蹤方法。首先,本文構(gòu)建選擇性稀疏外觀(guān)模型,該模型將目標(biāo)區(qū)域分割為相互重疊的圖像塊,利用關(guān)鍵點(diǎn)比例排序(Key Point Proportion Ranking,KPPR)算法構(gòu)建目標(biāo)區(qū)域的局部重要性評(píng)價(jià),以最重要的部分圖像塊為關(guān)鍵塊代表目標(biāo)。然后,方法構(gòu)建了基于時(shí)空分析的跟蹤處理過(guò)程。對(duì)選擇后的圖像關(guān)鍵塊進(jìn)行基于Elastic Net正則
4、化的時(shí)域加權(quán)稀疏表示,通過(guò)時(shí)空統(tǒng)計(jì)推斷的分析方法,完成目標(biāo)在當(dāng)前時(shí)刻的位置估計(jì)。在運(yùn)動(dòng)建模部分,本文基于聯(lián)合高斯分布假設(shè)和針對(duì)過(guò)去時(shí)刻跟蹤信息的處理近似,構(gòu)建了一種遞推式的仿射運(yùn)動(dòng)模型;在觀(guān)測(cè)建模部分,本文采用稀疏表示系數(shù)核加權(quán)跡的lp范數(shù)計(jì)算目標(biāo)候選樣本的置信度,并構(gòu)建置信度-坐標(biāo)空間(Confidence-Coordinate Space,CCS),然后通過(guò)較大置信度候選樣本在該空間內(nèi)的推演實(shí)現(xiàn)當(dāng)前幀目標(biāo)位置,使得目標(biāo)位置的估計(jì)相對(duì)
5、更為靈活,但不失魯棒。該跟蹤方法在本文構(gòu)建的由16段典型測(cè)試序列組成的基準(zhǔn)集合進(jìn)行了測(cè)評(píng)實(shí)驗(yàn),在其中14段序列實(shí)現(xiàn)了較為穩(wěn)定和魯棒的跟蹤,12段序列平均中心誤差在10像素以下,平均覆蓋率綜合達(dá)到了66.8%,其中1段測(cè)試序列對(duì)應(yīng)的平均中心誤差和平均覆蓋率在全文24種跟蹤方法測(cè)評(píng)對(duì)比中排名最優(yōu)。實(shí)驗(yàn)的主客觀(guān)分析結(jié)果表明,與經(jīng)典的在線(xiàn)目標(biāo)跟蹤方法相比,本文所提出的生成性方法在跟蹤準(zhǔn)確率方面更具優(yōu)勢(shì)。
(2)針對(duì)本文所提生成性跟蹤方
6、法存在的跟蹤器易受周?chē)h(huán)境負(fù)面影響的問(wèn)題,結(jié)合稀疏表示理論中的字典學(xué)習(xí)問(wèn)題,本文提出了一種基于增量結(jié)構(gòu)化字典學(xué)習(xí)的判別性在線(xiàn)跟蹤方法(Incremental Discriminative Structured Dictionary Learning for Visual Tracking,IDSDL-VT)。首先,本文構(gòu)建了一種增量判別性結(jié)構(gòu)化字典學(xué)習(xí)(Incremental Discriminative Structured Dict
7、ionary Learning,IDSDL)算法。該算法構(gòu)建與正負(fù)樣本圖像塊對(duì)應(yīng)的判別性字典,并通過(guò)局部更新(Local Update, LU)機(jī)制實(shí)現(xiàn)對(duì)字典的在線(xiàn)逐列更新,這填補(bǔ)了通過(guò)稀疏表示構(gòu)建分類(lèi)模型的跟蹤方法未使用結(jié)構(gòu)化字典學(xué)習(xí)的空白。然后,本文采用學(xué)習(xí)后的字典以Elastic Net為正則項(xiàng)進(jìn)行稀疏表示,將表示系數(shù)作為特征通過(guò)K-組合投票(K-Combined Voting,KCV)方式進(jìn)行分類(lèi)器的訓(xùn)練與判決,選取置信度投票最
8、大值對(duì)應(yīng)的樣本作為當(dāng)前幀的跟蹤結(jié)果。上述過(guò)程隨著時(shí)間推移重復(fù)進(jìn)行,從而實(shí)現(xiàn)了字典的增量化更新和目標(biāo)的連續(xù)化跟蹤。該跟蹤方法在基準(zhǔn)集合進(jìn)行了測(cè)評(píng)實(shí)驗(yàn),在其中14段序列實(shí)現(xiàn)了較為穩(wěn)定和魯棒的跟蹤,13段序列平均中心誤差在10像素以下,平均覆蓋率綜合達(dá)到了67.3%,其中3段測(cè)試序列對(duì)應(yīng)的平均中心誤差和平均覆蓋率在24種跟蹤方法測(cè)評(píng)對(duì)比中排名最優(yōu)。實(shí)驗(yàn)的主客觀(guān)分析結(jié)果表明,IDSDL-VT有效解決了論文所提生成性跟蹤方法的問(wèn)題;與經(jīng)典的在線(xiàn)目
9、標(biāo)跟蹤方法相比,在跟蹤精度和魯棒性方面均取得更為令人滿(mǎn)意的表現(xiàn)。
(3)為了解決本文所提判別性跟蹤方法存在的單次迭代字典學(xué)習(xí)效果差的問(wèn)題,同時(shí)提高其應(yīng)用普適性,結(jié)合在生成性和判別性跟蹤方法方面所取得的成果,本文提出了一種混合性在線(xiàn)跟蹤該方法:基于增量選擇性稀疏模型和殘差加權(quán)在線(xiàn)字典學(xué)習(xí)的在線(xiàn)跟蹤方法。該方法首先將選擇性稀疏模型、字典學(xué)習(xí)、分類(lèi)模型訓(xùn)練與更新進(jìn)行整合,構(gòu)建了混合增量稀疏模型(Hybrid Incremental
10、Sparse Model,HISM),將目標(biāo)跟蹤處理流程切分為生成性建模和判別性建模兩部分。在生成性建模部分,采用基于稀疏表示的增量時(shí)空貢獻(xiàn)一致性排序(Sparsity-based Spatial-temporal Contribution Ranking, ISStCR)的方法,進(jìn)行關(guān)鍵塊的選取,用于代表目標(biāo)區(qū)域;構(gòu)建了基于幀間索引差的數(shù)值調(diào)整(Number Adjustment based on Inter-frame Indice
11、s Difference,NAIID)方法實(shí)現(xiàn)關(guān)鍵塊數(shù)量的自適應(yīng)調(diào)整。在判別性建模部分,采用了基于關(guān)鍵塊的字典學(xué)習(xí)和線(xiàn)性分類(lèi)器(組)相結(jié)合的方法對(duì)候選樣本進(jìn)行判定,構(gòu)建了殘差加權(quán)在線(xiàn)字典學(xué)習(xí)(Residue-weighted Online Dictionary Learning,RODL)與殘差加權(quán)增量判別性結(jié)構(gòu)化字典學(xué)習(xí)(Residue-weighted Incremental Discriminative Structured Di
12、ctionary Learning,RIDSDL)算法,并給出了兩種字典更新方式及其證明。與經(jīng)典的(在線(xiàn))字典學(xué)習(xí)和判別性字典學(xué)習(xí)方法的實(shí)驗(yàn)結(jié)果進(jìn)行對(duì)比標(biāo)明,新提出的加權(quán)在線(xiàn)字典學(xué)習(xí)方法,在迭代次數(shù)保持不變的情況下,進(jìn)一步提高訓(xùn)練信號(hào)的信噪比,對(duì)人臉?lè)诸?lèi)效果良好。該跟蹤方法在基準(zhǔn)集合進(jìn)行了測(cè)評(píng)實(shí)驗(yàn),與前兩章跟蹤結(jié)果相比,全部序列實(shí)現(xiàn)了相對(duì)較為穩(wěn)定和魯棒的跟蹤,13段序列平均中心誤差在10像素以下,平均覆蓋率綜合達(dá)到了71.6%,其中1段
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于稀疏表示的動(dòng)物目標(biāo)跟蹤研究.pdf
- 基于稀疏表示的目標(biāo)跟蹤算法.pdf
- 基于稀疏表示的運(yùn)動(dòng)目標(biāo)跟蹤.pdf
- 基于稀疏表示的視覺(jué)目標(biāo)跟蹤方法研究.pdf
- 基于稀疏表示模型的目標(biāo)跟蹤算法.pdf
- 基于改進(jìn)的稀疏表示的目標(biāo)跟蹤算法研究.pdf
- 基于稀疏表示的目標(biāo)檢測(cè)與跟蹤算法研究.pdf
- 基于稀疏表示的目標(biāo)跟蹤算法研究與實(shí)現(xiàn).pdf
- 基于稀疏表示的目標(biāo)檢測(cè)與跟蹤方法研究.pdf
- 基于稀疏表示和特征選擇的目標(biāo)跟蹤.pdf
- 基于稀疏表示的多車(chē)輛目標(biāo)跟蹤算法研究.pdf
- 基于特征融合與稀疏表示的目標(biāo)跟蹤研究.pdf
- 基于低秩稀疏表示的目標(biāo)跟蹤算法研究.pdf
- 基于稀疏表示的圖像分類(lèi)與目標(biāo)跟蹤研究.pdf
- 基于分區(qū)域稀疏表示的目標(biāo)跟蹤算法.pdf
- 基于稀疏表示的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤算法研究.pdf
- 基于稀疏表示的小弱運(yùn)動(dòng)目標(biāo)跟蹤算法研究.pdf
- 基于稀疏表示的多源目標(biāo)融合跟蹤方法研究.pdf
- 基于粒子濾波和稀疏表示的目標(biāo)跟蹤算法研究.pdf
- 基于稀疏表示的結(jié)構(gòu)化目標(biāo)跟蹤算法研究.pdf
評(píng)論
0/150
提交評(píng)論