版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、人體行為識(shí)別是計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)一個(gè)非?;钴S的研究方向,具有十分重要的理論研究?jī)r(jià)值和廣泛的應(yīng)用場(chǎng)景,比如智能視頻監(jiān)控、視頻檢索、智能監(jiān)護(hù)和人機(jī)交互等。近年來(lái),人們已提出了大量方法,從不同角度解釋和處理人體行為識(shí)別問(wèn)題。盡管這些方法已取得了一定成果,然而由于人體行為本身以及所處環(huán)境的復(fù)雜性,行為識(shí)別技術(shù)中還存在很多問(wèn)題值得深入研究。人體行為識(shí)別通常被看作是一個(gè)模式分類(lèi)問(wèn)題,主要包括行為特征提取與表達(dá)和行為分類(lèi)兩大部分。論文以包含人體行為的視
2、頻序列為研究對(duì)象,分析了現(xiàn)有行為識(shí)別方法的特點(diǎn)和不足,并針對(duì)這些不足,對(duì)行為特征提取與表達(dá)及相關(guān)行為識(shí)別方法進(jìn)行了深入研究,提出了一些新的解決思路和方法。論文首先提出了人體行為低秩特征,隨后提出了累加邊緣分布直方圖的特征表達(dá)方法;然后針對(duì)如何增強(qiáng)行為低秩特征抗背景干擾的能力及捕獲時(shí)間信息的能力提出了兩種改進(jìn)方法,并對(duì)相應(yīng)的行為識(shí)別方法進(jìn)行了深入研究,提出了新的判別部件學(xué)習(xí)模型和字典學(xué)習(xí)模型。最后在三個(gè)具有代表性的行為數(shù)據(jù)庫(kù)上驗(yàn)證了論文提
3、出方法的有效性。
論文的主要貢獻(xiàn)和創(chuàng)新點(diǎn)歸納如下:
?、偬岢隽诉\(yùn)用行為低秩特征提取視頻序列中行為信息的方法,并確定了可行規(guī)則化參數(shù)及其計(jì)算公式。傳統(tǒng)行為特征提取通常需要人體目標(biāo)的檢測(cè)、分割、跟蹤或興趣點(diǎn)檢測(cè)等預(yù)處理步驟,而這些處理步驟本身還存在不少困難未被解決,其產(chǎn)生的處理誤差也會(huì)傳遞到后續(xù)的行為分類(lèi)當(dāng)中。相比傳統(tǒng)行為特征,行為低秩特征的提取方式更加簡(jiǎn)潔,有效地避免了上述預(yù)處理步驟。然而在行為低秩特征的提取過(guò)程中,傳統(tǒng)
4、規(guī)則化參數(shù)難以有效提取出視頻序列中的行為信息;為此進(jìn)行了大量實(shí)驗(yàn)研究,并最終確定了可行的規(guī)則化參數(shù)及其計(jì)算公式。實(shí)驗(yàn)表明本文確定的規(guī)則化參數(shù)的特征提取效果遠(yuǎn)好于傳統(tǒng)規(guī)則化參數(shù)。
?、谔岢隽死奂舆吘壏植贾狈綀D的行為低秩特征表達(dá)方法。由于行為低秩特征自身的特性,傳統(tǒng)的特征表達(dá)方法難以有效描述出其中的行為信息。研究發(fā)現(xiàn)行為低秩特征中的邊緣信息可以很好地克服行為執(zhí)行者服裝灰度信息帶來(lái)的影響;同時(shí)視頻序列中的人體運(yùn)動(dòng)也會(huì)產(chǎn)生相應(yīng)的邊緣信息
5、。因此首先提取行為低秩特征的邊緣信息,然后對(duì)邊緣信息的分布進(jìn)行統(tǒng)計(jì),并最終形成累加邊緣分布直方圖的行為低秩特征表達(dá)。在三個(gè)基準(zhǔn)數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)表明,累加邊緣分布直方圖比其他傳統(tǒng)特征表達(dá)方法更適合用于表達(dá)行為低秩特征。
?、厶岢隽艘环N基于行為低秩特征中判別部件學(xué)習(xí)的行為識(shí)別方法。判別部件學(xué)習(xí)與行為低秩特征具有很強(qiáng)的互補(bǔ)性。從行為低秩特征中學(xué)習(xí)判別部件,能有效增強(qiáng)行為低秩特征的抗背景干擾能力,同時(shí)又能極大程度地克服傳統(tǒng)部件學(xué)習(xí)中的“背
6、景記憶”問(wèn)題。然而傳統(tǒng)的部件學(xué)習(xí)方法通常是對(duì)所有行為類(lèi)學(xué)習(xí)相同數(shù)量的判別部件,忽略了各行為類(lèi)之間識(shí)別難易程度的差異。為此提出了一種靈活數(shù)量判別部件學(xué)習(xí)模型,該模型可以針對(duì)不同行為類(lèi)學(xué)習(xí)靈活數(shù)量的判別部件。在該模型中定義了新的相似性約束,更加有利于判別部件檢測(cè)器的產(chǎn)生;同時(shí)運(yùn)用組稀疏規(guī)則化方法自動(dòng)保留每個(gè)行為類(lèi)別中判別力強(qiáng)的部件檢測(cè)器。實(shí)驗(yàn)結(jié)果表明了提出的判別部件學(xué)習(xí)模型的有效性,以及相應(yīng)的行為識(shí)別方法具有更優(yōu)的識(shí)別性能。
?、芴?/p>
7、出了一種基于時(shí)序行為低秩特征和字典學(xué)習(xí)的行為識(shí)別方法。為捕獲視頻序列中的時(shí)間信息,研究了時(shí)序行為低秩特征。首先將整個(gè)視頻序列按一定重疊率劃分為多個(gè)行為子序列,然后分別提取行為低秩特征,最終按時(shí)間順序?qū)⑵浯?lián)形成時(shí)序行為低秩特征。研究發(fā)現(xiàn)時(shí)序行為低秩特征更適合通過(guò)字典學(xué)習(xí)來(lái)進(jìn)行分類(lèi)。然而傳統(tǒng)的字典學(xué)習(xí)模型未考慮各樣本編碼系數(shù)的相似性約束問(wèn)題,同時(shí)難以很好處理非線性可分?jǐn)?shù)據(jù)。為此,提出了一種相似性約束的判別核字典學(xué)習(xí)模型。該字典學(xué)習(xí)模型中加
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 視頻監(jiān)控中人體步態(tài)識(shí)別方法研究.pdf
- 視頻人體行為識(shí)別方法研究.pdf
- 基于結(jié)構(gòu)化低秩表示的人體行為識(shí)別方法.pdf
- 超市中人體異常行為識(shí)別方法的研究.pdf
- 視頻數(shù)據(jù)中人體動(dòng)作識(shí)別方法研究.pdf
- 視頻中人體行為識(shí)別的研究.pdf
- 基于視頻流的人體行為識(shí)別方法研究.pdf
- 視頻中人體行為預(yù)測(cè)的方法研究.pdf
- 基于低秩表示的人臉識(shí)別方法研究.pdf
- 視頻中人體姿態(tài)估計(jì)、跟蹤與行為識(shí)別研究.pdf
- 視頻監(jiān)控中的人體異常行為識(shí)別方法研究.pdf
- 視頻序列中人體簡(jiǎn)單行為識(shí)別的關(guān)鍵技術(shù)研究.pdf
- 智能視頻監(jiān)控系統(tǒng)中人體行為識(shí)別研究.pdf
- 礦井視頻中人體行為檢測(cè)方法研究.pdf
- 智能視頻監(jiān)控中人體異常行為識(shí)別研究.pdf
- 視頻中人體行為識(shí)別若干問(wèn)題研究.pdf
- 視頻序列運(yùn)動(dòng)目標(biāo)檢測(cè)與識(shí)別方法研究.pdf
- 視頻序列中的人體行為識(shí)別.pdf
- 基于低秩分解的光照健壯人臉識(shí)別方法研究.pdf
- 基于視頻的人體動(dòng)作識(shí)別方法研究.pdf
評(píng)論
0/150
提交評(píng)論