版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、視頻監(jiān)控網(wǎng)絡(luò)的快速發(fā)展所帶來(lái)的海量視頻給傳統(tǒng)人工視頻監(jiān)控分析方法帶來(lái)了巨大的挑戰(zhàn),基于行人重識(shí)別的智能視頻分析方法成為計(jì)算機(jī)視覺研究領(lǐng)域中的重點(diǎn)和熱點(diǎn)。行人重識(shí)別(Person Re-Identification)是指在非重疊視角域多攝像頭網(wǎng)絡(luò)下進(jìn)行的行人圖像匹配,即確認(rèn)不同位置的攝像頭在不同的時(shí)刻拍攝到的行人目標(biāo)是否為同一人。目前行人重識(shí)別的研究算法可以分為兩大類:基于特征表示方法和基于模型學(xué)習(xí)的方法?;谔卣鞅硎镜姆椒ㄍㄟ^設(shè)計(jì)一些描
2、述子來(lái)提取行人圖像中具有區(qū)分性和穩(wěn)定性的特征,而不是從數(shù)據(jù)中自動(dòng)學(xué)習(xí)特征。而模型學(xué)習(xí)的方法中,基于特征變換學(xué)習(xí)的方法計(jì)算復(fù)雜度高且受光照和攝像機(jī)參數(shù)的影響很大,基于距離度量學(xué)習(xí)的方法對(duì)具有復(fù)雜分布的異構(gòu)數(shù)據(jù)的魯棒性不強(qiáng)。為此,本文將采用改進(jìn)方法提取圖像顏色空間特征和對(duì)復(fù)雜分布的異構(gòu)數(shù)據(jù)具有較強(qiáng)魯棒性的自適應(yīng)伸縮擴(kuò)張距離度量學(xué)習(xí)算法相結(jié)合,構(gòu)建基于HSV特征和自適應(yīng)距離度量學(xué)習(xí)的行人重識(shí)別系統(tǒng)。本文又采用深度學(xué)習(xí)方法對(duì)行人重識(shí)別進(jìn)行研究,
3、通過深層卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)提取特征來(lái)表征行人圖像,構(gòu)建基于深度學(xué)習(xí)的行人重識(shí)別系統(tǒng)。本文的具體研究?jī)?nèi)容如下:
?、倩趫D像的顏色空間特性,通過分塊分別提取行人圖像的 HSV子特征,然后進(jìn)行特征融合,構(gòu)建表征行人圖像的特征向量。介紹了一種自適應(yīng)收縮擴(kuò)張的距離度量學(xué)習(xí)方法,將兩者相結(jié)合形成基于距離度量學(xué)習(xí)的行人重識(shí)別系統(tǒng)。
HSV顏色空間符合人類對(duì)顏色的感官認(rèn)知,其特征分布不會(huì)隨著圖片中目標(biāo)的形變、旋轉(zhuǎn)、平移的改變而發(fā)生改變
4、。本文將 HSV特征與改進(jìn)的 M-SEAML(Manhattan Distance-Shrinkage Expansion Adaptive Metric Learning)算法相結(jié)合,構(gòu)建出基于 HSV特征和自適應(yīng)距離度量學(xué)習(xí)的行人重識(shí)別系統(tǒng)。本文的方法在VIPeR[3]數(shù)據(jù)庫(kù)下的實(shí)驗(yàn)結(jié)果Rank1=19.9367%。
?、诨谏疃葘W(xué)習(xí)的行人重識(shí)別研究,通過微調(diào)訓(xùn)練獲得深度卷積神經(jīng)網(wǎng)絡(luò)模型,采用該模型進(jìn)行特征提取,結(jié)合分類器進(jìn)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于度量學(xué)習(xí)的行人再識(shí)別研究.pdf
- 基于深度學(xué)習(xí)的行人再識(shí)別技術(shù)研究.pdf
- 基于深度學(xué)習(xí)的行人檢測(cè).pdf
- 基于深度學(xué)習(xí)的行人檢測(cè)方法研究.pdf
- 基于深度學(xué)習(xí)和遷移學(xué)習(xí)的環(huán)境聲音識(shí)別.pdf
- 基于分層深度學(xué)習(xí)的行人分類方法研究.pdf
- 基于深度學(xué)習(xí)的場(chǎng)景識(shí)別研究.pdf
- 基于深度學(xué)習(xí)的氣體識(shí)別研究.pdf
- 基于深度學(xué)習(xí)的動(dòng)作識(shí)別研究.pdf
- 基于規(guī)整平滑交叉視角最大間距度量學(xué)習(xí)的行人再識(shí)別研究.pdf
- 基于深度學(xué)習(xí)和稀疏表示的手勢(shì)識(shí)別研究.pdf
- 基于深度學(xué)習(xí)和遷移學(xué)習(xí)的語(yǔ)音情感識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)的Logo識(shí)別研究.pdf
- 基于深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)的車輛定位與識(shí)別.pdf
- 基于深度學(xué)習(xí)的攝像機(jī)網(wǎng)絡(luò)中行人識(shí)別研究與系統(tǒng)實(shí)現(xiàn).pdf
- 基于深度學(xué)習(xí)的大規(guī)模行人統(tǒng)計(jì)方法研究.pdf
- 基于深度學(xué)習(xí)的維語(yǔ)語(yǔ)音識(shí)別研究.pdf
- 基于深度學(xué)習(xí)的說話人識(shí)別研究.pdf
- 基于子空間學(xué)習(xí)的行人再識(shí)別研究.pdf
- 基于深度學(xué)習(xí)的攝像機(jī)網(wǎng)絡(luò)行人識(shí)別系統(tǒng)研究與實(shí)現(xiàn).pdf
評(píng)論
0/150
提交評(píng)論