版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、基于當(dāng)今時(shí)代維護(hù)社會(huì)安全的迫切需要,國(guó)內(nèi)外學(xué)者對(duì)視頻監(jiān)控技術(shù)的研究廣泛興起。一般,基于人力的視頻監(jiān)控過(guò)程需要觀察者的連續(xù)監(jiān)控,由于信息的稀疏性以及人類難以長(zhǎng)時(shí)間保持注意力集中,在視頻監(jiān)控工作中,人類觀察者在觀察中可能會(huì)多次錯(cuò)過(guò)導(dǎo)致各種安全問(wèn)題的重要事件。因此,視頻監(jiān)控技術(shù)正在朝視頻分析的方向發(fā)展,即應(yīng)用計(jì)算機(jī)對(duì)視頻流進(jìn)行自動(dòng)分析。使用視頻分析技術(shù)自動(dòng)分析行人行為是當(dāng)前重要研究方向。本研究對(duì)此進(jìn)行了相關(guān)調(diào)研,并在此基礎(chǔ)上,提出在監(jiān)控系統(tǒng)中
2、利用深度學(xué)習(xí)技術(shù)自動(dòng)識(shí)別行人屬性的行為分析解決方案。本研究提出了五個(gè)重要行人屬性,并基于該屬性自動(dòng)描述人類行為。這些屬性包括(a)行人的全身朝向(行人移動(dòng)方向),(b)行人的注意力方向/頭部姿態(tài)估計(jì)(行人觀察方向),(c)攝像機(jī)視野(FOV)中行人的距離和尺寸(高度和寬度),(d)行人存在的識(shí)別,以及(e)行人的性別識(shí)別(男性或女性)。
(1)行人行動(dòng)方向和意圖預(yù)測(cè)。預(yù)測(cè)行人的行動(dòng)方向和意圖已經(jīng)成為人類行動(dòng)認(rèn)知的主要應(yīng)用之一。
3、在移動(dòng)過(guò)程中,行人具有多種可能的視覺(jué)注意方向。應(yīng)用計(jì)算機(jī)視覺(jué)對(duì)行人的行動(dòng)方向和意圖進(jìn)行預(yù)測(cè)是對(duì)行人的行為研究的主要手段。本文提出利用深度學(xué)習(xí)方法對(duì)行人頭部姿態(tài)和全身方向進(jìn)行估計(jì)?;趦蓚€(gè)擁有八方向視角的數(shù)據(jù)集分別訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型,實(shí)現(xiàn)方向預(yù)測(cè)。本研究在現(xiàn)有數(shù)據(jù)集和各種場(chǎng)景下實(shí)際拍攝的視頻序列數(shù)據(jù)集上進(jìn)行測(cè)試實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,本文所提出的方法成功估計(jì)了各種環(huán)境中的行人頭部姿態(tài)和身體視角。
(2)行人分類?;谟?jì)算機(jī)視覺(jué)的行
4、人分類已經(jīng)成為多年來(lái)的熱點(diǎn)問(wèn)題。行人識(shí)別方法主要分為基于傳統(tǒng)方法的行人分類方法和基于神經(jīng)網(wǎng)絡(luò)的行人分類方法。本研究利用堆棧式稀疏自動(dòng)編碼器提取包含行人對(duì)象的特征,通過(guò)圖流形排序方法借助SLIC超像素迭代生成包含行人圖像的突出特征地圖,然后輸入到堆棧式稀疏自動(dòng)編碼器。最后,將利用堆棧式自動(dòng)編碼器得到重建的數(shù)據(jù)傳遞到Softmax分類器中進(jìn)行分類。
(3)行人尺度度量。在許多情況下,需要在實(shí)時(shí)環(huán)境中對(duì)攝像機(jī)中的行人進(jìn)行距離和尺寸計(jì)
5、算。高效、方便的非接觸距離估計(jì)方法是行人尺度估計(jì)的主要方法。本研究提出基于數(shù)學(xué)變換的單目攝像機(jī)視野內(nèi)的行人對(duì)象距離和尺度度量方法。在估測(cè)之前,根據(jù)環(huán)境采用單次拍攝學(xué)習(xí)來(lái)調(diào)整攝像機(jī)。對(duì)于單次拍攝學(xué)習(xí),首先將L形標(biāo)記放置在最小距離處,之后再放在距攝像機(jī)一般遠(yuǎn)的距離處。在兩個(gè)放置處計(jì)算標(biāo)記的角點(diǎn),并通過(guò)線性方程估測(cè)對(duì)象放置處的每個(gè)像素長(zhǎng)度。再通過(guò)基于平均濾波器的背景減除策略獲得前景運(yùn)動(dòng)對(duì)象,然后利用基于卷積神經(jīng)網(wǎng)絡(luò)的分類器將其預(yù)測(cè)為行人和非行
6、人。最后,借助在單次學(xué)習(xí)步驟中讀取的數(shù)據(jù)估測(cè)行人的距離和尺寸。
(4)行人性別預(yù)測(cè)。行人的性別是一個(gè)軟屬性,在計(jì)算機(jī)視覺(jué)的許多領(lǐng)域具有較普遍的應(yīng)用價(jià)值。目前,行人性別預(yù)測(cè)在計(jì)算機(jī)視覺(jué)中面臨巨大挑戰(zhàn)。本研究提出了基于深度學(xué)習(xí)的行人性別分類方法。在預(yù)處理階段,通過(guò)現(xiàn)有的深層分解神經(jīng)網(wǎng)絡(luò)方法對(duì)行人進(jìn)行解析,將該網(wǎng)絡(luò)的輸出二進(jìn)制掩碼應(yīng)用于圖像中,將其映射為行人全身圖像。最后將其傳遞到帶softmax分類器的堆棧式自動(dòng)編碼器中進(jìn)行分類。
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于核的學(xué)習(xí)方法及其在人臉識(shí)別中的應(yīng)用研究.pdf
- 人臉識(shí)別中的深度特征學(xué)習(xí)方法研究.pdf
- 語(yǔ)種識(shí)別深度學(xué)習(xí)方法研究.pdf
- 車號(hào)自動(dòng)識(shí)別系統(tǒng)在CIPS中的應(yīng)用.pdf
- 深度學(xué)習(xí)方法在商標(biāo)檢索管理中的應(yīng)用研究.pdf
- 基于深度學(xué)習(xí)方法的人體微動(dòng)特征識(shí)別.pdf
- 基于深度屬性學(xué)習(xí)的交通標(biāo)志識(shí)別方法研究.pdf
- 集成學(xué)習(xí)方法在指紋識(shí)別中的應(yīng)用研究.pdf
- 基于深度學(xué)習(xí)的行人檢測(cè)方法研究.pdf
- 介詞用法自動(dòng)識(shí)別及其在信息抽取中的應(yīng)用研究.pdf
- 虛詞用法自動(dòng)識(shí)別及其在依存句法分析中的應(yīng)用研究.pdf
- 車牌自動(dòng)識(shí)別系統(tǒng)在高速公路中的應(yīng)用.pdf
- 基于深度學(xué)習(xí)的車輛檢測(cè)及其屬性分析的研究.pdf
- 基于度量學(xué)習(xí)和深度學(xué)習(xí)的行人重識(shí)別研究.pdf
- 車牌自動(dòng)識(shí)別系統(tǒng)的研究及其在VC++中的實(shí)現(xiàn).pdf
- 粒遷移學(xué)習(xí)方法及其在序列標(biāo)注中的應(yīng)用.pdf
- 流形學(xué)習(xí)方法在模式識(shí)別中的應(yīng)用研究.pdf
- 基于深度學(xué)習(xí)的行人再識(shí)別技術(shù)研究.pdf
- 基于分層深度學(xué)習(xí)的行人分類方法研究.pdf
- 機(jī)器學(xué)習(xí)方法在銀行現(xiàn)金預(yù)測(cè)系統(tǒng)中的應(yīng)用.pdf
評(píng)論
0/150
提交評(píng)論