2023年全國(guó)碩士研究生考試考研英語(yǔ)一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩147頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、基于當(dāng)今時(shí)代維護(hù)社會(huì)安全的迫切需要,國(guó)內(nèi)外學(xué)者對(duì)視頻監(jiān)控技術(shù)的研究廣泛興起。一般,基于人力的視頻監(jiān)控過(guò)程需要觀察者的連續(xù)監(jiān)控,由于信息的稀疏性以及人類難以長(zhǎng)時(shí)間保持注意力集中,在視頻監(jiān)控工作中,人類觀察者在觀察中可能會(huì)多次錯(cuò)過(guò)導(dǎo)致各種安全問(wèn)題的重要事件。因此,視頻監(jiān)控技術(shù)正在朝視頻分析的方向發(fā)展,即應(yīng)用計(jì)算機(jī)對(duì)視頻流進(jìn)行自動(dòng)分析。使用視頻分析技術(shù)自動(dòng)分析行人行為是當(dāng)前重要研究方向。本研究對(duì)此進(jìn)行了相關(guān)調(diào)研,并在此基礎(chǔ)上,提出在監(jiān)控系統(tǒng)中

2、利用深度學(xué)習(xí)技術(shù)自動(dòng)識(shí)別行人屬性的行為分析解決方案。本研究提出了五個(gè)重要行人屬性,并基于該屬性自動(dòng)描述人類行為。這些屬性包括(a)行人的全身朝向(行人移動(dòng)方向),(b)行人的注意力方向/頭部姿態(tài)估計(jì)(行人觀察方向),(c)攝像機(jī)視野(FOV)中行人的距離和尺寸(高度和寬度),(d)行人存在的識(shí)別,以及(e)行人的性別識(shí)別(男性或女性)。
  (1)行人行動(dòng)方向和意圖預(yù)測(cè)。預(yù)測(cè)行人的行動(dòng)方向和意圖已經(jīng)成為人類行動(dòng)認(rèn)知的主要應(yīng)用之一。

3、在移動(dòng)過(guò)程中,行人具有多種可能的視覺(jué)注意方向。應(yīng)用計(jì)算機(jī)視覺(jué)對(duì)行人的行動(dòng)方向和意圖進(jìn)行預(yù)測(cè)是對(duì)行人的行為研究的主要手段。本文提出利用深度學(xué)習(xí)方法對(duì)行人頭部姿態(tài)和全身方向進(jìn)行估計(jì)?;趦蓚€(gè)擁有八方向視角的數(shù)據(jù)集分別訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型,實(shí)現(xiàn)方向預(yù)測(cè)。本研究在現(xiàn)有數(shù)據(jù)集和各種場(chǎng)景下實(shí)際拍攝的視頻序列數(shù)據(jù)集上進(jìn)行測(cè)試實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,本文所提出的方法成功估計(jì)了各種環(huán)境中的行人頭部姿態(tài)和身體視角。
  (2)行人分類?;谟?jì)算機(jī)視覺(jué)的行

4、人分類已經(jīng)成為多年來(lái)的熱點(diǎn)問(wèn)題。行人識(shí)別方法主要分為基于傳統(tǒng)方法的行人分類方法和基于神經(jīng)網(wǎng)絡(luò)的行人分類方法。本研究利用堆棧式稀疏自動(dòng)編碼器提取包含行人對(duì)象的特征,通過(guò)圖流形排序方法借助SLIC超像素迭代生成包含行人圖像的突出特征地圖,然后輸入到堆棧式稀疏自動(dòng)編碼器。最后,將利用堆棧式自動(dòng)編碼器得到重建的數(shù)據(jù)傳遞到Softmax分類器中進(jìn)行分類。
  (3)行人尺度度量。在許多情況下,需要在實(shí)時(shí)環(huán)境中對(duì)攝像機(jī)中的行人進(jìn)行距離和尺寸計(jì)

5、算。高效、方便的非接觸距離估計(jì)方法是行人尺度估計(jì)的主要方法。本研究提出基于數(shù)學(xué)變換的單目攝像機(jī)視野內(nèi)的行人對(duì)象距離和尺度度量方法。在估測(cè)之前,根據(jù)環(huán)境采用單次拍攝學(xué)習(xí)來(lái)調(diào)整攝像機(jī)。對(duì)于單次拍攝學(xué)習(xí),首先將L形標(biāo)記放置在最小距離處,之后再放在距攝像機(jī)一般遠(yuǎn)的距離處。在兩個(gè)放置處計(jì)算標(biāo)記的角點(diǎn),并通過(guò)線性方程估測(cè)對(duì)象放置處的每個(gè)像素長(zhǎng)度。再通過(guò)基于平均濾波器的背景減除策略獲得前景運(yùn)動(dòng)對(duì)象,然后利用基于卷積神經(jīng)網(wǎng)絡(luò)的分類器將其預(yù)測(cè)為行人和非行

6、人。最后,借助在單次學(xué)習(xí)步驟中讀取的數(shù)據(jù)估測(cè)行人的距離和尺寸。
  (4)行人性別預(yù)測(cè)。行人的性別是一個(gè)軟屬性,在計(jì)算機(jī)視覺(jué)的許多領(lǐng)域具有較普遍的應(yīng)用價(jià)值。目前,行人性別預(yù)測(cè)在計(jì)算機(jī)視覺(jué)中面臨巨大挑戰(zhàn)。本研究提出了基于深度學(xué)習(xí)的行人性別分類方法。在預(yù)處理階段,通過(guò)現(xiàn)有的深層分解神經(jīng)網(wǎng)絡(luò)方法對(duì)行人進(jìn)行解析,將該網(wǎng)絡(luò)的輸出二進(jìn)制掩碼應(yīng)用于圖像中,將其映射為行人全身圖像。最后將其傳遞到帶softmax分類器的堆棧式自動(dòng)編碼器中進(jìn)行分類。

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論