版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、行人檢測(cè)技術(shù)由于應(yīng)用的廣泛性使其在計(jì)算機(jī)視覺(jué)領(lǐng)域成為一個(gè)重要分支,對(duì)視頻監(jiān)控、車(chē)輛輔助駕駛、智能機(jī)器人等多個(gè)領(lǐng)域提供了重要的技術(shù)支持。比如視頻監(jiān)控中關(guān)注的主要是行人的運(yùn)動(dòng)軌跡和行為,要實(shí)現(xiàn)對(duì)行人跟蹤和行為分析首先要做的就是檢測(cè)出視頻中的行人。然而現(xiàn)實(shí)生活中由于行人在衣著上的多樣性、形態(tài)變化的多樣性、所處背景的多樣性、光照強(qiáng)弱的多樣性、行人之間相互遮擋使得行人檢測(cè)存在著諸多需要解決的問(wèn)題。
如何設(shè)計(jì)一個(gè)與其他類(lèi)別之間差異大,行人
2、之間的類(lèi)內(nèi)差異小并且不受光照等多樣性因素影響的特征,以及如何訓(xùn)練一個(gè)區(qū)分力強(qiáng)的分類(lèi)器是行人檢測(cè)領(lǐng)域的研究重點(diǎn)。2005年梯度方向直方圖(HOG特征)的提出是這個(gè)領(lǐng)域一個(gè)重要的突破,此后大多數(shù)行人檢測(cè)特征都是基于梯度方向直方圖特征進(jìn)行改進(jìn)的。一般來(lái)說(shuō)專(zhuān)家設(shè)計(jì)優(yōu)秀的特征即使對(duì)于有扎實(shí)專(zhuān)業(yè)基礎(chǔ)知識(shí)的研究人員也是很困難的,深度學(xué)習(xí)算法能很好地解決這個(gè)難題,它能自動(dòng)地結(jié)合不同的分類(lèi)任務(wù)從數(shù)據(jù)中學(xué)習(xí)并提取特征。近幾年來(lái),深度學(xué)習(xí)在大規(guī)模圖像分類(lèi)方面
3、取得的了重大突破,表明深度學(xué)習(xí)可以從多媒體內(nèi)容中提取具有很強(qiáng)表達(dá)能力的特征,從而有效地解決語(yǔ)義鴻溝的問(wèn)題。
本文在對(duì)行人檢測(cè)和深度學(xué)習(xí)相關(guān)技術(shù)進(jìn)行充分調(diào)研的基礎(chǔ)上,總結(jié)了行人檢測(cè)主要難點(diǎn)和現(xiàn)有方法存在的問(wèn)題,重點(diǎn)研究了基于深度學(xué)習(xí)的行人檢測(cè)方法,取得的主要研究成果如下。
(1)針對(duì)傳統(tǒng)行人檢測(cè)需要專(zhuān)家設(shè)計(jì)特征以及特征存在的魯棒性不強(qiáng)的問(wèn)題,本文結(jié)合深度學(xué)習(xí)方法進(jìn)行行人檢測(cè),該方法能夠利用深度卷積神經(jīng)網(wǎng)絡(luò)框架自動(dòng)的從行
4、人數(shù)據(jù)庫(kù)中學(xué)習(xí)行人的特征。但是通常深度學(xué)習(xí)網(wǎng)絡(luò)的層次較深,需要學(xué)習(xí)參數(shù)非常多,只有在訓(xùn)練樣本充足時(shí)才能有效地避免網(wǎng)絡(luò)訓(xùn)練過(guò)擬合。對(duì)此本文采用基于內(nèi)容的圖像檢索方法進(jìn)行數(shù)據(jù)擴(kuò)充,該方法在進(jìn)行數(shù)據(jù)庫(kù)擴(kuò)充時(shí)充分考慮到原數(shù)據(jù)庫(kù)的行人分辨率,背景分布等因素,使擴(kuò)充后的數(shù)據(jù)庫(kù)仍然保持INRIA數(shù)據(jù)庫(kù)原有的數(shù)據(jù)分布,從而有利于訓(xùn)練對(duì)INIRIA數(shù)據(jù)庫(kù)檢測(cè)效果更佳的深度學(xué)習(xí)網(wǎng)絡(luò)。
(2)針對(duì)行人檢測(cè)窗口選擇過(guò)程中使用滑動(dòng)窗口產(chǎn)生冗余窗口較多且
5、質(zhì)量不高的問(wèn)題,本文提出了一種多策略窗口選擇的方法,該方法先利用選擇性搜索算法提取質(zhì)量高的預(yù)選區(qū)域,然后結(jié)合圖像中行人特性和二值規(guī)范化梯度算法對(duì)預(yù)選區(qū)域進(jìn)行過(guò)濾去除大量冗余窗口。最終產(chǎn)生了數(shù)目少、質(zhì)量高的窗口,為后續(xù)的特征提取及分類(lèi)提供了很好的保障。
(3)基于上述研究,本文設(shè)計(jì)了一套基于深度學(xué)習(xí)的行人檢測(cè)系統(tǒng),利用這套系統(tǒng)我們完成了通過(guò)多組對(duì)比實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明:利用基于內(nèi)容的圖像檢索方法進(jìn)行數(shù)據(jù)擴(kuò)充后訓(xùn)練的基于深度學(xué)習(xí)的行
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于深度學(xué)習(xí)的行人檢測(cè)方法研究.pdf
- 基于深度學(xué)習(xí)的特定場(chǎng)景下的行人檢測(cè)方法研究.pdf
- 基于深度學(xué)習(xí)的視頻預(yù)測(cè)及視頻行人檢測(cè)方法研究.pdf
- 基于深度回歸的視頻監(jiān)控行人檢測(cè).pdf
- 基于分層深度學(xué)習(xí)的行人分類(lèi)方法研究.pdf
- 基于機(jī)器學(xué)習(xí)的行人檢測(cè).pdf
- 基于度量學(xué)習(xí)和深度學(xué)習(xí)的行人重識(shí)別研究.pdf
- 基于深度學(xué)習(xí)網(wǎng)絡(luò)的多光譜行人檢測(cè)與分割方法研究.pdf
- 基于深度卷積特征融合的多尺度行人檢測(cè).pdf
- 基于深度學(xué)習(xí)的大規(guī)模行人統(tǒng)計(jì)方法研究.pdf
- 基于彩色及深度圖像的行人檢測(cè)研究.pdf
- 基于深度學(xué)習(xí)的行人再識(shí)別技術(shù)研究.pdf
- 基于深度學(xué)習(xí)的入侵檢測(cè).pdf
- 基于統(tǒng)計(jì)學(xué)習(xí)的行人檢測(cè)研究.pdf
- 基于遷移學(xué)習(xí)的行人檢測(cè)方法研究.pdf
- 基于深度學(xué)習(xí)的目標(biāo)檢測(cè)研究.pdf
- 基于深度學(xué)習(xí)的重復(fù)視頻檢測(cè).pdf
- 基于深度神經(jīng)網(wǎng)絡(luò)的實(shí)時(shí)視頻下行人檢測(cè).pdf
- 基于機(jī)器學(xué)習(xí)的行人檢測(cè)算法研究.pdf
- 基于深度學(xué)習(xí)的睡眠紡錘波檢測(cè).pdf
評(píng)論
0/150
提交評(píng)論