版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、近年來,人臉識(shí)別在門禁中得到廣泛應(yīng)用。與此同時(shí),深度學(xué)習(xí)網(wǎng)絡(luò)在人臉識(shí)別技術(shù)上掀起了巨大的浪潮,其模型具有層次性且參數(shù)容量大,能將數(shù)據(jù)特征更好的展現(xiàn)出來。其中深度學(xué)習(xí)中CNN在圖像處理上具有空間位置的旋轉(zhuǎn)、平移和縮放的不變性,在人臉識(shí)別中可以避免圖像中人臉平移與其他形式的變形對(duì)識(shí)別的影響,發(fā)揮出良好的人臉識(shí)別效率,但CNN過擬合是當(dāng)前面臨的一個(gè)難題。本文圍繞門禁中正面人臉識(shí)別,利用Caffe深度學(xué)習(xí)框架對(duì)基于CNN神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)和識(shí)別
2、在有限樣本下如何解決網(wǎng)絡(luò)過擬合和提升識(shí)別率進(jìn)行研究,主要工作如下:
(1)針對(duì)人臉檢測(cè)二分類CNN過擬合問題,本文提出該網(wǎng)絡(luò)中網(wǎng)絡(luò)優(yōu)化模塊即全連接層改進(jìn)設(shè)計(jì)方法,將訓(xùn)練階段原Dropout隨機(jī)稀疏的方式改進(jìn)為按輸出值由大到小分為三個(gè)等級(jí)(前1/3,中間1/3和后1/3),并分別給三個(gè)等級(jí)設(shè)定不同的稀疏度(輸出值大的稀疏率低,輸出值小的稀疏率高),對(duì)該網(wǎng)絡(luò)測(cè)試階段的全連接層稀疏化處理。基于深度學(xué)習(xí)Caffe框架,本文利用改進(jìn)的二
3、分類網(wǎng)絡(luò)對(duì)人臉檢測(cè)進(jìn)行實(shí)現(xiàn),用GitHub中訓(xùn)練好的模型結(jié)合本文數(shù)據(jù)對(duì)網(wǎng)絡(luò)進(jìn)行微調(diào),并將訓(xùn)練好的二分類CNN進(jìn)行全卷積網(wǎng)絡(luò)轉(zhuǎn)換,最后運(yùn)用滑動(dòng)窗口檢測(cè)到人臉。
(2)本文利用改進(jìn)的Alexnet多分類CNN結(jié)構(gòu)進(jìn)行人臉識(shí)別。首先,對(duì)該網(wǎng)絡(luò)采用不同的激勵(lì)函數(shù),分析不同激勵(lì)函數(shù)對(duì)網(wǎng)絡(luò)性能的影響。接著,針對(duì)人臉識(shí)別Alexnet網(wǎng)絡(luò)參數(shù)多,容易導(dǎo)致網(wǎng)絡(luò)過擬合,影響人臉識(shí)別率的問題,對(duì)Alexnet網(wǎng)絡(luò)結(jié)構(gòu)改進(jìn)使網(wǎng)絡(luò)參數(shù)輕量化,提高識(shí)別
4、率。本文設(shè)計(jì)方案為:去掉網(wǎng)絡(luò)中參數(shù)量最大的一個(gè)全連接層,對(duì)原11×11卷積核大小的Conv1_1縱向拆分成7×7和5×5卷積核大小的兩層,對(duì)原5×5卷積核大小的Conv1_2層橫向拆分成1×1、3×3和5×5卷積核大小的三層。最后,基于Caffe本文利用改進(jìn)的Alexnet網(wǎng)絡(luò)對(duì)人臉識(shí)別進(jìn)行了實(shí)現(xiàn),將待識(shí)別的人臉圖片通過人眼對(duì)齊,并隨機(jī)切分成10個(gè)以不同坐標(biāo)起點(diǎn)的樣本圖片,利用訓(xùn)練的多分類CNN模型進(jìn)行識(shí)別。
(3)為了驗(yàn)證文
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于改進(jìn)LBP和AdaBoost的人臉識(shí)別技術(shù)研究.pdf
- 基于面部特征與改進(jìn)Gabor的人臉檢測(cè)與識(shí)別技術(shù)研究.pdf
- 基于Adaboost和LDP改進(jìn)算法的人臉檢測(cè)與識(shí)別研究.pdf
- 基于kinect的人臉識(shí)別技術(shù)研究.pdf
- 基于SVM的人臉識(shí)別技術(shù)研究.pdf
- 基于LDA的人臉識(shí)別技術(shù)研究.pdf
- 基于統(tǒng)計(jì)的人臉識(shí)別技術(shù)研究.pdf
- 基于Adaboost算法的人臉檢測(cè)與識(shí)別技術(shù)研究.pdf
- 基于彩色圖像的人臉檢測(cè)與識(shí)別技術(shù)研究.pdf
- 基于膚色的人臉識(shí)別技術(shù)研究.pdf
- 靜態(tài)圖像的人臉檢測(cè)與識(shí)別技術(shù)研究.pdf
- 基于膚色的人臉檢測(cè)以及人臉識(shí)別分類器改進(jìn).pdf
- 基于Adaboost的人臉檢測(cè)技術(shù)研究.pdf
- 人臉檢測(cè)和識(shí)別技術(shù)研究.pdf
- 基于Gabor變換的人臉識(shí)別技術(shù)研究.pdf
- 基于子空間的人臉識(shí)別技術(shù)研究.pdf
- 基于Android平臺(tái)的人臉識(shí)別技術(shù)研究.pdf
- 基于Contourlet變換的人臉識(shí)別技術(shù)研究.pdf
- 基于深度學(xué)習(xí)的人臉識(shí)別技術(shù)研究.pdf
- 基于相位譜的人臉識(shí)別技術(shù)研究.pdf
評(píng)論
0/150
提交評(píng)論