版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、準(zhǔn)確高效的身份識(shí)別和認(rèn)證技術(shù)被推到了重要的位置。身份識(shí)別逐漸成為人工智能和人機(jī)交互領(lǐng)域的一個(gè)重要研究方向,具有深遠(yuǎn)的理論意義和應(yīng)用前景,通過閱讀國(guó)內(nèi)外大量的文獻(xiàn)與資料,發(fā)現(xiàn)人臉識(shí)別作為身份識(shí)別中的一種且在人臉識(shí)別研究中鑒于單一模態(tài)人臉特征的局限性。提出融合語音和人臉圖像的雙模態(tài)身份識(shí)別方法,并進(jìn)行了較深入的研究。發(fā)現(xiàn)兩者可以取長(zhǎng)補(bǔ)短、有著互補(bǔ)的作用,實(shí)驗(yàn)證明,融合語音和人臉圖像的雙模態(tài)身份識(shí)別方法會(huì)有更好的識(shí)別性能。
針對(duì)融合
2、語音和圖像的雙模態(tài)身份識(shí)別研究,本文研究?jī)?nèi)容與創(chuàng)新點(diǎn)主要如下:
?。?)自建語音和人臉數(shù)據(jù)庫,為保證語音識(shí)別過程中隨著被測(cè)試人的情感變化增加識(shí)別的穩(wěn)定性,語音庫選用采集情感語音數(shù)據(jù)庫,獲取同一個(gè)人其中立、高興、驚奇、悲傷、憤怒五種情感狀態(tài)下的發(fā)音。人臉庫采集盡可能多的選取圖像預(yù)處理后表情豐富、多方向、不同距離等有代表性的JPG格式圖片。
(2)語音識(shí)別方面采用提取音頻的MFCC特征,選取隱馬爾可夫模型(HMM)分類器進(jìn)
3、行語音識(shí)別,經(jīng)實(shí)驗(yàn)選取60維的MFCC特征識(shí)別率達(dá)到最高為75.3%,為了進(jìn)一步提高語音識(shí)別率,提出一種63維特征的語音識(shí)別方法,即在此基礎(chǔ)上提出將取對(duì)數(shù)后的 MFCC、平均短時(shí)能量、平均過0率(ZCR)標(biāo)準(zhǔn)差、共振峰四個(gè)語音特征進(jìn)行特征融合組成63維的語音特征向量,用同種分類方法得出識(shí)別率達(dá)到82.6%。比之前的只提取單模態(tài)情形下的MFCC特征參數(shù)識(shí)別率高出了7.3%。
?。?)在LBP算子的基礎(chǔ)上進(jìn)行改進(jìn),提出了一種W-LB
4、P算法強(qiáng)化面部特征。并采用Adaboost算法進(jìn)行人臉檢測(cè)與定位。實(shí)驗(yàn)表明,W-LBP算法較好的二值化能夠使得接下來的人臉定位更加準(zhǔn)確。
?。?)人臉識(shí)別中為了彌補(bǔ)PCA方法對(duì)樣本圖像進(jìn)行降維后會(huì)保留那些表情、姿勢(shì)和光照等干擾信息和 LDA方法很難解決類間離散度矩陣的定義問題和小樣本問題,這里選用 PCA+LDA融合算法實(shí)現(xiàn)人臉識(shí)別,經(jīng)實(shí)驗(yàn)取特征臉子空間維數(shù)Z=80時(shí)識(shí)別率最高,識(shí)別率為89.1%。
?。?)進(jìn)行融合語音
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 融合人臉表情和語音的雙模態(tài)情感識(shí)別研究.pdf
- 基于表情和語音雙模態(tài)的兒童情感識(shí)別研究.pdf
- 基于發(fā)育網(wǎng)絡(luò)的語音圖像雙模態(tài)共發(fā)育系統(tǒng)研究.pdf
- 基于指紋與姓名語音的多模態(tài)生物特征融合身份識(shí)別技術(shù)的研究.pdf
- 雙模態(tài)語音識(shí)別的視頻特征快速提取方法研究.pdf
- 雙模態(tài)醫(yī)學(xué)圖像融合算法及實(shí)現(xiàn).pdf
- 基于人臉和語音融合的身份辨別研究.pdf
- 基于指靜脈和指腹紋的多模態(tài)融合身份識(shí)別研究.pdf
- 人耳及人臉融合的多模態(tài)身份識(shí)別.pdf
- 基于姿態(tài)和表情的雙模態(tài)情感識(shí)別方法研究.pdf
- 基于姿態(tài)和表情的雙模態(tài)情感識(shí)別方法研究
- 雙模態(tài)漢語情感語音合成的研究.pdf
- 基于AdaBoost融合雙模態(tài)視頻指紋方案研究.pdf
- 基于匹配融合的指紋與指靜脈雙模態(tài)生物識(shí)別技術(shù)的研究.pdf
- 基于面部表情和生理信號(hào)的雙模態(tài)情感識(shí)別研究.pdf
- 基于人臉與語音信息融合的身份識(shí)別技術(shù)研究.pdf
- 基于深度學(xué)習(xí)的雙模態(tài)生物特征識(shí)別研究.pdf
- 基于指紋與手指靜脈的雙模態(tài)識(shí)別算法研究.pdf
- 基于音頻和視頻特征融合的身份識(shí)別.pdf
- 雙模態(tài)特征融合的踝關(guān)節(jié)主動(dòng)動(dòng)作模式識(shí)別.pdf
評(píng)論
0/150
提交評(píng)論