版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、語音信號(hào)是人類情感交流和認(rèn)知分享的重要載體,也是人類最基本和最自然的交流方式。說話人識(shí)別是研究如何從語音波紋中提取能表征語者個(gè)性化特征的信息,進(jìn)而利用該個(gè)性化信息通過建模方式對(duì)語者的身份做出判決的技術(shù)。高斯混合模型憑借其出色的性能而被廣泛地應(yīng)用于說話人識(shí)別領(lǐng)域。為了解決測(cè)試環(huán)境與訓(xùn)練環(huán)境失配的問題,主流模型通常會(huì)引入一個(gè)非目標(biāo)人模型,非目標(biāo)說話人模型包括通用背景模型和競(jìng)爭(zhēng)模型,引入通用背景模型后構(gòu)成GMM-UBM系統(tǒng)。針對(duì)個(gè)人GMM與U
2、BM音素空間不匹配的問題,Reynolds提出基于最大后驗(yàn)概率升級(jí)的UBM-MAP-GMM系統(tǒng)。與此同時(shí),隨著基于聲道信息的淺層特征參數(shù)的提取逐漸進(jìn)入了瓶頸期,學(xué)者們將注意力轉(zhuǎn)向了高層信息融合的新特征,如基于聲門信息的韻律特征。除此之外,針對(duì)通道失配等補(bǔ)償技術(shù)被不斷地提出,其中JFA和i-vector憑借其夯實(shí)的理論基礎(chǔ)而備受青睞,其將低維語音信號(hào)映射至高維超矢量空間后進(jìn)行分析。
基于上述分析,本論文主要研究以下內(nèi)容:
3、 1、針對(duì)UBM-MAP-GMM系統(tǒng)中部分高斯分量具有低區(qū)分性甚至拉低系統(tǒng)得分,提出了一種基于篩選高斯分量的確認(rèn)方法。通常認(rèn)為GMM中各高斯分量代表空間音素類,而UBM代表普遍的聲學(xué)信息類。通過UBM自適應(yīng)得到的個(gè)人GMM中不僅具有語者個(gè)性化的信息,也包含了在訓(xùn)練階段完全不存在的非說話人信息。另外值得考慮的是,用于訓(xùn)練個(gè)人GMM的語音受限于時(shí)長(zhǎng)和文本內(nèi)容等,導(dǎo)致部分音素類信息不足,進(jìn)而導(dǎo)致對(duì)部分音素類信息的建模出現(xiàn)偏差。體現(xiàn)在自適應(yīng)后
4、的個(gè)人GMM中就是有些高斯分量無法準(zhǔn)確地描述語者信息,即具有低區(qū)分性。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的系統(tǒng)識(shí)別性能得到改善。
2、針對(duì)基于淺層聲道特性的特征參數(shù)對(duì)識(shí)別性能的提升乏力,提出了一種基于高層信息融合的確認(rèn)方法,該方法巧妙地將淺層短時(shí)特征參數(shù)和高層信息通過二次判決機(jī)制融合在了同一框架中。理論上,反映聲道特性的短時(shí)特征參數(shù)與反映聲門信息的韻律特征參數(shù)從不同角度刻畫了語者,故具有互補(bǔ)進(jìn)而提升系統(tǒng)性能的能力。實(shí)驗(yàn)結(jié)果表明,結(jié)合基頻和共
5、振峰等高層信息的文本依賴的確認(rèn)系統(tǒng)能有效地降低等錯(cuò)誤率。
3、針對(duì)降維后特定主成分中蘊(yùn)含說話人個(gè)性化信息,提出一種基于降維超矢量的說話人確認(rèn)算法。由最大后驗(yàn)概率算法得到的個(gè)人GMM的高斯超矢量,經(jīng)過特征降維處理后發(fā)現(xiàn)前兩維主成分中蘊(yùn)含的性別信息明顯,而前特定維主成分中則蘊(yùn)含的語者個(gè)性化信息明顯。基于前者,首先提出一種性別選擇策略和GMM-SUBM架構(gòu)?;诤笳?,本文通過實(shí)驗(yàn)確定用于表征測(cè)試者身份的最佳維度。實(shí)驗(yàn)結(jié)果表明,該方法
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于說話人轉(zhuǎn)換的語音識(shí)別方法.pdf
- 基于稀疏表示的短語音說話人識(shí)別.pdf
- 基于深度學(xué)習(xí)的短語音說話人識(shí)別研究.pdf
- 電子偽裝語音下的說話人識(shí)別方法研究.pdf
- 基于Fisher準(zhǔn)則和數(shù)據(jù)融合的說話人識(shí)別方法研究.pdf
- 基于短語音和信道變化的說話人識(shí)別研究.pdf
- 融合AP和GMM的說話人識(shí)別方法研究.pdf
- 說話人識(shí)別方法的研究.pdf
- 基于含噪短語音的魯棒說話人識(shí)別研究.pdf
- 面向短語音的說話人識(shí)別研究與實(shí)現(xiàn).pdf
- 基于多信息融合的說話人識(shí)別.pdf
- 基于PLDA模型的說話人識(shí)別方法研究.pdf
- 基于小波變換的說話人識(shí)別方法研究.pdf
- 基于特征融合的語音情感識(shí)別方法的研究.pdf
- 基于模型聚類的說話人識(shí)別方法研究.pdf
- 基于倒譜特征的說話人識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)的說話人識(shí)別方法的研究.pdf
- 基于多層條件隨機(jī)場(chǎng)的短語音語義識(shí)別方法.pdf
- 基于GMM和SVM的說話人識(shí)別方法研究.pdf
- 基于VQ-HMM的說話人識(shí)別方法研究.pdf
評(píng)論
0/150
提交評(píng)論