2023年全國(guó)碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩122頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、說話人識(shí)別又稱聲紋識(shí)別,是一種通過語音確定說話人身份的技術(shù)。由于使用語音具有采集方便、成本低廉等優(yōu)點(diǎn),說話人識(shí)別被廣泛用于生物認(rèn)證、安全監(jiān)控、軍事偵查和金融交互等領(lǐng)域,具有廣闊的應(yīng)用前景。數(shù)十年來,世界各國(guó)的研究機(jī)構(gòu)和公司企業(yè)紛紛投入大量人力物力展開研究,有力地推動(dòng)了說話人識(shí)別技術(shù)的發(fā)展。目前說話人識(shí)別技術(shù)已逐步從實(shí)驗(yàn)室走向應(yīng)用,而現(xiàn)實(shí)環(huán)境的復(fù)雜性對(duì)說話人識(shí)別提出了更高的要求,包括魯棒性、實(shí)時(shí)性、識(shí)別率和穩(wěn)定性等。這就要求在說話人識(shí)別關(guān)

2、鍵環(huán)節(jié)上有所突破,尤其是語音活動(dòng)檢測(cè)、特征提取,以及說話人模型的構(gòu)建等方面。
  目前的說話人識(shí)別技術(shù)在干凈語音環(huán)境下有理想的識(shí)別率,但在噪聲環(huán)境下,其性能會(huì)急劇降低,這阻礙了說話人識(shí)別技術(shù)走向現(xiàn)實(shí)應(yīng)用。本文針對(duì)說話人識(shí)別技術(shù)缺乏噪聲魯棒性的問題,將稀疏編碼技術(shù)用于說話人識(shí)別的各個(gè)環(huán)節(jié),包括語音活動(dòng)檢測(cè)、語音特征提取和說話人建模等,提出了系統(tǒng)的解決方案,以提高說話人系統(tǒng)在噪聲環(huán)境下的識(shí)別率,主要工作包括以下幾個(gè)方面:
  首

3、先,從理論上分析了兩種稀疏編碼方法對(duì)噪聲的建模能力,為稀疏編碼的應(yīng)用奠定了基礎(chǔ)。稀疏編碼在對(duì)噪聲的建模方面有兩種方式:第一種用殘差對(duì)噪聲建模,噪聲的理論模型是高斯白噪聲,其內(nèi)在的假定在于語音在語音字典上稀疏,而噪聲在語音字典上不稀疏,白噪聲在任何字典上都表現(xiàn)得不稀疏,滿足了這一要求;第二種采用一個(gè)噪聲字典對(duì)噪聲建模,其內(nèi)在假定在于語音和噪聲在各自的字典上稀疏,且在自己的字典上比在對(duì)方的字典上更稀疏。本文從理論上分析了這兩種稀疏編碼方式重

4、構(gòu)信號(hào)時(shí)誤差的上下限,然后用實(shí)驗(yàn)驗(yàn)證了理論分析的結(jié)論,表明當(dāng)噪聲不稀疏時(shí),第一種方法和第二種方法的重構(gòu)誤差在理論上有相同的下限和不同的上限;當(dāng)噪聲也可能稀疏時(shí),第二種方法增加了一個(gè)字典對(duì)噪聲建模,融入了更多先驗(yàn)知識(shí),其重構(gòu)誤差上限要低于第一種方法。
  然后,針對(duì)語音活動(dòng)檢測(cè)容易受到噪聲影響的問題,基于稀疏編碼構(gòu)建噪聲字典,提出了一種對(duì)噪聲魯棒的語音活動(dòng)檢測(cè)方法。語音活動(dòng)檢測(cè)是說話人識(shí)別的第一步,能減少算法處理的數(shù)據(jù)量,提高識(shí)別效

5、率。目前的語音活動(dòng)檢測(cè)方法雖然也考慮了噪聲,但只能解決噪聲環(huán)境已知,且噪聲環(huán)境不變的情況。當(dāng)噪聲環(huán)境發(fā)生改變,或者噪聲不平穩(wěn),其性能將急劇降低。本文首先采用高斯混合模型識(shí)別噪聲類型;然后將經(jīng)過訓(xùn)練后的噪聲字典與語音字典拼接成一個(gè)大字典;最后,將混噪語音稀疏表示在拼接后的大字典上,并用語音字典上的稀疏表示實(shí)現(xiàn)語音和非語音的判定。從結(jié)果上看,本文的方法實(shí)現(xiàn)了對(duì)噪聲環(huán)境的感知,能有針對(duì)性地選擇字典去適應(yīng)噪聲,在復(fù)雜噪聲環(huán)境下取得了更好的識(shí)別效

6、果。
  接下來,提出了兩種對(duì)噪聲不敏感的特征提取方法。特征提取是說話人識(shí)別中的關(guān)鍵環(huán)節(jié)。一方面我們要求特征具有區(qū)分性;另一方面,我們希望特征受到噪聲的干擾盡可能地小。本文提出的第一種特征采用了感知最小方差無畸變響應(yīng)技術(shù),同時(shí)采用了平移差分倒譜算法,有效地融入了說話人語音的長(zhǎng)時(shí)信息。所提取的特征不僅在干凈環(huán)境下能取得良好性能,而且在混噪語音以及信道失配等聲學(xué)條件下也優(yōu)于目前主流的特征。在YOHO數(shù)據(jù)庫(kù)和ROSSI數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)結(jié)果

7、表明,該特征在噪聲和信道畸變的情況下能有效提高識(shí)別系統(tǒng)的魯棒性。第二種特征將混噪語音分解在語音字典上,然后用稀疏表示重構(gòu)語音,并提取梅爾倒譜特征用于模型訓(xùn)練和識(shí)別。由于稀疏編碼可以用殘差或者用噪聲字典對(duì)噪聲建模,使得重構(gòu)后的信號(hào)不含有噪聲,因此能提取到受噪聲影響小的語音特征。
  最后,提出了兩階段稀疏分解的說話人識(shí)別框架。目前的說話人識(shí)別方法普遍將所有說話人字典拼接在一起形成一個(gè)大字典,雖然具有一定的區(qū)分性,但是存在兩方面問題。

8、一方面拼接出來大字典原子數(shù)目過于龐大,降低了識(shí)別效率;另一方面,競(jìng)爭(zhēng)的類別過多,稀釋了真實(shí)說話人的競(jìng)爭(zhēng)力。所提出的方法在第一階段將待識(shí)別語音被分解到每個(gè)說話人字典上,然后通過重構(gòu)計(jì)算殘差,并對(duì)殘差進(jìn)行排序后,選取一個(gè)包含真實(shí)說話人的字典子集;第二階段將新字典子集拼接成一個(gè)大字典,再次將待識(shí)別語音分解到大字典上,用各字典上的稀疏表示計(jì)算得分后識(shí)別說話人。這種結(jié)構(gòu)在第一階段去除了大量無關(guān)說話人字典,減少了算法的時(shí)間復(fù)雜度;第二階段采用區(qū)分式

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論