版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、隨著目前語(yǔ)音合成技術(shù)的進(jìn)步,合成語(yǔ)音的音質(zhì)和自然度都有了很大的提高,因此,用戶對(duì)語(yǔ)音合成系統(tǒng)提出了更高的要求--多樣化的語(yǔ)音合成,包括多個(gè)發(fā)音人、多種發(fā)音風(fēng)格、多種情感以及多語(yǔ)種等語(yǔ)音的合成。在這一背景下,通過(guò)調(diào)整一個(gè)說(shuō)話人的語(yǔ)音,使其聽(tīng)起來(lái)像是另一個(gè)人說(shuō)出來(lái)一樣的說(shuō)話人轉(zhuǎn)換技術(shù)被提出。說(shuō)話人轉(zhuǎn)換技術(shù)根據(jù)少量的目標(biāo)說(shuō)話人的語(yǔ)音數(shù)據(jù),對(duì)源說(shuō)話人的語(yǔ)音參數(shù)進(jìn)行調(diào)整,從而得到目標(biāo)說(shuō)話人的合成語(yǔ)音,并可以此實(shí)現(xiàn)多樣化的語(yǔ)音合成。為此,本文對(duì)基于
2、HMM(Hidden Markov Model)的說(shuō)話人轉(zhuǎn)換技術(shù)進(jìn)行了詳細(xì)的介紹,并對(duì)其訓(xùn)練流程和關(guān)鍵技術(shù)進(jìn)行了改進(jìn),最后,針對(duì)具體的應(yīng)用進(jìn)行了相應(yīng)的研究。本文按照如下幾個(gè)部分展開(kāi)討論: 文章的第一部分主要是介紹了本文研究的背景和幾種主要的說(shuō)話人轉(zhuǎn)換的方法。首先,簡(jiǎn)單的描述了一下語(yǔ)音合成技術(shù)以及其近年來(lái)的發(fā)展。接下來(lái),為了幫助我們更好的理解說(shuō)話人轉(zhuǎn)換的原理,我們也對(duì)人的發(fā)音過(guò)程的聲學(xué)機(jī)理和數(shù)學(xué)模型進(jìn)行了系統(tǒng)介紹。這是因?yàn)椋f(shuō)話人
3、轉(zhuǎn)換技術(shù)是對(duì)源說(shuō)話人的音色進(jìn)行轉(zhuǎn)換使其聽(tīng)起來(lái)像目標(biāo)說(shuō)話人發(fā)出的。而為了實(shí)現(xiàn)說(shuō)話人音色的轉(zhuǎn)換,通常需要對(duì)語(yǔ)音信號(hào)進(jìn)行激勵(lì)源和聲道濾波器的分離,以便對(duì)激勵(lì)信號(hào)和聲道模型分別進(jìn)行修改,然后再重新生成語(yǔ)音。最后我們對(duì)說(shuō)話人轉(zhuǎn)換技術(shù)的發(fā)展和常用的幾種方法進(jìn)行簡(jiǎn)要的介紹。 在文章的第二部分,主要介紹了基于HMM的說(shuō)話人轉(zhuǎn)換的基本框架。由于基于HMM的說(shuō)話人轉(zhuǎn)換技術(shù)是建立在基于HMM的語(yǔ)音合成系統(tǒng)的基礎(chǔ)上的,因此,本章首先介紹了 Tainab
4、le TTS(Text-to-Speech)的基本框架,并對(duì)其中的一些關(guān)鍵技術(shù)進(jìn)行了分析。接下來(lái)主要介紹了基于HMM的說(shuō)話人轉(zhuǎn)換技術(shù)的一個(gè)重要環(huán)節(jié)--MLLR(Maximum Likelihood Linear Regression)模型自適應(yīng)算法,包括MLLR算法中HMM模型均值和方差轉(zhuǎn)換矩陣的估計(jì)方法以及回歸矩陣綁定的基本原理。最后基于上述基于HMM的說(shuō)話人轉(zhuǎn)換的基本框架,進(jìn)行了女到女和女到男的說(shuō)話人轉(zhuǎn)換實(shí)驗(yàn),并且從合成語(yǔ)音的音質(zhì)、
5、自然度以及與目標(biāo)語(yǔ)音的相似程度三個(gè)方面進(jìn)行了主觀和客觀的評(píng)測(cè)實(shí)驗(yàn)。 文章的第三部分針對(duì)第二章中所介紹的基于HMM的說(shuō)話人轉(zhuǎn)換的各主要技術(shù)環(huán)節(jié),如基于MSD (Multi-space Distribution) -HMM基頻建模的模型自適應(yīng)、時(shí)長(zhǎng)模型的自適應(yīng)、源說(shuō)話人模型的訓(xùn)練和選擇、模型自適應(yīng)算法、考慮動(dòng)態(tài)參數(shù)的參數(shù)生成算法等模塊;以及合成語(yǔ)音中的問(wèn)題,如在自適應(yīng)數(shù)據(jù)很少時(shí)效果不佳、合成語(yǔ)音頻譜過(guò)于平滑等問(wèn)題,分別進(jìn)行了分析和相
6、應(yīng)的改進(jìn)工作。主要的改進(jìn)包括:整合了自適應(yīng)流程,使頻譜、基頻、時(shí)長(zhǎng)模型在相同的框架下進(jìn)行轉(zhuǎn)換;使用LSP (Line Spectral Pair) +DAL(Differential coefficients of Adiacent LSP)參數(shù)減輕頻譜過(guò)平滑的問(wèn)題;使用共享決策樹(shù)聚類方法訓(xùn)練平均模型作為源說(shuō)話人模型,從而提高模型自適應(yīng)的魯棒性;對(duì)模型自適應(yīng)算法進(jìn)行改進(jìn),提高自適應(yīng)效果;針對(duì)不同的訓(xùn)練數(shù)據(jù)量,采用不同類型的轉(zhuǎn)換矩陣;改進(jìn)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于隱馬爾可夫模型的說(shuō)話人轉(zhuǎn)換研究.pdf
- 基于矢量量化和隱馬爾可夫模型的說(shuō)話人識(shí)別研究.pdf
- 隱馬爾可夫模型在說(shuō)話人識(shí)別中的應(yīng)用與研究.pdf
- 基于隱馬爾可夫模型的對(duì)象定位方法研究.pdf
- 基于隱馬爾可夫模型的視頻事件檢測(cè)方法研究
- 基于隱馬爾可夫模型的視頻事件檢測(cè)方法研究.pdf
- 隱馬爾可夫模型簡(jiǎn)介
- 基于隱馬爾可夫模型的指紋匹配研究.pdf
- 隱馬爾可夫模型技術(shù)
- 基于隱馬爾可夫模型的音頻檢索.pdf
- 基于隱馬爾可夫模型的語(yǔ)音識(shí)別方法的研究.pdf
- 基于隱馬爾可夫模型的推薦算法研究.pdf
- 手繪草圖理解的隱馬爾可夫模型方法.pdf
- 基于隱馬爾可夫模型的復(fù)合式攻擊預(yù)測(cè)方法研究.pdf
- 基于隱馬爾可夫模型的手機(jī)蠕蟲(chóng)病毒檢測(cè)方法研究.pdf
- 基于隱馬爾可夫模型的動(dòng)態(tài)紋理分類.pdf
- 基于隱馬爾可夫模型的可用帶寬測(cè)量.pdf
- 基于隱馬爾可夫模型的手指靜脈識(shí)別研究.pdf
- 基于隱馬爾可夫模型的人臉識(shí)別研究.pdf
- 基于隱馬爾可夫模型的自動(dòng)和弦識(shí)別.pdf
評(píng)論
0/150
提交評(píng)論