版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、語音分離技術(shù)一直是語音信號(hào)處理領(lǐng)域的重要研究方向,尤其是近年來隨著智能設(shè)備的普及,一個(gè)好的前端語音分離模塊直接影響了語音交互技術(shù)的發(fā)展。但是由于外界環(huán)境的復(fù)雜多變,且早期的淺層模型在處理語音的非線性結(jié)構(gòu)信息方面的能力不足,因此單通道、低信噪比和非平穩(wěn)噪聲環(huán)境下的語音分離性能一直不盡人意。近年來隨著深度學(xué)習(xí)的發(fā)展,深層模型由于其本身復(fù)雜的多層非線性結(jié)構(gòu),很適合挖掘語音數(shù)據(jù)中的時(shí)空結(jié)構(gòu)信息,并能夠自動(dòng)學(xué)習(xí)深層次的抽象化特征,因此把深度學(xué)習(xí)應(yīng)
2、用到語音分離領(lǐng)域具有重要的研究意義。本文重點(diǎn)研究了單通道非平穩(wěn)噪聲條件下的有監(jiān)督語音分離問題,利用深層模型挖掘出從原始的帶噪語音到純凈的目標(biāo)語音之間的非線性映射關(guān)系。本文的主要工作如下:
首先,本文對(duì)基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的語音分離方法進(jìn)行了研究和實(shí)現(xiàn),并針對(duì)現(xiàn)有的DNN模型的缺陷提出了改進(jìn)的模型C-DNN,即在一般的DNN網(wǎng)絡(luò)結(jié)構(gòu)之前增加一個(gè)一維的卷積層(包括池化層)。所提的C-DNN模型可以利用前面的卷積層直接對(duì)語音的
3、幀級(jí)特征建模,通過一維的卷積預(yù)處理操作,自動(dòng)學(xué)習(xí)隱藏在數(shù)據(jù)中的抽象特征,然后利用后面的全連接層挖掘混合語音的特征與理想目標(biāo)之間的非線性映射關(guān)系。該模型可以充分利用每個(gè)時(shí)間幀中的相鄰頻帶之間的相關(guān)性信息,同時(shí)減小了特征選擇的困難,降低了輸入特征的數(shù)據(jù)維度。本文基于語音的單幀特征對(duì)所提的C-DNN模型進(jìn)行了實(shí)驗(yàn)驗(yàn)證,并和網(wǎng)絡(luò)深度相同的DNN模型進(jìn)行了對(duì)比,其中輸入特征選擇64通道的GF(Gammatone Feature)特征及其一階差分值
4、的組合特征,分離目標(biāo)選擇了常用的理想二值掩蔽(IBM)。實(shí)驗(yàn)結(jié)果表明,在相同實(shí)驗(yàn)條件下,參數(shù)更少的C-DNN模型的語音分離效果明顯優(yōu)于DNN模型,即可以獲得可懂度和感知質(zhì)量更好的分離語音。同時(shí)我們對(duì)不同的信噪比和背景噪聲條件下的混合語音進(jìn)行了多組實(shí)驗(yàn),驗(yàn)證了所提方法的有效性及泛化能力。
然后,本文提出基于CNN的語音分離方法和框架,利用CNN處理二維信號(hào)的本質(zhì)優(yōu)勢(shì)及其強(qiáng)大的特征學(xué)習(xí)能力,挖掘語音時(shí)頻信號(hào)中的時(shí)空結(jié)構(gòu)信息。該方法
5、可以直接對(duì)語音頻譜的上下文特征進(jìn)行建模,充分利用了語音信號(hào)的時(shí)頻相關(guān)性和局部特征,因而對(duì)提高語音分離系統(tǒng)的性能非常有益。本文對(duì)基于CNN的語音分離方法進(jìn)行了實(shí)驗(yàn)驗(yàn)證,并和DNN模型進(jìn)行了對(duì)比實(shí)驗(yàn)。輸入特征選擇64通道的GF特征及其一階差分值,上下文特征窗口大小選為5個(gè)時(shí)間幀,對(duì)分離目標(biāo)為理想二值掩蔽(IBM)和理想浮值掩蔽(IRM)的兩種情況進(jìn)行了測(cè)試,并從分離語音的客觀可懂度、感知質(zhì)量及分離目標(biāo)的可視化三個(gè)方面對(duì)模型進(jìn)行了評(píng)價(jià)。兩種分
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于深度學(xué)習(xí)的語音分離研究.pdf
- 基于深度學(xué)習(xí)的單通道語音分離.pdf
- 基于稀疏表示和深度學(xué)習(xí)的欠定語音分離方法研究.pdf
- 基于深度學(xué)習(xí)的說話人無關(guān)單通道語音分離.pdf
- 基于機(jī)器學(xué)習(xí)的欠定語音分離方法研究.pdf
- 基于深度神經(jīng)網(wǎng)絡(luò)的欠定語音分離方法研究.pdf
- 語音分離和語音增強(qiáng)方法研究.pdf
- 多語音分離語音增強(qiáng)方法的研究.pdf
- 基于空域?yàn)V波的語音分離研究.pdf
- 監(jiān)督性語音分離中訓(xùn)練目標(biāo)的研究.pdf
- 基于序貫字典學(xué)習(xí)的單通道語音分離算法研究.pdf
- 基于雙耳空間信息的語音分離研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的語音分離方法研究與實(shí)現(xiàn).pdf
- 基于計(jì)算聽覺場(chǎng)景分析和深度神經(jīng)網(wǎng)絡(luò)的混響語音分離.pdf
- 基于聽覺計(jì)算模型和深度神經(jīng)網(wǎng)絡(luò)的雙耳語音分離.pdf
- 基于深度學(xué)習(xí)的語音情感特征學(xué)習(xí)方法研究.pdf
- 語音分離算法的研究與實(shí)現(xiàn).pdf
- 語音分離與增強(qiáng)算法的研究.pdf
- 語音分離技術(shù)的研究與實(shí)現(xiàn).pdf
- 基于語音分離的聲紋識(shí)別技術(shù)研究.pdf
評(píng)論
0/150
提交評(píng)論