<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能 正文
      發私信給楊曉凡
      發送

      1

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      本文作者: 楊曉凡 2017-10-09 10:33
      導語:“從雞尾酒問題”開始

      雷鋒網 AI 科技評論按:基于深度學習的有監督語音分離在學術界和工業界越來越受到關注,也是深度學習在語音領域的應用中重要的一部分。作為雷鋒網AI研習社近期組織的一系列語音領域應用的分享會之一,本次我們請到了來自搜狗的研究員文仕學對語音分離方面主要的研究課題和相關方法做一些介紹。

      文仕學,過去學物理,后來學EE,現在從事Deep Learning工作,未來投身AI和CM事業。他的研究興趣在于語音信號處理和深度學習。在加入搜狗之前,曾在中國科學技術大學學習,在該領域的期刊和會議上發表了若干篇論文。現在在搜狗語音團隊任副研究員。

      雷鋒網 AI 科技評論將本次分享的內容整理如下。

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      分享主題:基于深度學習的語音分離

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      文仕學首先介紹了“語音分離”(Speech Separation)是怎么樣的一種任務。這個問題來自于“雞尾酒會問題”,采集的音頻信號中除了主說話人之外,還有其他人說話聲的干擾和噪音干擾。語音分離的目標就是從這些干擾中分離出主說話人的語音。

      根據干擾的不同,語音分離任務可以分為三類:

      • 當干擾為噪聲信號時,可以稱為“語音增強”(Speech Enhancement)

      • 當干擾為其他說話人時,可以稱為“多說話人分離”(Speaker Separation)

      • 當干擾為目標說話人自己聲音的反射波時,可以稱為“解混響”(De-reverberation)

      由于麥克風采集到的聲音中可能包括噪聲、其他人說話的聲音、混響等干擾,不做語音分離、直接進行識別的話,會影響到識別的準確率。因此在語音識別的前端加上語音分離技術,把目標說話人的聲音和其它干擾分開就可以提高語音識別系統的魯棒性,這從而也成為現代語音識別系統中不可或缺的一環。

      基于深度學習的語音分離,主要是用基于深度學習的方法,從訓練數據中學習語音、說話人和噪音的特征,從而實現語音分離的目標。

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      這次分享的內容有以下這5個部分:分離使用的模型、訓練目標的設置、訓練數據的生成、單通道語音分離算法的介紹和討論。

      基于深度學習的語音分離方法使用的模型

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      第一類模型是多層感知機,DNN,可以先做RBM預訓練,再做微調(fine-tune);不過文仕學介紹,他們團隊通過實驗發現,在大數據集上不需要預訓練也可以收斂。

      LSTM(長短時記憶網絡)的方法中把語音作為一個隨時間變化的序列進行建模,比較適合語音數據;CNN(卷積神經網絡)通過共享權值,可以在減少訓練參數的同時獲得比全連接的DNN更好的性能。

      近些年也有人用GAN(對抗性生成式網絡)做語音增強。模型中通常會把生成器設置為全部是卷積層,為了減少訓練參數從而縮短訓練時間;判別器負責向生成器提供生成數據的真偽信息,幫助生成器向著“生成干凈聲音”的方向微調。

      訓練目標的設置

      訓練目標包括兩類,一類是基于Mask的方法,另一類是基于頻譜映射的方法。

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      基于Mask的方法又可以分為幾類

      • “理想二值掩蔽”(Ideal Binary Mask)中的分離任務就成為了一個二分類問題。這類方法根據聽覺感知特性,把音頻信號分成不同的子帶,根據每個時頻單元上的信噪比,把對應的時頻單元的能量設為0(噪音占主導的情況下)或者保持原樣(目標語音占主導的情況下)。

      • 第二類基于Mask的方法是IRM(Ideal Ratio Mask),它同樣對每個時頻單元進行計算,但不同于IBM的“非零即一”,IRM中會計算語音信號和噪音之間的能量比,得到介于0到1之間的一個數,然后據此改變時頻單元的能量大小。IRM是對IBM的演進,反映了各個時頻單元上對噪聲的抑制程度,可以進一步提高分離后語音的質量和可懂度。

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      • TBM與IRM類似,但不是對每個時頻單元計算其中語音和噪聲的信噪比,而是計算其中語音和一個固定噪聲的信噪比

      • SMM是IRM在幅度上的一種形式

      • PSM中加入了干凈語音和帶噪語音中的相位差信息,有更高的自由度

      雖然基于Mask的方法有這么多,但最常用的還是開頭的IBM和IRM兩種

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      如果使用頻譜映射,分離問題就成為了一個回歸問題。

      頻譜映射可以使用幅度譜、功率譜、梅爾譜以及Gammatone功率譜。Gammatone是模擬人耳耳蝸濾波后的特征。為了壓縮參數的動態范圍以及考慮人耳的聽覺效應,通常還會加上對數操作,比如對數功率譜。

      基于頻譜映射的方法,是讓模型通過有監督學習,自己學習有干擾的頻譜到無干擾的頻譜(干凈語音)之間的映射關系;模型可以是DNN、CNN、LSTM甚至GAN。

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      這一頁是使用相同的DNN模型、相同的輸入特征、不同的訓練目標得到的結果。

      左邊的STOI指語音的可懂度,得分在0到1之間,越高越好;右邊的PESQ是語音的聽覺質量、聽感,范圍為-0.5到4.5,也是越高越好。

      基于Mask的方法STOI表現較好,原因是有共振峰的能量得到了較好的保留,而相鄰共振峰之間波谷處的聲音雖然失真較大,但人耳對這類失真并不敏感;兩類方法在PESQ中表現相當。

      訓練數據的生成

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      針對語音分離中的語音增強任務,首先可以通過人為加噪的方法生成帶噪語音和干凈語音對,分別作為輸入和輸出(有標注數據),對有監督學習模型進行訓練。加入的噪聲可以是各種收集到的真實世界中的噪聲。

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      不過收集噪聲需要成本,而且人工能夠收集到的噪音總是有限的,最好能夠有一套完備、合理的方案,用仿真的方式生成任意需要的噪聲。 在今年的MLSP(信號處理機器學習)會議上,搜狗語音團隊就發表了一項關于噪聲基的工作,通過構造一個噪聲基模型,在不使用任何真實噪音數據的情況下,生成帶噪語音對語音增強模型進行訓練,達到了與使用50種真實噪音的情況下相當的性能(下圖)。

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      如果將這50種真實噪聲和噪聲基產生的數據混合在一起,性能可以比單獨使用真實噪音的情況得到進一步提高。這也說明噪聲基生成的噪聲和真實噪聲數據之間有著互補性,在實際應用中也可以解開一些真實噪聲數據不足帶來的限制。

      單通道語音分離算法

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      如開頭所說,語音分離任務可以分為三類,語音增強、多說話人分離和解混響。不同任務的處理方法也有所不同。

      對于語音增強,基于Mask的方法首先進行耳蝸濾波,然后特征提取、時頻單元分類、二值掩蔽、后處理,就可以得到增強后的語音了。

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      語音增強的另一類基于頻譜映射的方法中,先特征提取,用深度神經網絡學習帶噪語音和干凈語音的對數功率譜之間映射關系,再加上波形重建,就可以得到增強后的語音。

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      基于有監督學習的算法都存在推廣性(generalization)的問題,語音增強這里也不例外。針對噪音類型、信噪比和說話人的推廣性都還有提升的空間。

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      對于解混響,同樣可以使用基于頻譜映射的方法。解混響中也需要生成訓練數據,但不同于帶噪語音生成時做時域的相加,帶混響的語音是在時域上進行卷積;同樣都把干凈語音作為帶標注數據。

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      在基于頻譜映射的方法基礎上還可以加以改進。對于不同的混響時間,深度神經網絡需要學習的時間窗口長度是不一樣的,因而改進方法中加入了告知混響時間的功能,根據幀移R和擴幀數目N提特征后解碼,可以獲得更好的解混響效果。

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      多說話人分離分為三種情況

      • 目標說話人和干擾說話人都固定,Speaker dependent,有監督分離

      • 目標說話人固定,訓練階段和測試階段的干擾說話人可變,Target dependent,半監督分離

      • 目標說話人和干擾說話人都可變,Speaker independent,無監督分離

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      對于有監督和半監督分離,可以使用基于頻譜映射的方法,與前面使用基于頻譜映射的方法做語音增強類似。

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      對于無監督分類,有無監督聚類、深度聚類以及最近的序列不變訓練(PIT)方法。PIT方法的核心是紅框中標出的部分,在誤差回傳的時候,分別計算輸出序列和標注序列間各種組合的均方誤差,然后從這些均方誤差中找到最小的那個作為回傳誤差,也就是根據自動找到的聲源間的最佳匹配進行優化,避免出現序列模糊的問題。

      討論兩個問題

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      最后,文仕學給大家留了兩個思考題,歡迎大家在評論區給出自己的見解。

      • 第一個問題是語音分離任務中,是按傳統思路先變換到頻域,然后在頻域上進行處理,還是直接在時域上處理比較好?后者的好處是端到端訓練,不用考慮頻域方法做傅立葉反變換時相位的問題。

      • 第二個問題是對于語音增強任務,應該使用真實噪聲加噪還是使用人工仿真生成的噪聲進行降噪?

      感謝文仕學此次的分享以及對文本的指正,也歡迎大家關注雷鋒網 AI 研習社未來的更多分享活動!

      雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知

      搜狗研究員講解基于深度學習的語音分離 | 分享總結

      分享:
      相關文章

      讀論文為生

      日常笑點滴,學術死腦筋
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 四虎亚洲精品高清在线观看| 嘉兴市| 人妻色综合| 狠狠色综合久久狠狠色综合| 久操视频在线免费观看| 日韩丰满少妇无吗视频激情内射| 91网在线| 高清精品一区二区三区| 国产成人精品亚洲男人的天堂| 四虎影视一区二区精品| 国产成人午夜在线视频极速观看 | av人摸人人人澡人人超碰下载| 99热视屏| 99视频只有精品| 国产成人无码精品久久久露脸| 男女羞羞| 亚洲人妻无码一区| 午夜精品偷拍| 大陆极品少妇内射aaaaa| 秋霞无码久久久精品| 小蜜被两老头吸奶头| 国产真实露脸乱子伦原著| 中国A片乱子伦| av一本久道久久波多野结衣| 愛爱视频在线3| 亚洲一区国色天香| 成年无码av片在线蜜芽| 精品人妻人妇中文字幕视频| 国产成人无码一区二区在线播放| 另类专区一区二区三区| 国产女精品视频网站免费| 天天日夜夜| 又黄又爽又色视频免费| www.色色资源| 亚洲一区av无码专区在线观看| 亚洲中文字幕免费| 欧美精品综合| 亚洲av无码牛牛影视在线二区| 国产精品毛片一区二区在线看| 久久精品夜夜夜夜夜久久| 国产精品自产拍在线观看中文|