蘋果最近推出了一項新的技術創新,去噪語言模型(DLM),通過大量合成數據的訓練,取得了超越以往的成就,實現了自動語音識別(ASR)領域的最新性能水平。
這項技術的核心在于使用文本轉語音(TTS)系統創建音頻,并將其輸入ASR系統,通過這種方式產生了嘈雜的假設,與原始文本進行配對,從而訓練DLM。該方法的關鍵要素包括升級的模型和數據、多說話人TTS系統、各種噪聲增強策略以及新的解碼技術。
研究顯示,單個DLM可以應用于不同的ASR系統,其性能顯著優于傳統的基于語言模型(LM)的集束搜索重新評分方法。這一突破意味著精心設計的糾錯模型可以取代傳統的LM,將ASR系統的準確率提升到一個新的高度。尤其值得注意的是,DLM在LibriSpeech上實現了1.5%的字錯誤率(WER),這是不使用外部音頻數據時報告的最佳數字之一,證明了其卓越性能。
然而,DLM面臨的挑戰之一是需要大量的監督訓練示例,而這在典型的ASR數據集中是有限的。為了解決這一問題,DLM采用了使用TTS系統生成合成音頻的方法,從而擴展了訓練數據集的規模。這種創新性的做法為DLM的性能提升提供了更廣闊的空間,使其在ASR領域引領潮流。


產品與服務
聯系站長
關于我們