OpenAI 昨日(3 月 20 日)發(fā)布博文,宣布推出語音轉(zhuǎn)文本(speech-to-text)和文本轉(zhuǎn)語音(text-to-speech)模型,提升語音處理能力,支持開發(fā)者構(gòu)建更精準(zhǔn)、可定制的語音交互系統(tǒng),進(jìn)一步推動人工智能語音技術(shù)的商業(yè)化應(yīng)用。
在語音轉(zhuǎn)文本模型上,OpenAI 主要推出了 gpt-4o-transcribe 和 gpt-4o-mini-transcribe 兩個模型,官方表示在單詞錯誤率(WER)、語言識別和準(zhǔn)確性上超越現(xiàn)有 Whisper 系列。
這兩個模型支持超 100 種語言,主要通過強(qiáng)化學(xué)習(xí)和多樣化高質(zhì)量音頻數(shù)據(jù)集訓(xùn)練,能捕捉細(xì)微語音特征,減少誤識別,尤其在嘈雜環(huán)境、口音及不同語速下表現(xiàn)更穩(wěn)定。
在文本轉(zhuǎn)語音上,OpenAI 最新推出了 gpt-4o-mini-tts 模型,開發(fā)者通過“模擬耐心客服”或“生動故事敘述”等指令,控制語音風(fēng)格,可以應(yīng)用于客服(合成更具同理心的語音,提升用戶體驗(yàn))和創(chuàng)意內(nèi)容(為有聲書或游戲角色設(shè)計個性化聲音)方面。


產(chǎn)品與服務(wù)
聯(lián)系站長
關(guān)于我們