0
本文作者: 奕欣 | 2017-05-10 17:05 |
雷鋒網(wǎng)消息,今天百度研究院官網(wǎng)更新了一條新聞,但顯示需要密碼方可查看內(nèi)容。
文章標題為《Protected: Deep Speaker: an End-to-End System for Large-Scale Speaker Recognition》。從標題上看, Deep Speaker 應(yīng)該是百度即將發(fā)布的新一代語音識別技術(shù),且為一個端到端大規(guī)模識別系統(tǒng)。
雷鋒網(wǎng)第一時間聯(lián)系了百度 AI 研究院的相關(guān)人士,對方表示本次更新為百度美國研究院發(fā)起,據(jù)他了解,“主要是聲紋識別方向的進展”。
據(jù)百度美國研究院的消息透露,這一內(nèi)容將在北京時間凌晨公布。
聲紋識別是語音識別里一個比較窄的分支,通過對一種或多種語音信號的特征分析達到對未知聲音辨別的目的,也就是說,可以通過聲紋技術(shù)判斷某句話是否為某個人所說。聲紋識別的理論基礎(chǔ)在于每個聲音都有自己的特征,并能對不同的聲源進行有效區(qū)分。
目前,聲紋識別的任務(wù)主要有兩種,一是聲紋確認技術(shù),即比對兩份樣本是否為同一人所說;另一個則是聲紋識別技術(shù),即判斷某句話是樣本庫中的哪個人所說的。
今年年初,百度小度在“最強大腦”中也展示了采用聲紋識別技術(shù),從一群唱歌的參與者中找到擁有說某句話(樣本為一段簡短的通話)的那個人。百度官方在接受采訪時,也指出本次節(jié)目的聲紋識別難度比一般的聲紋識別要難,主要采用的是“聲學特征提取”與“說話人特征提取”兩種方式,并用“DNN-ivector”及基于端到端深度學習的說話人信息提取算法進行訓練和鑒別。
此前雷鋒網(wǎng)曾經(jīng)報道過百度在語音技術(shù)上的進展。語音識別層面上,百度早在2010年就已經(jīng)進行智能語音及相關(guān)技術(shù)研發(fā)。并從2012年開始逐步采用 DNN、Sequence Discriminative Training(序列區(qū)分度訓練)、 LSTM 模型、CTC 及 Deep CNN 等神經(jīng)網(wǎng)絡(luò)進行語音的相關(guān)研究。在語音識別領(lǐng)域,百度相繼于 2014 年及2015 年年底發(fā)布了 Deep Speech 和 Deep Speech 2,并憑借深度語音識別技術(shù)于 2016 年入選 MIT 十大突破技術(shù)?;?Deep Speech 2 ,2017年百度推出了一款基于人工智能的轉(zhuǎn)錄應(yīng)用 SwiftScribe。而在語音合成上,百度于今年正式推出 Deep Voice,一個實時語音合成的神經(jīng)網(wǎng)絡(luò)系統(tǒng)。
那么,本次如此神秘的 Deep Speaker 到底有哪些重大的更新,它又可能在哪些方面有所突破?雷鋒網(wǎng)將會及時跟進消息。
AI科技評論招業(yè)界記者啦!
在這里,你可以密切關(guān)注海外會議的大牛演講;可以采訪國內(nèi)巨頭實驗室的技術(shù)專家;對人工智能的動態(tài)了如指掌;更能深入剖析AI前沿的技術(shù)與未來!
如果你:
*對人工智能有一定的興趣或了解
* 求知欲強,具備強大的學習能力
* 有AI業(yè)界報道或者媒體經(jīng)驗優(yōu)先
簡歷投遞:
lizongren@leiphone.com
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。