近日, 微軟宣布英語的語音識(shí)別轉(zhuǎn)錄詞錯(cuò)率僅 5.9%,達(dá)到了專業(yè)速錄員水平超越了人類。百度首席科學(xué)家吳恩達(dá)(Andrew Ng)發(fā)推特對(duì)此表示恭賀:“在 2015 年我們就超越了人類水平的漢語識(shí)別;很高興看到微軟在不到一年之后讓英語也達(dá)到了這一步?!睍r(shí)隔一年,百度、微軟兩大人工智能科技巨頭先后分別在漢語、英語語音識(shí)別研究方面取得了超越人類的成果,引發(fā)業(yè)界轟動(dòng)。
據(jù)悉,語音識(shí)別并不算是一個(gè)新興的行業(yè),從20世紀(jì)70年代賈里尼克教授,開始基于統(tǒng)計(jì)法和數(shù)據(jù)建立模型后,語音識(shí)別有了巨大飛躍。近年來,隨著數(shù)據(jù)量的豐富和計(jì)算能力的提升,語音識(shí)別行業(yè)迅速崛起。據(jù) TechCrunch 統(tǒng)計(jì),僅美國至少就有 26 家公司在開發(fā)語音識(shí)別技術(shù)。美國眾多企業(yè)在技術(shù)上多年的積累使之占據(jù)了絕對(duì)的行業(yè)優(yōu)勢(shì),但中國互聯(lián)網(wǎng)企業(yè)百度近年來在語音識(shí)別技術(shù)上持續(xù)發(fā)力,在漢語語音識(shí)別方面取得了領(lǐng)先世界的成績(jī),已成為該研究領(lǐng)域當(dāng)之無愧的領(lǐng)頭羊。
作為中國最大的搜索引擎公司,百度收集了大量漢語(尤其是普通話)的音頻數(shù)據(jù),百度采用數(shù)千小時(shí)進(jìn)行實(shí)驗(yàn)的預(yù)研,并應(yīng)用到數(shù)萬小時(shí)的語音產(chǎn)品數(shù)據(jù)庫,這給 Deep Speech 2 技術(shù)成果提供了基本的數(shù)據(jù)優(yōu)勢(shì)。在該技術(shù)首次發(fā)布時(shí),百度研究院硅谷人工智能實(shí)驗(yàn)室(SVAIL)就在 arXiv 上發(fā)表了一篇論文《Deep Speech 2: End-to-End Speech Recognition in English and Mandarin(Deep Speech 2:端到端的英語和漢語語音識(shí)別)》,介紹了百度的研究成果。吳恩達(dá)表示其識(shí)別的精度當(dāng)時(shí)已經(jīng)超越了 Google Speech API、wit.ai、微軟的 Bing Speech 和蘋果的 Dictation 至少 10 個(gè)百分點(diǎn)。據(jù)百度表示,到今年 2 月份時(shí),Deep Speech 2 的短語識(shí)別的詞錯(cuò)率已經(jīng)降到了 3.7%!這意味著Deep Speech 2 轉(zhuǎn)錄某些語音的能力「基本上是超人級(jí)的」,能夠比普通話母語者更精確地轉(zhuǎn)錄較短的查詢。
值得一提的是,盡管 Deep Speech 2 在漢語上表現(xiàn)非常不錯(cuò),但其最初實(shí)際上并不是為理解漢語訓(xùn)練的。百度美國的人工智能實(shí)驗(yàn)室負(fù)責(zé)人 Adam Coates 說:“我們?cè)谟⒄Z中開發(fā)的這個(gè)系統(tǒng),但因?yàn)樗峭耆疃葘W(xué)習(xí)的,基本上是基于數(shù)據(jù)的,所以我們可以很快地用普通話替代這些數(shù)據(jù),從而訓(xùn)練出一個(gè)非常強(qiáng)大的普通話引擎?!?/p>
百度提出的端到端的深度學(xué)習(xí)(end-to-end deep learning)方法或者將很快實(shí)現(xiàn)更多復(fù)雜語種的識(shí)別問題。該方法用神經(jīng)網(wǎng)絡(luò)完全替代了人工設(shè)計(jì)組件的流程,端到端學(xué)習(xí)讓可以處理包含噪雜環(huán)境、口音和不同語言的許多不同的語音,所以該技術(shù)既可以被用于識(shí)別漢語語音,也可以被用于識(shí)別英語語音。
對(duì)比一年之前吳恩達(dá)所說:“SVAIL 已經(jīng)證明我們的端到端深度學(xué)習(xí)方法可被用來識(shí)別相當(dāng)不同的語言。我們方法的關(guān)鍵是對(duì)高性能計(jì)算技術(shù)的使用,相比于去年速度提升了 7 倍。因?yàn)檫@種效率,先前花費(fèi)兩周的實(shí)驗(yàn)如今幾天內(nèi)就能完成。這使得我們能夠更快地迭代?!毕嘈沤?jīng)過一年的技術(shù)迭代,Deep Speech 2已經(jīng)“默默”創(chuàng)造了新的奇跡。在語音識(shí)別領(lǐng)域,百度、微軟等巨頭的各自發(fā)力,將加速用技術(shù)跨越語言鴻溝的進(jìn)程,重建通天的“巴別塔”。
- 國內(nèi)首個(gè)省級(jí)旅游AI智能體“AI游貴州”發(fā)布,馬蜂窩助力貴州開啟智慧文旅新篇章
- 2024年終盤點(diǎn) | 華為以“技術(shù)為根、實(shí)戰(zhàn)為魂”,助力高校,培養(yǎng)千萬數(shù)智人才
- 余承東2025年全員信:通過海量鴻蒙設(shè)備,拉動(dòng)中國電子工業(yè)崛起
- 速通 NVIDIA 專業(yè)顯卡:專業(yè)顯卡有哪些優(yōu)勢(shì)?適合什么場(chǎng)景?
- 馬蜂窩跨年出行預(yù)測(cè):儀式感必不可少,“跨年煙花”帶動(dòng)目的地?zé)岫壬蠞q
- 30億元!比亞迪捐資興教推動(dòng)中國科教進(jìn)步
- 閉著眼睛寫代碼是一種什么樣的體驗(yàn)?
- 2024世界顯示產(chǎn)業(yè)大會(huì)啟幕,4K花園自研“滿天星”獲十大創(chuàng)新應(yīng)用
- 哈佛商學(xué)院:2024年全球96%代碼庫包含開源組件 Rust采用率增長500%
- 硅谷1/10程序員在摸魚?基本不干活卻能拿20-30萬美元年薪
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。