NLP領(lǐng)域的伸手黨們,上個(gè)月簡(jiǎn)直像在過年!
不僅號(hào)稱谷歌最強(qiáng)NLP模型的BERT如約開源了,而且最新版本還支持中文,可以用于中文命名實(shí)體識(shí)別的Tensorflow代碼!最關(guān)鍵的是,這個(gè)強(qiáng)大的模型還橫掃11項(xiàng)記錄,"閱讀理解超過人類"。
谷歌團(tuán)隊(duì)的Thang Luong更直接宣告:BERT模型開啟了NLP的新時(shí)代?!癇ERT在手,天下我有”的既視感??!
人工智能漫長(zhǎng)的發(fā)展史上,能夠讓行業(yè)“鑼鼓喧天,鞭炮齊鳴”的算法模型還真不多見。不過,在跟風(fēng)成為這個(gè)模型的舔狗之前,我們先來扒下它的外衣,看看到底有沒有那么神奇。
什么是BERT模型?
這個(gè)讓全球開發(fā)者們?yōu)橹畾g欣鼓舞的新模型,全稱是Bidirectional Encoder Representation from Transformers,即對(duì)Transformer的雙向編碼進(jìn)行調(diào)整后的算法。
這種預(yù)訓(xùn)練模型所針對(duì)的核心問題,就是NLP的效率難題。
眾所周知,智能語音交互要理解上下文、實(shí)現(xiàn)通順的交流、準(zhǔn)確識(shí)別對(duì)象的語氣等等,往往需要一個(gè)準(zhǔn)確的NLP模型來進(jìn)行預(yù)測(cè)。
但越是精準(zhǔn)的模型,越是依賴于海量的訓(xùn)練語料,往往需要人工來進(jìn)行標(biāo)注和制作,因此,通過某種模型來預(yù)訓(xùn)練一個(gè)語言模型,幫助進(jìn)行超大規(guī)模的表征學(xué)習(xí),就成了一種靠譜且被廣泛采用的方法。
而傳統(tǒng)采用的預(yù)訓(xùn)練模型,比如AI2的 ELMo,以及OpenAI的fine-tune transformer,也同樣需要通過人力標(biāo)注來制作訓(xùn)練數(shù)據(jù)。
譬如說常用的中文漢字有3500個(gè),詞匯數(shù)量50萬,制作中文語言預(yù)訓(xùn)練模型的參數(shù)數(shù)量自然也就十分龐大,中文的預(yù)訓(xùn)練模型需要對(duì)每個(gè)都進(jìn)行人工標(biāo)注,這就又陷入了“有多人工就有多少智能”的死胡同。
那么,呱呱落地的BERT為什么能解決這一問題呢?它的優(yōu)勢(shì)主要體現(xiàn)在三個(gè)方面:
1. BERT擁有一個(gè)深而窄的神經(jīng)網(wǎng)絡(luò)。transformer的中間層有2018,BERT只有1024,但卻有12層。因此,它可以在無需大幅架構(gòu)修改的前提下進(jìn)行雙向訓(xùn)練。由于是無監(jiān)督學(xué)習(xí),因此不需要人工干預(yù)和標(biāo)注,讓低成本地訓(xùn)練超大規(guī)模語料成為可能。
2. BERT模型能夠聯(lián)合神經(jīng)網(wǎng)絡(luò)所有層中的上下文來進(jìn)行訓(xùn)練。這樣訓(xùn)練出來的模型在處理問答或語言推理任務(wù)時(shí),能夠結(jié)合上下文理解語義,并且實(shí)現(xiàn)更精準(zhǔn)的文本預(yù)測(cè)生成。
3. BERT只需要微調(diào)就可以適應(yīng)很多類型的NLP任務(wù),這使其應(yīng)用場(chǎng)景擴(kuò)大,并且降低了企業(yè)的訓(xùn)練成本。BERT支持包括中文在內(nèi)的60種語言,研究人員也不需要從頭開始訓(xùn)練自己的模型,只需要利用BERT針對(duì)特定任務(wù)進(jìn)行修改,在單個(gè)云TPU上運(yùn)行幾小時(shí)甚至幾十分鐘,就能獲得不錯(cuò)的分?jǐn)?shù)。
用一些開發(fā)者的話來說,就是BERT的“效果好到不敢相信”,這也是其快速躥紅的核心原因。
BERT是如何工作的?
這樣厲害的模型,是怎樣被訓(xùn)練出來的呢?主要分為五個(gè)步驟:
首先,將語料中的某一部分詞匯遮蓋住,讓模型根據(jù)上下文雙向預(yù)測(cè)被遮蓋的詞,來初步訓(xùn)練出通用模型。
然后,從語料中挑選出連續(xù)的上下文語句,讓transformer模型來識(shí)別這些語句是否連續(xù)。
這兩步合在一起完成預(yù)訓(xùn)練,就成為一個(gè)能夠?qū)崿F(xiàn)上下文全向預(yù)測(cè)出的語言表征模型。
最后,再結(jié)合精加工(fine tuning)模型,使之適用于具體應(yīng)用。
而BERT應(yīng)用起來也非常簡(jiǎn)單,具體到什么程度呢?個(gè)人開發(fā)者可以在任意文本語料庫(kù)上完成“預(yù)測(cè)下一句”之類的任務(wù)。
只需要進(jìn)行數(shù)據(jù)生成,把整個(gè)輸入文件的純文本做成腳本保存到內(nèi)存,就可以用BERT進(jìn)行預(yù)訓(xùn)練了。
通過一段簡(jiǎn)單代碼,預(yù)訓(xùn)練20步左右,就能得到一個(gè)基礎(chǔ)的NLP任務(wù)模型。如果想在實(shí)際應(yīng)用中有更好的表現(xiàn),訓(xùn)練10000步以上也不會(huì)花費(fèi)很長(zhǎng)時(shí)間。
從上述實(shí)驗(yàn)成果來看,似乎可以直接得出結(jié)論:BERT開啟了一個(gè)NLP的新世界!
以前我們總是吐槽機(jī)器翻譯、自然語言理解等NLP技術(shù)都是“實(shí)驗(yàn)室的人工智能,生活中的“人工智障”,而且每個(gè)廠商的語音產(chǎn)品似乎都停留在用論文和跑分隔空叫板,實(shí)際應(yīng)用場(chǎng)景上體驗(yàn)感其實(shí)差異并不明顯。但BERT的出現(xiàn),不僅讓機(jī)器語言理解上有了更好的效果,尤其是上下文理解和文本生成上,表現(xiàn)十分驚艷。更重要的是,它為自然語言處理技術(shù)帶來的新想象空間。
封神之前,BERT還要面對(duì)哪些問題?
說到這里,是不是已經(jīng)有種“有條件要上BERT,沒有條件創(chuàng)造條件也要上BERT”的感覺了?
別急,BERT模型看起來很美好,但并不是一枚誰拿來都能快速見效的“救心丸”,至少有三點(diǎn)需要額外注意:
一是開銷巨大,在GPU上跑一次成本很高,而Google推薦的云TPU價(jià)格雖然低廉(500美元),卻需要兩周時(shí)間。
二是數(shù)據(jù)規(guī)模要求高。如果沒有足夠龐大的訓(xùn)練語料,很難在針對(duì)性開發(fā)中復(fù)現(xiàn)同樣的評(píng)測(cè)效果。
三是BERT無法單獨(dú)完成計(jì)算問題,需要后續(xù)任務(wù)補(bǔ)全推理和決策環(huán)節(jié)。而且BERT本身是無監(jiān)督學(xué)習(xí),因此不能直接用于解決NLP問題,往往需要結(jié)合現(xiàn)有的有監(jiān)督學(xué)習(xí)以避免算法歧視或偏見。
目前看來,BERT的魅力雖然讓開發(fā)者和企業(yè)們難以抗拒,但也存在著諸多門檻,想要見效并不是一朝一夕的事兒。但它能夠被人吹爆,并不僅僅只是因?yàn)樗惴ê蛿?shù)據(jù)上的突破,真正的價(jià)值還是隱藏在對(duì)產(chǎn)業(yè)端的推動(dòng)力量。
BERT帶來的想象空間
眾所周知,自然語言處理技術(shù)被稱為AI領(lǐng)域的明珠,但在產(chǎn)業(yè)端,智能語音企業(yè)對(duì)于自家技術(shù)的競(jìng)爭(zhēng)力,不是宣傳又在SQuAD這樣的頂級(jí)賽事中跑了多少分,就是基于各自的數(shù)據(jù)集大吹特吹準(zhǔn)確率。但是,彼此之間的數(shù)據(jù)往往都十分焦灼,很難真正拉開差距。
而BERT的出現(xiàn),顯然為智能語音技術(shù)公司的競(jìng)爭(zhēng)帶來了全新的關(guān)鍵要素,那就是效率,以及成本。
BERT的橫空出世,抹平了訓(xùn)練語料的人工標(biāo)注成本,讓超大規(guī)模的模型訓(xùn)練不再遙不可及,從而使得產(chǎn)業(yè)端研發(fā)出交互更友好、理解力更高的語音交互產(chǎn)品成為了可能。
另一方面,在垂直應(yīng)用端,多種語言支持和低成本地針對(duì)性訓(xùn)練,讓BERT可以很快在垂直領(lǐng)域進(jìn)行部署,大大提升了智能語音的配置效率和應(yīng)用范圍,為NLP的產(chǎn)業(yè)端實(shí)錘落地提供了長(zhǎng)期發(fā)展的支撐力量。
解決了模型和應(yīng)用的問題,NLP領(lǐng)域的新賽道自然就落在了語料和算力上。
想要借助BERT訓(xùn)練出更精準(zhǔn)、更好的應(yīng)用模型,考驗(yàn)著企業(yè)的兩方面能力:一個(gè)是訓(xùn)練語料的規(guī)模;一個(gè)是強(qiáng)大算力的支撐。
BERT使用了超大的數(shù)據(jù)集(BooksCorpus 800M + English Wikipedia 2.5G單詞)和超大的算力(對(duì)應(yīng)于超大模型)來在相關(guān)的任務(wù)上做預(yù)訓(xùn)練。未來,是否有足夠的訓(xùn)練語料來復(fù)現(xiàn)同樣的效果,又是否足夠的GPU(背后就是錢)來支撐跑BERT,將是智能語音技術(shù)企業(yè)拉開身位的關(guān)鍵。
總而言之,BERT在NLP界還是個(gè)新生事物,但已經(jīng)有了封神的潛質(zhì)。比此前的解決方案更優(yōu)秀,更有發(fā)展?jié)摿Α?/p>
不過,對(duì)數(shù)據(jù)規(guī)模和算力的要求,以及與自身業(yè)務(wù)的耦合,也在無形中提升著智能語音的門檻和成本。
從這個(gè)角度看,最終能夠借助BERT拉開競(jìng)爭(zhēng)區(qū)位的,要么是搜狗、阿里、百度這樣以搜索、電商為主業(yè)的大數(shù)據(jù)“富一代”,要么是憑借強(qiáng)大效率與業(yè)務(wù)創(chuàng)新實(shí)現(xiàn)“彎道超車”的新獨(dú)角獸,接下來恐怕可以激發(fā)不少新腦洞和解題思路。
無論如何,BERT的出現(xiàn),終于讓專注“跑分”和“隔空叫板”的NLP領(lǐng)域,多了一些更有趣的想象力。
免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評(píng)論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個(gè)人觀點(diǎn),與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請(qǐng)自行核實(shí)相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。
- 國(guó)產(chǎn)手機(jī)大勝,蘋果銷量大跌,難怪急哄哄降價(jià)千元
- 這里不止“羊毛月”,少年也在以電商助農(nóng)
- 同仁堂醫(yī)養(yǎng)IPO: “三位一體”診療服務(wù)體系高效協(xié)同 “中醫(yī)+”健康服務(wù)未來可期
- 走出群山,長(zhǎng)賽道“攀登者”vivo
- 三線結(jié)構(gòu)光與升降LDS激光雷達(dá) 石頭自清潔掃拖機(jī)器人G30導(dǎo)航避障新里程
- 石頭科技閃耀CES2025 首創(chuàng)仿生機(jī)械手掃拖機(jī)器人
- TCL華星亮相CES2025,印刷OLED等創(chuàng)新顯示技術(shù)全球吸睛
- 科技云報(bào)到:從大模型到云端,“AI+云計(jì)算”還能講出什么新故事?
- 承載AI的云南花卉,正在盛開
- 打造個(gè)人辦公新范式,科大訊飛召開辦公智能體產(chǎn)品升級(jí)發(fā)布會(huì)
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。