什么是NLP中的文本摘要
自動(dòng)文本摘要是在保持關(guān)鍵信息內(nèi)容和整體含義的同時(shí),生成簡(jiǎn)潔流暢的摘要的任務(wù)。 文本摘要目前大致可以分為兩種類(lèi)型:
Extractive Summarization:重要內(nèi)容、語(yǔ)句提取。
Abstractive Summarization:文本總結(jié)。
Extractive Summarization
由圖可以看出,這種方法提取的內(nèi)容語(yǔ)句來(lái)自于原文。
Abstractive Summarization
由圖可以看出,這種方法提取的內(nèi)容語(yǔ)句可能不存在于原文。
Seq2Seq模型
Seq2Seq模型可以處理一切連續(xù)型信息,包括情感分類(lèi),機(jī)器翻譯,命名實(shí)體識(shí)別等。 機(jī)器翻譯任務(wù)中,輸入是連續(xù)文本序列,輸出也是連續(xù)文本序列。 命名實(shí)體識(shí)別中,輸入是連續(xù)文本序列,輸出是連續(xù)的標(biāo)簽信息。 所以,我們可以利用Seq2Seq模型,通過(guò)輸入一段長(zhǎng)文本,輸出短的摘要,實(shí)現(xiàn)文本摘要功能。 下圖是典型的Seq2Seq模型架構(gòu):
通常我們可以選擇RNNs網(wǎng)絡(luò)的變體GRU或者LSTM,這是因?yàn)樗鼈兡軌蛲ㄟ^(guò)克服梯度消失的問(wèn)題來(lái)捕獲長(zhǎng)期依賴(lài)性。
Encoder編碼器
LSTM中的Encoder讀取整個(gè)輸入序列,其中每個(gè)時(shí)間step上,都會(huì)有一個(gè)字輸入編碼器。然后,他在每個(gè)時(shí)間step上處理信息,并捕獲輸入序列中存在的上下文信息。
上一個(gè)時(shí)間step的隱藏層h1與記憶單元層c1將會(huì)用來(lái)初始化Decoder。
Decoder解碼器
Decoder是LSTM結(jié)構(gòu)的另一部分。它逐字讀取整個(gè)目標(biāo)序列,并以一個(gè)時(shí)間步長(zhǎng)預(yù)測(cè)相同的序列偏移量。 解碼器可以在給定前一個(gè)單詞的情況下預(yù)測(cè)序列中的下一個(gè)單詞。解碼器的初始輸入是編碼器最后一步的結(jié)果。
在將整個(gè)目標(biāo)序列放入解碼器前,還需將[start] 與 [end]這兩個(gè)特殊的tokens加入序列中,告知模型的開(kāi)始與結(jié)束。模型通過(guò)輸入的[start]開(kāi)始預(yù)測(cè)第一個(gè)詞,而[end]則表示整個(gè)句子的結(jié)束。
Deocder的工作流程
假設(shè)輸入序列為[x1,x2,x3,x4],將其編碼成內(nèi)部固定長(zhǎng)度的向量。 下圖顯示了每一個(gè)time step下Decoder是如何工作的。
123下一頁(yè)>(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )