Facebook:讓聊天機器人有“從始至終的性格”可能是關(guān)鍵

Facebook:讓聊天機器人有“從始至終的性格”可能是關(guān)鍵

盡管Facebook已經(jīng)關(guān)閉它的智能助手M,但Facebook還沒有放棄聊天機器人。在過去的幾年里,F(xiàn)acebook慢慢地改進了它的人工智能助手所能做的事情,但是他們最近的挑戰(zhàn)讓人感到困惑,那就是“閑聊”。

聊天機器人并不能真正的聊天。正如Facebook的FAIR lab的研究人員在本周發(fā)表的一篇預(yù)印本論文中解釋的那樣,他們在很多層次的任務(wù)中都失敗了。

  1. 他們沒有表現(xiàn)出“從始至終的性格”,也就是說沒有在談話中始終堅持自己的一套性格;

  2. 他們不記得它們或它們的談話對象在過去的對話中說過什么;

  3. 當面對一個他們不懂的問題時,他們往往會分散你的注意力或回答一些預(yù)先設(shè)定好的語句,比如“我不知道”。

用常備用語詢問,但會話還需要其他工作

即使有了這些限制,聊天機器人依舊很吸引人。比如,20世紀60年代著名的ELIZA機器人,它依靠諸如“你現(xiàn)在感覺如何?”之類的常備用語成為初級治療師。但現(xiàn)在的目標不只是詢問,而是對話;為了重新創(chuàng)造這一屬性,研究人員已經(jīng)轉(zhuǎn)向深度學習。這意味著,聊天機器人不是通過預(yù)先編程的問題和答案進行敘述,而是通過在大型數(shù)據(jù)集中尋找模式來進行對話。

Facebook的研究人員說,到目前為止,已經(jīng)取得了一些不錯的成果,但現(xiàn)在面臨的一個挑戰(zhàn)是如何獲得正確的數(shù)據(jù)。例如,許多當代的聊天機器人用電影劇本中截取的對話進行訓練。這就意味著,當他們在漫談(而不是針對客戶服務(wù)等任務(wù)的直接對話)時,他們往往會提出一些奇怪的無前提推論。我們可以看下面的對話,Person 1是一個真人,而Person 2是一個用電影字幕訓練的聊天機器人:

  • PERSON 1

  • 我喜歡吃很棒的牛排。你呢?

  • PERSON 2

  • 父親總是說,如果我們有像你一樣多的錢……

  • 我們每天會吃三次牛排和冰淇淋!

  • PERSON 1

  • 我也吃所有的牛排和雞肉,甚至培根。

  • PERSON 2

  • 父親總是說,如果我們有像你一樣多的錢……

  • 我們每天會吃三次牛排和冰淇淋!

  • PERSON 1

  • 是的,你已經(jīng)說過了。

  • PERSON 2

  • 動態(tài)結(jié)構(gòu)可以吸收沖擊。

  • PERSON 1

  • 是的,可以。我作為一個鍛煉肌肉的人,我知道這一點。

  • PERSON 2

  • 女士們,先生們……

  • 世界上最強壯的人正在吹一個熱水袋。

(典故來源:來自喬治亞州的Jemal Tkeshelashvili,是一個有著一項特殊技能的超人。他可以用鼻子把熱水袋吹爆,目前仍然保持著一分鐘內(nèi)吹爆熱水袋最多的這項吉尼斯紀錄。)

這個對話并不是很好。

為了解決這個問題,F(xiàn)acebook的工程師們已經(jīng)建立了他們自己的數(shù)據(jù)集來訓練聊天機器人。它被稱為Persona-Chat,由超過16萬行的對話組成,這些對話來源于亞馬遜的Mechanical Turk(AMT,是一個Web服務(wù)應(yīng)用程序接口(API)它提供了一種標準化的向人類發(fā)布任務(wù)并收集數(shù)據(jù)的方式。這些數(shù)據(jù)可以被用來訓練AI )。

機器人的性格由五句描述組成

Persona-Chat的聰明之處在于,它所包含的閑談并不只是隨機的。為了給數(shù)據(jù)提供一些結(jié)構(gòu),并解決讓聊天機器人具有性格的挑戰(zhàn),AMT的 工作者需要設(shè)計他們自己的角色來引導和機器人的對話。這意味著要提出五種基本的個人陳述,把它們作為談話的話題。例如,一個人的角色是基于以下事實:“我是一個藝術(shù)家。我有四個孩子。我最近養(yǎng)了一只貓。我喜歡步行。我喜歡看《權(quán)力的游戲》?!?/p>

但這只是一個開始。

這些數(shù)據(jù)被用來訓練用于現(xiàn)有聊天機器人的神經(jīng)網(wǎng)絡(luò),然后由另一組AMT進行評估。在每一種情況下,他們被要求與persona驅(qū)動的機器人進行對話,然后把這段對話和與其它機器人和其他人類的對話進行對比。正如你所預(yù)料的那樣,角色機器人在“流暢性”和“一致性”等標準上的得分并不像人類那樣高,但它的表現(xiàn)超過了用電影對白訓練出的聊天機器人。

這里有一個對話的例子。Person 1是人,Person 2是基于persona的聊天機器人(它的主要興趣是“寫言情小說”)。

  • PERSON 1

  • 我剛踢完足球。你最近在忙些什么?

  • PERSON 2

  • 我沒有寵物。我用我的空閑時間寫作。你呢?

  • PERSON 1

  • 我剛從大學畢業(yè)。要找工作。

  • PERSON 2

  • 是的,我畢業(yè)了,在寫作和詩歌方面。

  • PERSON 1

  • 你有發(fā)表過什么東西嗎?

  • PERSON 2

  • 我主要寫小說。

  • PERSON 1

  • 你喜歡看體育比賽嗎?

  • PERSON 2

  • 你喜歡獅子王么?

  • 我最喜歡的就是獅子王中使用“somebody”。

  • PERSON 1

  • 你結(jié)婚了嗎?我很快就要結(jié)婚了。

  • PERSON 2

  • 哈哈,沒時間了。我還有一部小說要寫完。

有趣的是,雖然聊天機器人在流暢性和一致性方面得分很高,但測試者說,他們發(fā)現(xiàn)它與用電影對白訓練出的聊天機器人相比,沒有那么吸引人。Facebook的研究人員對此沒有給出任何解釋,但或許是因為構(gòu)建的人物角色的約束性質(zhì)(每個人只定義了5個傳記式的陳述),這些機器人很快就沒有話題可談了。

盡管如此,研究指出了一些基本常識。如果你想和某人(甚至是虛擬的人)進行一次有趣的對話,如果他們有自己的性格,包括愛好和興趣,那就會對這段對話很有幫助。隨著像Siri和Alexa這樣的虛擬助理越來越融入到我們的生活,我們可以期待他們的創(chuàng)造者給它們塑造屬于它們自己的角色。未來的問題是,我們能和它們愉快相處嗎?

關(guān)注AI商業(yè)報道,回復【2017白皮書】,可獲得人工智能行業(yè)發(fā)展白皮書。

Facebook:讓聊天機器人有“從始至終的性格”可能是關(guān)鍵

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2018-02-05
Facebook:讓聊天機器人有“從始至終的性格”可能是關(guān)鍵
在過去的幾年里,F(xiàn)acebook慢慢地改進了它的人工智能助手所能做的事情,但是他們最近的挑戰(zhàn)讓人感到困惑,那就是“閑聊”。

長按掃碼 閱讀全文