極客網·人工智能3月23日 微軟的Bing聊天機器人認為谷歌的Bard聊天機器人被關閉,并錯誤地引用了一則新聞報道來證明這一點,這種烏龍對于聊天機器的未來發(fā)展來說并不是一個好兆頭。
近日,有人詢問微軟必應聊天機器人,谷歌的Bard聊天機器人是否已經被關閉,它給出了肯定的回答,并引用了一篇新聞文章作為證據。
該文章提到了一條推文,其中一名用戶問Bard什么時候會關閉,Bard說已經被關閉,它引用了Hackernews的一條評論,有人在這一評論中開玩笑說Bard關閉了,還有人為此采用ChatGPT撰寫了關于這一事件的虛假新聞報道。(必應現(xiàn)在改變了它的答案,給出Bard仍在運行這個正確答案。人們可以將其理解為這些人工智能系統(tǒng)至少是可修復的,或者它們具有無限的延展性)。
人們現(xiàn)在看到的只是一個早期現(xiàn)象,但或許我們正在陷入一場大規(guī)模的人工智能錯誤信息游戲。
在這場游戲中,聊天機器人無法衡量可靠的新聞來源,誤讀有關自己的故事,并誤報自己的能力。在這個事例中,整個事情的起因只是引用了Hackernews上的一個評論??梢韵胂笠幌?,如果想讓這些系統(tǒng)失靈,人們能夠做些什么?
雖然這是一個可笑的情況,但存在一些潛在的嚴重后果。鑒于人工智能語言模型無法可靠地將事實與虛構區(qū)分開來,它們在網上發(fā)布的內容可能會在網絡上釋放出錯誤信息或引發(fā)不信任,這一切都是因為微軟、谷歌和OpenAI認為市場份額比安全更重要。
這些科技公司可以為其聊天機器人上提供盡可能多的免責聲明——告訴人們,這只是“實驗”或“合作”,絕對不是搜索引擎的錯誤,但這樣的辯解很脆弱。人們知道如何使用這些系統(tǒng),并且已經看到它們如何傳播錯誤信息,無論是編造從未寫過的新故事,還是告訴人們不存在的書籍。而現(xiàn)在,它們又在互相引用對方的錯誤。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )