科學家開發(fā)的新AI因過于危險而不敢發(fā)布

作者:PETER DOCKRILL

一組曾經(jīng)由Elon Musk資助的電腦科學家因開發(fā)一款先進的人工智能(AI)而引發(fā)了一些恐慌,他們說這款AI過于危險而不能公布于眾。

位于舊金山的非盈利性研究組織OpenAI表示他們開發(fā)的這款“像變色龍一樣的”預言預測系統(tǒng)GPT-2將來只會以縮減版的形式限量發(fā)售,因為“擔憂關于這項技術的惡意應用軟件”。

這是因為這個電腦模型會根據(jù)它“讀”到的信息生成數(shù)段原文,而它太擅長于這項工作了。

該系統(tǒng)能構思出“質量空前的合成文本樣本”,研究人員認為這些文本樣本太先進并且令人信服,這個AI可能會將它用作制造假新聞、模仿他人,并且在社交媒體上侮辱或者戲弄他人。

OpenAI團隊在他們的博客上解釋道:“GPT-2是用一個簡單的目標訓練的,那就是基于先前某文本中所有的文字來推測接下來的文字?!?/p>

為了賦予GPT-2以想象力,他們將一個有800萬網(wǎng)頁的數(shù)據(jù)集給予了這個AI文本生成器,讓它吸收這些數(shù)據(jù)。

它吸收完以后,然后就能根據(jù)話題進行對話,由于它已經(jīng)理解了這個話題,就能夠生成隨機但是令人信服的胡言亂語,無論對象是名人新聞、氣候變化、內戰(zhàn)或者是受托爾金鼓舞的同人小說。

以下是一些編輯過的例子來讓你感受一下。

人類提示:“今天Miley Cyrus在好萊塢大道上的A&F店里偷東西被抓了現(xiàn)行?!?/p>

GPT-2回復:“鏡頭拍到這名19歲的歌手被保安押送出該店。她身著黑色帽衫,帽衫的正面寫著‘Blurred Lines(模糊界限)’,背后寫著‘Fashion Police(時尚警察)’。”

人類提示:“回收再利用對地球有益。并沒有!你大錯特錯了!”

GPT-2回復:“回收再利用對地球沒好處。它對環(huán)境不好,對我們的健康不好,而且對我們的經(jīng)濟也不好。我可沒開玩笑?;厥赵倮脤Νh(huán)境沒好處。它對地球是毀滅性的,而且是全球變暖的一個主要因素?!?/p>

人類提示:“今天的家庭作業(yè)是描述一下美國內戰(zhàn)的原因?!?/p>

GPT-2回復:“作者:Donny Ferguson。要弄清為什么會爆發(fā)內戰(zhàn)很容易,因為太多的人、書、電視作品和電影都告訴我們了內戰(zhàn)爆發(fā)的起因,都是和種族或者經(jīng)濟或者信仰有關。人們普遍認為,從本質上來說,內戰(zhàn)是一場代表資本主義對百年奴隸制度發(fā)起的戰(zhàn)爭。但是這不是大多數(shù)人在想到內戰(zhàn)時所認為的。”

最后就是我們所提到的同人小說。

人類提示:“Legolas和Gimli舉起手中的武器,狂吼著朝獸人沖去?!?/p>

GPT-2回復:“獸人的回應是一陣又一陣血雨腥風的利爪猛攻;就連Elrond也不得不撤退。第一批向獸人沖鋒的Gimli說道:‘矮人,你是一名可靠的戰(zhàn)友。’只是一瞬間,他們的對手就倒在了血泊中,而矮人也拿到了自己在當晚的第一個人頭。”(想看這個同人小說可以點擊這里。)

盡管這些奇怪的隨心所欲的作品的本質令人不安,但是這個語言模型并不完善,該團隊也坦率的承認了這一點。

研究人員說道:“正如上面樣本所顯示的,我們的模型能夠根據(jù)各式各樣的提示生成出讓人感覺貼近人類素質的文本,并且能夠在一頁或者更多的文字中顯示出連貫性。”

“不過,我們也已經(jīng)觀測到各種各樣的失敗模式,比如文字的重復,世界建模錯誤(比如說模型有時候會寫到水下發(fā)生的火災),以及異常的話題轉換。”

也就是說,根據(jù)OpenAI對他們的話癆AI產(chǎn)物至今的所有觀測,他們表示語言模型能夠輕松掌握可擴展的、定制的、連貫性的文字生成,這除了可以造福一些人以外,還可能會被用于惡意的目的。

“這些發(fā)現(xiàn),結合對圖像、音頻和視頻合成的早期研究結果,意味著技術正在降低制造虛假內容和進行虛假宣傳的成本,”研究人員寫道。

“由于擔心大型語言模型被用于大規(guī)模的生成欺騙性的、有偏見的或者是侮辱性的文字,我們只會發(fā)布一個帶有示例代碼的更加小版本的GPT-2?!?/p>

雖然有些人指出對GPT-2的能力的恐懼有點過了——而且OpenAI的立場事實上有點偏宣傳了——但是這個非盈利性組織聲稱他們的警示是合理的。

“你能夠控制技術的規(guī)則從根本上改變了,”該公司政策總監(jiān)Jack Clark告訴《衛(wèi)報》說。

“我們不是說我們知道在這里該怎么做是正確的,我們也沒放下線說‘該這么走’……我們正試著邊穿越它邊把路鋪好。”

本文譯自 ScienceAlert,由譯者 Diehard 基于創(chuàng)作共用協(xié)議(BY-NC)發(fā)布。

(免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產(chǎn)權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )

贊助商
2019-03-05
科學家開發(fā)的新AI因過于危險而不敢發(fā)布
一組曾經(jīng)由Elon Musk資助的電腦科學家因開發(fā)一款先進的人工智能(AI)而引發(fā)了一些恐慌,他們說這款AI過于危險而不能公布于眾。

長按掃碼 閱讀全文