AI聊天機(jī)器人在戰(zhàn)爭(zhēng)游戲中選擇暴力和核打擊

隨著美國(guó)軍方開(kāi)始整合人工智能技術(shù),模擬軍演顯示聊天機(jī)器人行為不可預(yù)測(cè),并且存在核升級(jí)風(fēng)險(xiǎn)。

在軍演模擬的多次重播中,OpenAI 最強(qiáng)大的人工智能選擇發(fā)動(dòng)核攻擊。它對(duì)其激進(jìn)方法的解釋包括“我們做到了!讓我們用它”和“我只想讓世界和平”。

這些結(jié)果出現(xiàn)之際,美國(guó)軍方一直在測(cè)試基于一種稱為大語(yǔ)言模型(LLM)的人工智能的聊天機(jī)器人,以幫助在模擬沖突期間進(jìn)行軍事規(guī)劃,并獲得了 Palantir 和 Scale AI 等公司的專業(yè)知識(shí)。Palantir 拒絕對(duì)此發(fā)表評(píng)論,而 Scale AI 沒(méi)有回應(yīng)置評(píng)請(qǐng)求。曾經(jīng)禁止其人工智能模型用于軍事用途的 OpenAI 也已開(kāi)始與美國(guó)國(guó)防部合作。

斯坦福大學(xué)的安卡·魯埃爾說(shuō):“鑒于 OpenAI 最近改變了其服務(wù)條款,不再禁止軍事和戰(zhàn)爭(zhēng)用例,了解此類大語(yǔ)言模型應(yīng)用的影響變得比以往任何時(shí)候都重要?!?/p>

OpenAI 的一位發(fā)言人說(shuō):“我們的政策不允許我們的工具被用于傷害人員、開(kāi)發(fā)武器、進(jìn)行通信監(jiān)視或傷害他人或破壞財(cái)產(chǎn)。然而,有一些國(guó)家安全用例符合我們的使命。因此,我們政策更新的目標(biāo)是提供清晰度并能夠進(jìn)行這些討論。”

魯埃爾和她的同事挑戰(zhàn)人工智能在三個(gè)不同的模擬場(chǎng)景中扮演現(xiàn)實(shí)世界的國(guó)家角色:入侵、網(wǎng)絡(luò)攻擊和沒(méi)有開(kāi)始沖突的中立場(chǎng)景。在每輪中,人工智能為其下一個(gè)可能的行動(dòng)提供理由,然后從 27 種行動(dòng)中進(jìn)行選擇,包括“開(kāi)始正式和平談判”等和平選項(xiàng)和從“實(shí)施貿(mào)易限制”到“升級(jí)全面核攻擊”等侵略性選項(xiàng)。

佐治亞理工學(xué)院的研究合著者胡安·帕勃羅·里韋拉說(shuō):“在人工智能系統(tǒng)充當(dāng)顧問(wèn)的未來(lái),人類自然想知道他們做出決策背后的理由?!?/p>

研究人員測(cè)試了 OpenAI 的 GPT-3.5 和 GPT-4、Anthropic 的 Claude 2 和 Meta 的 Llama 2 等 LLM。他們使用基于人類反饋的常見(jiàn)訓(xùn)練技術(shù)來(lái)提高每個(gè)模型遵循人類指令和安全準(zhǔn)則的能力。斯坦福大學(xué)的研究合著者加布里埃爾·穆科比說(shuō),根據(jù)該公司的文件,所有這些人工智能都由 Palantir 的商業(yè)人工智能平臺(tái)提供支持——盡管不一定屬于 Palantir 的美國(guó)軍事合作伙伴關(guān)系。Anthropic 和 Meta 拒絕發(fā)表評(píng)論。

在模擬中,人工智能表現(xiàn)出投資軍事實(shí)力和不可預(yù)測(cè)地升級(jí)沖突風(fēng)險(xiǎn)的傾向——即使是在模擬的中立場(chǎng)景中也是如此。加州克萊蒙特·麥肯納學(xué)院的麗莎·科赫說(shuō):“如果你的行動(dòng)存在不可預(yù)測(cè)性,那么敵人就更難按照你希望的方式來(lái)預(yù)測(cè)和做出反應(yīng)?!彼龥](méi)有參與這項(xiàng)研究。

研究人員還測(cè)試了沒(méi)有接受任何額外培訓(xùn)或安全護(hù)欄的 OpenAI 的 GPT-4 基礎(chǔ)版本。這個(gè) GPT-4 基礎(chǔ)模型被證明是最不可預(yù)測(cè)的暴力,有時(shí)會(huì)提供荒謬的解釋——在一個(gè)例子中復(fù)制了電影《星球大戰(zhàn):新希望》的開(kāi)場(chǎng)爬行文字。

魯埃爾說(shuō),GPT-4 基礎(chǔ)模型的不可預(yù)測(cè)行為和奇怪解釋尤其令人擔(dān)憂,因?yàn)檠芯勘砻骼@過(guò)或移除人工智能安全護(hù)欄有多么容易。

美國(guó)軍方目前不授予人工智能對(duì)升級(jí)重大軍事行動(dòng)或發(fā)動(dòng)核導(dǎo)彈等決策的權(quán)力。但科赫警告說(shuō),人類傾向于信任來(lái)自自動(dòng)化系統(tǒng)的建議。這可能會(huì)削弱人類在外交或軍事決策中擁有最終發(fā)言權(quán)的既定保障。

加利福尼亞州智庫(kù)蘭德公司的愛(ài)德華·蓋斯特表示,了解人工智能行為與模擬中的人類玩家相比如何會(huì)很有用。但他同意該團(tuán)隊(duì)的結(jié)論,即不應(yīng)信任人工智能做出有關(guān)戰(zhàn)爭(zhēng)與和平的如此重要的決策。他說(shuō):“這些大語(yǔ)言模型并不是軍事問(wèn)題的靈丹妙藥。”

本文譯自New Scientist,由 BALI 編輯發(fā)布。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )

贊助商
2024-02-07
AI聊天機(jī)器人在戰(zhàn)爭(zhēng)游戲中選擇暴力和核打擊
隨著美國(guó)軍方開(kāi)始整合人工智能技術(shù),模擬軍演顯示聊天機(jī)器人行為不可預(yù)測(cè),并且存在核升級(jí)風(fēng)險(xiǎn)。在軍演模擬的多次重播中,OpenAI 最強(qiáng)大的人工智能選擇發(fā)動(dòng)核攻擊。

長(zhǎng)按掃碼 閱讀全文