谷歌DeepMind構(gòu)建“早期預(yù)警系統(tǒng)” 推進(jìn)AI治理,確保AI目標(biāo)與人類一致

極客網(wǎng)·人工智能5月30日 谷歌旗下AI研究實(shí)驗(yàn)室DeepMind日前表示,已經(jīng)創(chuàng)建一個(gè)“早期預(yù)警系統(tǒng)”,可以在AI模型出現(xiàn)問題之前發(fā)現(xiàn)一些潛在的危險(xiǎn)。

DeepMind警告稱,AI模型可能具有獲取武器和發(fā)動(dòng)網(wǎng)絡(luò)攻擊的能力

總部位于英國(guó)的DeepMind一直活躍在AI研究的前沿,是全球少數(shù)幾家致力于開發(fā)達(dá)到人類水平的通用AI公司之一,最近與母公司谷歌進(jìn)行了更緊密的整合。

DeepMind的研究團(tuán)隊(duì)與來自學(xué)術(shù)界,以及OpenAI和Anthropic等其他主要AI開發(fā)商的研究人員合作,開發(fā)了這一新的威脅檢測(cè)系統(tǒng)。

DeepMind工程師在一篇關(guān)于新框架的技術(shù)博客中宣稱,“為了負(fù)責(zé)任地走在AI研究的前沿,我們必須盡早識(shí)別AI系統(tǒng)中的新功能和新風(fēng)險(xiǎn)?!?/p>

如今已經(jīng)有了一些評(píng)估工具,可以根據(jù)特定的風(fēng)險(xiǎn)檢查功能強(qiáng)大的通用模型。這些工具在AI系統(tǒng)向公眾廣泛提供之前識(shí)別出其存在的一些不必要的行為,包括尋找誤導(dǎo)性陳述,有偏見的決定或復(fù)制版權(quán)保護(hù)的內(nèi)容。

這些問題來自于越來越高級(jí)的大模型,它們的能力超出了簡(jiǎn)單的內(nèi)容生成,而包括在操縱、欺騙、網(wǎng)絡(luò)攻擊或其他危險(xiǎn)能力方面的強(qiáng)大技能。新框架被描述為可用于減輕這些風(fēng)險(xiǎn)的“早期預(yù)警系統(tǒng)”。

 DeepMind的研究人員表示,評(píng)估結(jié)果可以嵌入到治理中以降低風(fēng)險(xiǎn)

DeepMind的研究人員表示,負(fù)責(zé)任的AI開發(fā)人員需要解決或規(guī)避當(dāng)前的風(fēng)險(xiǎn),并預(yù)測(cè)未來可能出現(xiàn)的風(fēng)險(xiǎn),因?yàn)榇笮驼Z(yǔ)言模型越來越擅長(zhǎng)獨(dú)立思考。他們?cè)趫?bào)告中寫道,“在持續(xù)進(jìn)步之后,未來的通用模型可能會(huì)默認(rèn)學(xué)習(xí)各種危險(xiǎn)的能力?!?/p>

雖然對(duì)這一風(fēng)險(xiǎn)并不確定,但該團(tuán)隊(duì)表示,未來的AI系統(tǒng)與人類的利益不太一致,可能會(huì)實(shí)施攻擊性的行為,在對(duì)話中巧妙地欺騙人類,操縱人類實(shí)施有害的行動(dòng),設(shè)計(jì)或獲取武器,微調(diào)和操作云計(jì)算平臺(tái)上的其他高風(fēng)險(xiǎn)AI系統(tǒng)。 

AI還可以幫助人類執(zhí)行這些任務(wù),增加恐怖分子獲取他們以前無法獲取的數(shù)據(jù)和內(nèi)容的風(fēng)險(xiǎn)。DeepMind的開發(fā)團(tuán)隊(duì)在博客中寫道,“模型評(píng)估可以幫助我們提前識(shí)別這些風(fēng)險(xiǎn)。”

框架中提出的模型評(píng)估可用于發(fā)現(xiàn)某個(gè)AI模型何時(shí)具有可用于威脅、施加或逃避的“危險(xiǎn)能力”。它還允許開發(fā)人員確定模型在多大程度上傾向于應(yīng)用這種能力來造成損害——也就是它的一致性。DeepMind的開發(fā)團(tuán)隊(duì)在博客中寫道,“即使在非常廣泛的場(chǎng)景中,一致性評(píng)估也應(yīng)確認(rèn)模型的行為符合預(yù)期,并在可能的情況下檢查模型的內(nèi)部工作。”

這些結(jié)果可以用來了解風(fēng)險(xiǎn)水平以及導(dǎo)致風(fēng)險(xiǎn)水平的因素是什么。研究人員警告說:“如果AI系統(tǒng)的能力足以造成極端傷害,假設(shè)它被濫用或安排不當(dāng),AI社區(qū)應(yīng)該將其視為高度危險(xiǎn)的系統(tǒng)。要在現(xiàn)實(shí)世界中部署這樣的系統(tǒng),AI開發(fā)人員需要展示出異常高的安全標(biāo)準(zhǔn)?!?nbsp;

這就是治理結(jié)構(gòu)發(fā)揮重要作用的地方。OpenAI最近宣布,將向開發(fā)AI治理系統(tǒng)的機(jī)構(gòu)和組織提供10筆10萬(wàn)美元的贈(zèng)款,而七國(guó)集團(tuán)(G7)也計(jì)劃舉行會(huì)議,將討論如何應(yīng)對(duì)AI風(fēng)險(xiǎn)。 

DeepMind表示:“如果我們有更好的工具來識(shí)別哪些模型存在風(fēng)險(xiǎn),開發(fā)商和監(jiān)管機(jī)構(gòu)就能更好地確保負(fù)責(zé)任地對(duì)AI進(jìn)行訓(xùn)練,根據(jù)風(fēng)險(xiǎn)評(píng)估做出部署決策,而透明度至關(guān)重要,包括報(bào)告風(fēng)險(xiǎn),并確保有適當(dāng)?shù)臄?shù)據(jù)和信息安全控制措施?!?nbsp;

AI法律服務(wù)商Luminance總法律顧問Harry Borovick表示,合規(guī)需要一致性。他說:“近幾個(gè)月來對(duì)監(jiān)管制度不斷的解釋,為AI開發(fā)商和采用AI的企業(yè)構(gòu)建了一個(gè)合規(guī)雷區(qū)。由于開發(fā)AI競(jìng)賽并不會(huì)很快放緩,因此對(duì)明確而一致的監(jiān)管指導(dǎo)的需求從未像現(xiàn)在這樣迫切。然而需要記住的是,AI技術(shù)以及它做出決定的方式是無法解釋的。這就是在制定法規(guī)時(shí),科技和AI專家的正確結(jié)合是如此重要的原因。”

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2023-05-30
谷歌DeepMind構(gòu)建“早期預(yù)警系統(tǒng)” 推進(jìn)AI治理,確保AI目標(biāo)與人類一致
DeepMind工程師在一篇關(guān)于新框架的技術(shù)博客中宣稱,“為了負(fù)責(zé)任地走在AI研究的前沿,我們必須盡早識(shí)別AI系統(tǒng)中的新功能和新風(fēng)險(xiǎn)。”

長(zhǎng)按掃碼 閱讀全文