12月19日消息,據(jù)外媒報道,當(dāng)?shù)貢r間周四,OpenAI宣布成立新的Preparedness團隊,該團隊致力于確保前沿人工智能(AI)模型的安全。
今年10月份的時候,OpenAI就宣布,它將組建一個名為Preparedness的新團隊,以評估和減輕與人工智能相關(guān)的“災(zāi)難性風(fēng)險”。
該團隊由麻省理工學(xué)院可部署機器學(xué)習(xí)中心主任亞歷山大·馬德里(Aleksander Madry)領(lǐng)導(dǎo),將幫助跟蹤、評估、預(yù)測和防范由人工智能模型帶來的災(zāi)難性風(fēng)險。
據(jù)外媒報道,OpenAI已放棄尋找信任和安全部門主管戴夫·威爾納(Dave Willner)的繼任者,后者于今年7月辭職。相反,該公司拆分了該部門,成立了三個獨立的團隊來處理人工智能風(fēng)險,這三個團隊分別是“安全系統(tǒng)”(Safety Systems)團隊、“超級對齊(Superalignment)”團隊和Preparedness團隊。
該公司表示,“安全系統(tǒng)”團隊專注于高級人工智能模型和人工通用智能的安全部署,專注于減少對當(dāng)前模型和產(chǎn)品(如ChatGPT)的濫用;“超級對齊”團隊為該公司(希望)在更遙遠的未來擁有的超級智能模型的安全性奠定基礎(chǔ);Preparedness團隊負責(zé)繪制前沿模型的新風(fēng)險,并對前沿模型進行安全評估。
該公司還表示,它將建立一個專門的團隊來監(jiān)督技術(shù)工作,并且將建立一個安全決策的運作結(jié)構(gòu)。Preparedness團隊將推動技術(shù)工作,檢查前沿模型能力的極限,進行評估,并匯總報告。與此同時,該公司將建立一個跨職能的安全咨詢小組,負責(zé)審查所有報告,并將報告同時提交給公司領(lǐng)導(dǎo)層和董事會。雖然領(lǐng)導(dǎo)層是決策者,但董事會有權(quán)推翻決策。
OpenAI是由特斯拉CEO埃隆?馬斯克(Elon Musk)、美國創(chuàng)業(yè)孵化器Y Combinator總裁阿爾特曼、全球在線支付平臺PayPal聯(lián)合創(chuàng)始人彼得·蒂爾等硅谷科技大亨于2015年聯(lián)合創(chuàng)立的一家美國人工智能研究公司,主攻人工智能技術(shù)應(yīng)用領(lǐng)域。
該公司CEO薩姆?奧爾特曼(Sam Altman)是一位著名的人工智能末日預(yù)言家,他經(jīng)常擔(dān)心人工智能“可能導(dǎo)致人類滅絕”。
據(jù)外媒報道,奧爾特曼曾警告過人工智能可能引發(fā)災(zāi)難性事件。今年5月,他和其他著名的人工智能研究人員發(fā)表了一份聲明,稱“減輕人工智能帶來的滅絕性風(fēng)險應(yīng)成為全球優(yōu)先事項”。
今年9月份,OpenAI宣布推出“紅隊網(wǎng)絡(luò)”(Red Teaming Network),并邀請各領(lǐng)域?qū)<壹尤肫洹凹t隊網(wǎng)絡(luò)”,以提高其人工智能模型的安全性。簽約的專家將通過協(xié)助評估和減輕模型風(fēng)險,在增強OpenAI人工智能系統(tǒng)的穩(wěn)健性方面發(fā)揮關(guān)鍵作用。(小狐貍)
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )