9月20日消息,據(jù)外媒報道,美國人工智能研究公司OpenAI宣布推出“紅隊網(wǎng)絡”(Red Teaming Network),并邀請各領域專家加入其“紅隊網(wǎng)絡”,以提高其人工智能(AI)模型的安全性。
OpenAI的這一舉措旨在深化和擴大其與外部專家的合作,以確保其人工智能模型的可靠性和安全性。簽約的專家將通過協(xié)助評估和減輕模型風險,在增強OpenAI人工智能系統(tǒng)的穩(wěn)健性方面發(fā)揮關鍵作用。
盡管OpenAI之前通過漏洞賞金計劃和研究人員訪問計劃與外部專家合作,但新推出的“紅隊網(wǎng)絡”將這些努力正式化。
OpenAI表示,“紅隊網(wǎng)絡”是一個由經(jīng)驗豐富且值得信賴的專家組成的社區(qū),可以幫助公司更廣泛地進行風險評估,而不是在主要模型部署之前進行一次性參與和選擇過程。
據(jù)報道,“紅隊”在識別人工智能系統(tǒng)中的偏見和評估安全過濾器方面發(fā)揮著至關重要的作用,已經(jīng)成為人工智能模型開發(fā)過程中的關鍵一步,尤其是在生成式技術得到更廣泛采用的情況下。
OpenAI向不同領域的專家發(fā)出邀請,包括具有語言學、生物識別、金融和醫(yī)療保健背景的專家。該公司強調(diào)了各種專業(yè)知識對人工智能評估的重要性,包括但不限于認知科學、法律、網(wǎng)絡安全、經(jīng)濟學和醫(yī)療保健等領域。(小狐貍)
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )