多名OpenAI和谷歌DeepMind前員工現(xiàn)員工警告AI風險 呼吁保護風險吹哨人

6月5日消息,據(jù)外媒報道,在馬斯克、蘋果聯(lián)合創(chuàng)始人斯蒂夫?沃茲尼亞克在內(nèi)的上千名知名人士簽署公開信,呼吁AI實驗室暫停訓練更強大的模型6個月,以便制定并落實相關的安全協(xié)議一年多之后,人工智能領域再次出現(xiàn)了公開信,警告先進人工智能的風險,表達了對當前人工智能公司缺乏監(jiān)管的擔憂,呼吁完善風險舉報措施并采取措施保護為風險發(fā)聲的人。

從外媒的報道來看,人工智能領域新出現(xiàn)的公開信,是由多名OpenAI和谷歌DeepMind前員工和現(xiàn)員工聯(lián)名簽署發(fā)布,OpenAI和谷歌DeepMind是當前在人工智能研發(fā)方面走在行業(yè)前列的廠商。

公開信的署名信息顯示,共有13名這兩家公司的前員工和現(xiàn)員工參與,包括5名OpenAI前員工,6名OpenAI現(xiàn)員工,1名谷歌DeepMind現(xiàn)員工和1名谷歌DeepMind前員工,其中谷歌DeepMind的這名現(xiàn)員工,是Anthropic的前員工。但可能是出于相關保密協(xié)議方面的限制,參與發(fā)布公開信的6名OpenAI現(xiàn)員工,是匿名參加,其他人都是公開署名。

在公開信中,這些員工表示他們相信人工智能技術給人類帶來前所未有的福祉的潛力,但也認為要看到這些技術帶來的嚴重風險,包括進一步加劇現(xiàn)有的不平等,助長操控和虛假信息傳播,失控的自主人工智能系統(tǒng)可能導致人類滅絕等。對于風險,他們在信中是表示人工智能公司自身、全球多國的監(jiān)管機構(gòu)、人工智能方面的專家,都已意識到。

但這些員工在公開信中表示,掌握大量系統(tǒng)能力和局限性、保護措施充分性、不同類型傷害風險水平等非公開信息的人工智能公司,只有很微弱的義務同政府部門分享其中的部分信息,沒有義務與社會公眾分享,他們認為不能指望相關的公司自愿分享。

在署名的公開信中,OpenAI和谷歌DeepMind的前員工及現(xiàn)員工,希望在科學界、決策者和公眾的充分指導和監(jiān)督下,人工智能方面的風險能得到有效化解,但他們也認為人工智能公司有強大的經(jīng)濟利益動機避免有效的監(jiān)管,定制的公司治理結(jié)構(gòu)也不足以改變這一點。

OpenAI和谷歌DeepMind的這些前員工和現(xiàn)員工在公開信中表示,在缺乏有效政府機構(gòu)監(jiān)管的情況下,人工智能公司的前員工和現(xiàn)員工,就會成為少數(shù)對公眾負責的人,但廣泛的保密協(xié)議限制了他們?yōu)轱L險方面的擔憂發(fā)聲,一般的舉報人保護措施也遠遠不夠,因為公司關注的是非法活動,而他們擔憂的風險中,很多還未得到有效監(jiān)管。另外,簽署公開信的這些員工也提到,行業(yè)內(nèi)的一些過往案件,使他們中的部分人有理由擔憂各種形式的報復,他們也不是第一批遇到或探討這些問題的人。

為了避免對人工智能風險發(fā)聲的現(xiàn)員工和前員工進行報復,OpenAI和谷歌DeepMind的這些前員工和現(xiàn)員工在公開信中,呼吁頂尖的人工智能公司做出承諾,采取措施保護為人工智能風險發(fā)聲的員工。

在公開信中,OpenAI和谷歌DeepMind的前員工和現(xiàn)員工提到的措施包括4項:

第一項是公司不簽訂或執(zhí)行任何禁止對風險相關問題進行貶低或批評的協(xié)議,也不通過既得經(jīng)濟利益阻礙來報復與風險相關的批評。

第二項則是人工智能公司推動可驗證的匿名流程,讓現(xiàn)員工和前員工向公司董事會、監(jiān)管機構(gòu)和具有專業(yè)知識的合適獨立機構(gòu)提出與風險相關的擔憂。

第三項是公司支持公開批評的文化,允許現(xiàn)員工和前員工在商業(yè)機密和其他知識產(chǎn)權得到適當保護的情況下,向公眾、董事會、監(jiān)管機構(gòu)、合適的獨立組織等,提出與技術風險相關的擔憂。

第四項則是在其他程序失敗后,公司不對公開風險相關機密信息的現(xiàn)員工和前員工進行報復。不過他們也同意在報告風險相關的擔憂時盡力避免不必要的機密信息泄漏,在有足夠的程序能匿名向公司董事會、監(jiān)管機構(gòu)等提出擔憂的情況下,他們也接受最初通過程序表達他們的擔憂,但在相關的程序不存在的情況下,現(xiàn)員工和前員工就應該保留向公眾報告他們的擔憂的自由。

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )

贊助商
2024-06-05
多名OpenAI和谷歌DeepMind前員工現(xiàn)員工警告AI風險 呼吁保護風險吹哨人
在馬斯克、沃茲尼亞克在內(nèi)的上千名頂尖人士簽署公開信,呼吁AI實驗室暫停訓練更強大的模型6個月,以便制定并落實相關的安全協(xié)議一年多之后,人工智能領域再次出現(xiàn)了公開

長按掃碼 閱讀全文