“AI教父”警告:開源大型語言模型可能會(huì)讓AI變得更加危險(xiǎn)

極客網(wǎng)·人工智能5月31日 在開發(fā)神經(jīng)網(wǎng)絡(luò)方面做出重大貢獻(xiàn)而被譽(yù)為“AI教父”的谷歌前副總裁Geoffrey Hinton日前表示,開源大型語言模型(LLM)可能會(huì)使AI變得更加危險(xiǎn),因?yàn)?a href="http://m.ygpos.cn/AI_1.html" target="_blank" class="keylink">AI技術(shù)的代碼在網(wǎng)上免費(fèi)提供,更有可能被居心不良的人所利用。 

image001.png近幾個(gè)月來,世界各地的AI實(shí)驗(yàn)室開發(fā)了多個(gè)大型語言模型

開源大型語言模型可能帶來的問題 

OpenAI的GPT-4或谷歌的PaLM等大型語言模型為ChatGPT等生成式AI系統(tǒng)提供技術(shù)支撐。近幾個(gè)月來,ChatGPT等AI系統(tǒng)在企業(yè)和消費(fèi)者中迅速普及,這些工具能夠在幾秒鐘內(nèi)自動(dòng)生成詳細(xì)的圖像和文本,這對(duì)許多行業(yè)來說可能是革命性的技術(shù),但AI模型的封閉性以及高昂的開發(fā)成本,意味著用戶采用這些系統(tǒng)面臨高昂的成本。 

為此許多人認(rèn)為,大型語言模型可以提供更具成本效益的替代方案,特別是對(duì)于希望利用AI的力量并使用ChatGPT等工具的中小公司,開源正是其中的一個(gè)方案。 

但Hinton認(rèn)為,不斷發(fā)展和增長(zhǎng)的大型語言模型可能會(huì)帶來問題。Hinton于上個(gè)月辭去了在谷歌的職位,聲稱這樣他就可以自由地表達(dá)自己對(duì)AI發(fā)展的擔(dān)憂。 

Hinton日前在劍橋大學(xué)生存風(fēng)險(xiǎn)研究中心發(fā)表演講時(shí)說:“開源大型語言模型的危險(xiǎn)在于,它使更多的瘋子能夠用AI做瘋狂的事情?!?nbsp;

把大型語言模型“關(guān)進(jìn)籠子”可能是有益的

Hinton認(rèn)為,大型語言模型繼續(xù)局限在OpenAI等公司的實(shí)驗(yàn)室開發(fā),可能最終證明是有益的。

他表示,“如果這些AI技術(shù)是危險(xiǎn)的,那么最好由幾個(gè)不同國(guó)家的幾家大公司來開發(fā),同時(shí)找到控制它的方法。一旦開源了代碼,有些人就會(huì)開始用它做各種瘋狂的事情。” 

Hinton在演講中稱,相信GPT-4已經(jīng)顯示出智慧涌現(xiàn)的跡象。他重申了自己的信念,即所謂的超級(jí)智能AI的能力超越人類智能的時(shí)刻已經(jīng)不遠(yuǎn)了。

“這些AI系統(tǒng)將變得比我們更聰明,這可能很快就會(huì)發(fā)生。我過去認(rèn)為這可能50到100年之后發(fā)生的事情,但現(xiàn)在我認(rèn)為可能是未來5到20年。如果它將在5年內(nèi)發(fā)生,我們不能讓哲學(xué)家來決定該怎么做,而是需要有實(shí)踐經(jīng)驗(yàn)的人員來說決定。”他強(qiáng)調(diào)。 

他補(bǔ)充說,“關(guān)于如何處理AI,我希望有一個(gè)簡(jiǎn)單的答案。我認(rèn)為最好的一個(gè)辦法是,AI開發(fā)商在開發(fā)AI模型時(shí),應(yīng)該必須投入大量人力和資源來檢查它們的安全性。我們需要獲得這些方面的經(jīng)驗(yàn),了解它們可能會(huì)如何失控,以及如何控制它們?!?nbsp;

Hinton原來所在的谷歌旗下AI實(shí)驗(yàn)室DeepMind于5月26日表示,該公司已經(jīng)開發(fā)出一個(gè)早期預(yù)警系統(tǒng),可以發(fā)現(xiàn)AI帶來的潛在風(fēng)險(xiǎn)。

一些大型語言模型已經(jīng)開源并產(chǎn)品化

如今有一些大型語言模型已經(jīng)發(fā)布在網(wǎng)上,特別是今年3月Meta的大型語言模型LLaMa的源代碼,已被泄露到網(wǎng)上。 

軟件供應(yīng)商也試圖從企業(yè)對(duì)可安裝的、有針對(duì)性的、個(gè)性化的大型語言模型日益增長(zhǎng)的需求中獲利。今年4月,Databricks發(fā)布了一個(gè)名為Dolly2.0的大型語言模型,將其標(biāo)榜為第一個(gè)指定用于商業(yè)用途的開源、遵循指令的大型語言模型,聲稱其具有類似ChatGPT的功能,并且可以在企業(yè)內(nèi)部運(yùn)行。 

開源模型的支持者表示,它們有可能使ChatGPT等AI系統(tǒng)的使用“民主化”。本月早些時(shí)候,軟件開發(fā)人員Keerthana Gopalakrishnan在接受媒體采訪時(shí)表示:“我認(rèn)為降低實(shí)驗(yàn)的進(jìn)入門檻很重要。有很多人對(duì)這項(xiàng)技術(shù)感興趣,他們真的希望通過AI進(jìn)行創(chuàng)新。”

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2023-05-31
“AI教父”警告:開源大型語言模型可能會(huì)讓AI變得更加危險(xiǎn)
谷歌前副總裁Geoffrey Hinton日前表示,開源大型語言模型(LLM)可能會(huì)使AI變得更加危險(xiǎn),因?yàn)锳I技術(shù)的代碼在網(wǎng)上免費(fèi)提供,更有可能被居心不良的人所利用。

長(zhǎng)按掃碼 閱讀全文