3月15日消息,美國當?shù)貢r間周二,人工智能研究公司OpenAI發(fā)布了其下一代大型語言模型GPT-4,這是其支持ChatGPT和新必應(yīng)等應(yīng)用程序的最新AI大型語言模型。該公司表示,該模型在許多專業(yè)測試中的表現(xiàn)超出了“人類水平”。
OpenAI聲稱,ChatGPT-4比迭代前的GPT-3.5更大,這意味著它接受了更多的數(shù)據(jù)訓練,模型文件中有更多的權(quán)重(參數(shù)),這也使得它的運行成本更高。該公司聲稱,該模型“比以往任何時候都更具創(chuàng)造性和協(xié)作性”,“可以更準確地解決難題”。它可以解析文本和圖像輸入,盡管它只能通過文本進行響應(yīng)。
目前,該領(lǐng)域的許多研究人員認為,AI最近取得的許多進步來自于在數(shù)千臺超級計算機上運行越來越大的模型,訓練過程可能耗資數(shù)千萬美元。GPT-4就是以“擴大規(guī)?!睘橹行囊赃_到更好結(jié)果的例證。
OpenAI承認,該公司使用了微軟云計算平臺Azure來訓練其模型,微軟已經(jīng)向OpenAI投資了數(shù)十億美元。OpenAI以競爭為由,沒有公布具體的模型大小或用于訓練它的硬件等細節(jié),這些細節(jié)可以用來重建模型。
OpenAI的GPT大型語言模型支持許多AI演示,這些演示在過去六個月里始終令科技行業(yè)的人們驚嘆不已,包括必應(yīng)的AI聊天機器人和ChatGPT。
ChatGPT-4是對語言模型取得最新進展的預(yù)覽,這些新進展可能會在未來幾周開始向下滲透到聊天機器人等消費產(chǎn)品中。微軟周二表示,必應(yīng)的AI聊天機器人使用GPT-4模型。
OpenAI聲稱,新模型將產(chǎn)生更少的事實錯誤答案,更少偏離話題,更少談?wù)摫唤沟脑掝},甚至在許多標準化考試中表現(xiàn)得比人類更好。
該公司舉例說,GPT-4在模擬律師考試中的成績在所有考生中列于前10%,在SAT閱讀考試中進入了前7%,在SAT數(shù)學考試中進入前11%。
然而,OpenAI警告說,新模型還不夠完美,在許多情況下它的能力不如人類。例如,GPT-4仍然存在所謂的“幻覺”或編造故事等問題,而且在事實上并不可靠。當它犯錯的時候,它仍然傾向于堅持自己是正確的。OpenAI首席執(zhí)行官薩姆·阿爾特曼(Sam Altman)在推特上表示,GPT-4“仍然有缺陷,有很大局限性”,但“它在首次使用時仍然能給你留下深刻印象?!?/p>
OpenAI在博客文章中表示:“GPT-4仍有許多已知的局限性,我們正在努力解決,如社交偏見、幻覺和敵意回復(fù)等。在一次隨意的談話中,GPT-3.5和GPT-4之間的區(qū)別很小。而當任務(wù)的復(fù)雜性達到足夠的閾值時,差異就會顯現(xiàn)出來:GPT-4比GPT-3.5更可靠、更有創(chuàng)造力,并且能夠處理更多細微差別的指令?!?/p>
OpenAI表示,該公司已經(jīng)與多家公司合作以將GPT-4整合到他們的產(chǎn)品中,包括Duolingo、Stripe和Khan Academy等。這款新模型通過OpenAI每月20美元的ChatGPT訂閱服務(wù)ChatGPT Plus向用戶開放,并為微軟的必應(yīng)聊天機器人提供動力。同時,GPT-4也將作為API的一部分提供,該API允許程序員將AI集成到自己的應(yīng)用程序中。(小?。?/p>
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )