Meta發(fā)布Megabyte AI模型:訓練速度更快

5月31日消息,近日 Meta 團隊開發(fā)了一款名為 Megabyte 的 AI 模型以抗衡 Transformer,據(jù)稱解決了后者所面臨的問題,并且在速度上提升了 40%。

目前 Transformer 在自然語言處理等領域非常流行,但由于其序列數(shù)據(jù)的處理方式是逐步進行的,無法并行化處理,因此訓練速度較慢; 難以處理長序列,因為其在反向傳播過程中,梯度很容易消失或爆炸;此外,由于需要在每一步保留歷史信息,內存消耗較大。

而 Megabyte 模型將輸入和輸出序列劃分為 patch,而不是單個的 token。這種架構使得對大多數(shù)任務而言字節(jié)級別的預測相對容易,例如根據(jù)前幾個字符預測完成的單詞等。

這意味著在大型網(wǎng)絡中可以精簡字符以提升效率,并且內部預測可以使用更小的模型進行。Megabyte 模型的這種方法解決了當今 AI 模型所面臨的訓練速度、可靠性及硬件占用比挑戰(zhàn)。

此外,在計算效率方面,相比于等大的 Transformer,Megabyte 模型在固定模型大小和序列長度范圍內使用更少的 token。因此可以在相同的計算成本下訓練內容更豐富、體積更大、性能更好的模型。

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產(chǎn)權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2023-05-31
Meta發(fā)布Megabyte AI模型:訓練速度更快
使用更少的 token。

長按掃碼 閱讀全文