近日,人工智能公司DeepSeek在海外社交平臺上發(fā)布了一份技術(shù)論文報告,聚焦于原生稀疏注意力(NSA)機制的研究。該論文引起了業(yè)界的廣泛關(guān)注,不僅因為其研究內(nèi)容的創(chuàng)新性,更因為論文的署名中包含了意外的人物。
論文的第一作者袁景陽是在DeepSeek實習(xí)期間完成了這項研究,這一成果的取得對他個人以及DeepSeek來說都是一大喜訊。令人感到驚喜的是,DeepSeek的創(chuàng)始人梁文鋒也作為著作者之一出現(xiàn)在論文署名中,排名倒數(shù)第二,這一舉動在業(yè)內(nèi)引起了不小的討論。
論文摘要指出,DeepSeek團隊認識到長上下文建模對于下一代大型語言模型的重要性。然而,現(xiàn)有的標(biāo)準注意力機制隨著序列長度的增加,其高復(fù)雜度成為了性能提升的瓶頸。NSA機制的提出,正是為了解決這一問題。
NSA通過高效處理長序列的能力,使模型能夠直接處理如整本書籍、代碼倉庫或長輪對話等大規(guī)模數(shù)據(jù),極大地擴展了大型語言模型在文檔分析、代碼生成、復(fù)雜推理等領(lǐng)域的應(yīng)用范圍。
此外,NSA針對現(xiàn)代硬件的優(yōu)化設(shè)計不僅提高了推理速度,還降低了預(yù)訓(xùn)練的成本,同時保持了模型的性能。在通用基準測試、長文本任務(wù)和基于指令的推理中,NSA的表現(xiàn)均能達到或超越全注意力模型。
DeepSeek團隊認為,稀疏注意力機制為提高模型效率同時保持能力提供了一條有希望的途徑。
根據(jù)公開資料,NSA是一種專為長文本訓(xùn)練與推理設(shè)計的稀疏注意力機制,它通過動態(tài)分層稀疏策略等先進技術(shù),對傳統(tǒng)AI模型的訓(xùn)練和推理過程進行了顯著優(yōu)化。
- 魏牌全新高山重慶挑戰(zhàn)“車位到車位”高階智駕?南山發(fā)卡彎絲滑通過
- IBM亞太區(qū)總經(jīng)理:AI的開源時刻可能是其未來的轉(zhuǎn)折點
- 李想:歡迎拿理想汽車在全國任何地方和特斯拉FSD一起對比,我有信心!
- DeepSeek代碼開源第三彈:DeepGEMM代碼庫,V3/R1的訓(xùn)練推理動力
- 特斯拉FSD入華“水土不服”?馬斯克:通過網(wǎng)絡(luò)視頻學(xué)習(xí)中國路況
- 美光宣布專為下一代 CPU 設(shè)計的1γ DRAM開始出貨
- 全球AI頂會AAAI 2025在美開幕 產(chǎn)學(xué)研聯(lián)手的“中國隊”表現(xiàn)亮眼
- 2025年港股首個現(xiàn)象級IPO來了
- 混合推理+最強編碼能力大模型Claude Sonnet 3.7上線Amazon Bedrock
- 世界第一,阿里云PolarDB云原生數(shù)據(jù)庫登頂TPC-C榜單
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。