云天勵飛DeepEdge10實現(xiàn)DeepSeek來源項目FlashMLA適配,打造國產(chǎn)大模型算力新底座

2月24日,DeepSeek"開源周"正式啟動,并發(fā)布首個代碼庫FlashMLA,引發(fā)全球關注。

FlashMLA是針對英偉達Hopper GPU優(yōu)化的高效MLA解碼內(nèi)核,專為可變長度序列優(yōu)化設計,是DeepSeek高效使用算力的核心程序模塊。FlashMLA通過MLA解碼優(yōu)化與分頁KV緩存技術,顯著提升硬件利用率,加速大語言模型解碼過程,有效提高響應速度與吞吐量,適用于各種實時對話生成場景。

云天勵飛芯片團隊在FlashMLA開源后,迅速完成了DeepEdge10平臺與FlashMLA的適配工作。在適配過程中,云天勵飛采用了Op fusion tiling、Online softmax、Double buffer、細粒度存算并行等先進技術,并基于自研的Triton-like編程語言快速開發(fā)驗證了高效的FlashMLA算子。通過一系列優(yōu)化,不僅顯著提升了計算效率,還大幅降低了顯存占用,充分展現(xiàn)了DeepEdge10平臺“算力積木”芯片架構的卓越優(yōu)勢,以及其與DeepSeek生態(tài)的高度契合性。

今日,云天勵飛已將相關代碼提交至開源平臺Gitee,為開源AI貢獻了重要的技術力量。

算子的源碼地址為:

http://m.ygpos.cn/uploadfile/pic2020/2025/0227/2025022712201667G>

云天勵飛DeepEdge10實現(xiàn)DeepSeek來源項目FlashMLA適配,打造國產(chǎn)大模型算力新底座

DeepEdge10系列芯片是專門針對大模型時代打造的芯片,支持包括 Transformer 模型、BEV 模型、CV 大模型、LLM 大模型等各類不同架構的主流模型;基于自主可控的先進國產(chǎn)工藝打造,采用獨特的“算力積木”架構,可靈活滿足智慧城市、智慧交通、智能制造、智慧倉儲、機器人、邊緣智算中心等不同場景對算力的需求,為大模型推理提供強大動力。

云天勵飛DeepEdge10實現(xiàn)DeepSeek來源項目FlashMLA適配,打造國產(chǎn)大模型算力新底座

目前,DeepEdge10芯片平臺已成功適配DeepSeek R1系列模型及國產(chǎn)鴻蒙操作系統(tǒng)。未來,云天勵飛將持續(xù)加大研發(fā)力度,推動芯片在國產(chǎn)化領域取得更大突破,為國產(chǎn)AI生態(tài)建設貢獻更多力量。

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )