不到600萬美元,性能匹敵GPT4.0!DeepSeek-V3發(fā)布震驚業(yè)界

12月30日消息(南山)近日,幻方量化旗下的DeepSeek公司宣布發(fā)布全新系列模型DeepSeek-V3首個版本,并同步開源。

DeepSeek-V3為自研MoE模型,671B參數,激活37B,在14.8T token上進行了預訓練。

DeepSeek引用評測報告指出,DeepSeek-V3多項評測成績超越了阿里旗下Qwen2.5-72B和Meta旗下Llama-3.1-405B等其他開源模型,并在性能上和世界頂尖的閉源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。

令業(yè)界震驚的是,DeepSeek-V3訓練僅花費了557.6萬美元,在2048xH800集群上運行55天完成,還很坦誠地公布了技術細節(jié)。

相比之下,GPT-4o這樣的模型訓練成本約為1億美元。

這一成果已經引起海外注意。其中,OpenAI創(chuàng)始成員Karpathy點評稱,DeepSeek-V3讓在有限算力預算上進行模型預訓練這件事變得容易。它看起來比Llama 3 405B更強,訓練消耗的算力卻僅為后者的1/11。

這意味著算力成本的大幅下降,也意味著大模型領域在經歷了“百模大戰(zhàn)”后,可能會迎來新一輪的大模型產品競爭。

免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2024-12-30
不到600萬美元,性能匹敵GPT4.0!DeepSeek-V3發(fā)布震驚業(yè)界
不到600萬美元,性能匹敵GPT4.0!DeepSeek-V3發(fā)布震驚業(yè)界,C114訊 12月30日消息(南山)近日,幻方量化旗下的DeepSeek公司宣布發(fā)布全新系列模型De

長按掃碼 閱讀全文