阿里云開(kāi)源推理模型QwQ-32B,性能比肩滿(mǎn)血版DeepSeek-R1,通義APP可用

3月6日消息,阿里云開(kāi)源推理模型QwQ-32B,性能媲美6710 億參數(shù)的DeepSeek-R1。據(jù)介紹,QwQ-32B是基于Qwen2.5-32B+強(qiáng)化學(xué)習(xí)煉成,開(kāi)發(fā)者和企業(yè)可以在消費(fèi)級(jí)硬件上輕松將其部署到本地設(shè)備中。

用戶(hù)可以通過(guò)Qwen Chat(https://chat.qwen.ai)在線(xiàn)體驗(yàn)訪(fǎng)問(wèn)。

用戶(hù)也可通過(guò)通義APP免費(fèi)體驗(yàn)最新的千問(wèn)QwQ-32B模型。

目前,QwQ-32B 已在Hugging Face和ModelScope魔搭社區(qū)開(kāi)源,采用了 Apache 2.0 開(kāi)源協(xié)議。

所有人都可免費(fèi)下載模型進(jìn)行本地部署,或者通過(guò)阿里云百煉平臺(tái)直接調(diào)用模型API服務(wù)。

對(duì)于云端部署需求,用戶(hù)可通過(guò)阿里云PAI平臺(tái)完成快速部署,并進(jìn)行模型微調(diào)、評(píng)測(cè)和應(yīng)用搭建;或是選擇容器服務(wù)ACK搭配阿里云GPU算力(如GPU云服務(wù)器、容器計(jì)算服務(wù)ACS等),實(shí)現(xiàn)模型容器化部署和高效推理。

QwQ-32B團(tuán)隊(duì)指出,大規(guī)模強(qiáng)化學(xué)習(xí)(RL)有潛力超越傳統(tǒng)的預(yù)訓(xùn)練和后訓(xùn)練方法來(lái)提升模型性能。近期的研究表明,強(qiáng)化學(xué)習(xí)可以顯著提高模型的推理能力。例如,DeepSeek R1 通過(guò)整合冷啟動(dòng)數(shù)據(jù)和多階段訓(xùn)練,實(shí)現(xiàn)了最先進(jìn)的性能,使其能夠進(jìn)行深度思考和復(fù)雜推理。

最新的推理模型 QwQ-32B,是一款擁有320億參數(shù)的模型,其性能可與具備 6710 億參數(shù)(其中 370 億被激活)的 DeepSeek-R1 媲美。

QwQ-32B 在一系列基準(zhǔn)測(cè)試中進(jìn)行了評(píng)估,測(cè)試了數(shù)學(xué)推理、編程能力和通用能力。以下結(jié)果展示了 QwQ-32B 與其他領(lǐng)先模型的性能對(duì)比,包括 DeepSeek-R1-Distilled-Qwen-32B、DeepSeek-R1-Distilled-Llama-70B、o1-mini 以及原始的 DeepSeek-R1。

QwQ-32B 模型表現(xiàn)出色,幾乎完全超越了OpenAI-o1-mini,比肩最強(qiáng)開(kāi)源推理模型DeepSeek-R1:在測(cè)試數(shù)學(xué)能力的AIME24評(píng)測(cè)集上,以及評(píng)估代碼能力的LiveCodeBench中,千問(wèn)QwQ-32B表現(xiàn)與DeepSeek-R1相當(dāng),遠(yuǎn)勝于o1-mini及相同尺寸的R1蒸餾模型;在由Meta首席科學(xué)家楊立昆領(lǐng)銜的“最難LLMs評(píng)測(cè)榜”LiveBench、谷歌等提出的指令遵循能力IFEval評(píng)測(cè)集、由加州大學(xué)伯克利分校等提出的評(píng)估準(zhǔn)確調(diào)用函數(shù)或工具方面的BFCL測(cè)試中,千問(wèn)QwQ-32B的得分均超越了DeepSeek-R1。

QwQ-32B團(tuán)隊(duì)表示,這一成果突顯了將強(qiáng)化學(xué)習(xí)應(yīng)用于經(jīng)過(guò)大規(guī)模預(yù)訓(xùn)練的強(qiáng)大基礎(chǔ)模型的有效性。此外,研發(fā)團(tuán)隊(duì)還在QwQ-32B推理模型中集成了與 Agent 相關(guān)的能力,使其能夠在使用工具的同時(shí)進(jìn)行批判性思考,并根據(jù)環(huán)境反饋調(diào)整推理過(guò)程。

據(jù)介紹,在初始階段,QwQ-32B模型特別針對(duì)數(shù)學(xué)和編程任務(wù)進(jìn)行了 RL 訓(xùn)練。與依賴(lài)傳統(tǒng)的獎(jiǎng)勵(lì)模型(reward model)不同,通過(guò)校驗(yàn)生成答案的正確性來(lái)為數(shù)學(xué)問(wèn)題提供反饋,并通過(guò)代碼執(zhí)行服務(wù)器評(píng)估生成的代碼是否成功通過(guò)測(cè)試用例來(lái)提供代碼的反饋。隨著訓(xùn)練輪次的推進(jìn),這兩個(gè)領(lǐng)域中的性能均表現(xiàn)出持續(xù)的提升。在第一階段的 RL 過(guò)后,增加了另一個(gè)針對(duì)通用能力的 RL。此階段使用通用獎(jiǎng)勵(lì)模型和一些基于規(guī)則的驗(yàn)證器進(jìn)行訓(xùn)練。最后發(fā)現(xiàn),通過(guò)少量步驟的通用 RL,可以提升其他通用能力,同時(shí)在數(shù)學(xué)和編程任務(wù)上的性能沒(méi)有顯著下降。(果青)

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )

贊助商
2025-03-06
阿里云開(kāi)源推理模型QwQ-32B,性能比肩滿(mǎn)血版DeepSeek-R1,通義APP可用
3月6日消息,阿里云開(kāi)源推理模型QwQ-32B,性能媲美6710 億參數(shù)的DeepSeek-R1。

長(zhǎng)按掃碼 閱讀全文