11月20日消息,最新的Qwen2.5-Turbo已在阿里云百煉上線,該模型支持100萬超長上下文,相當于100萬個英文單詞或150萬個漢字,在多個長文本評測集上的性能表現(xiàn)超越GPT-4。即日起,所有用戶可在阿里云百煉調(diào)用Qwen2.5-Turbo API,百萬tokens僅需0.3元。
全新的Qwen2.5-Turbo在1M長度的超長文本檢索(Passkey Retrieval)任務中的準確率可達到100%,在長文本評測集RULER上獲得93.1分,超越GPT-4;在LV-Eval、LongBench-Chat等更加接近真實場景的長文本任務中,Qwen2.5-Turbo在多數(shù)維度超越了GPT-4o-mini;此外,在MMU、LiveBench等短文本基準上Qwen2.5-Turbo的表現(xiàn)也非常優(yōu)秀,在大部分任務上的表現(xiàn)顯著超越之前上下文長度為1M tokens的開源模型。
Qwen2.5-Turbo在長文本、短文本任務評測集上均表現(xiàn)優(yōu)秀
在推理速度方面,通義千問團隊利用稀疏注意力機制將注意力部分的計算量壓縮了約12.5倍,將處理1M tokens上下文時的首字返回時間從4.9分鐘降低到68秒,實現(xiàn)了4.3倍的速度提升。
Qwen2.5-Turbo推理速度可提升4.3倍
Qwen2.5-Turbo可應用于長篇小說深入理解、倉庫級別代碼助手、多篇論文閱讀等場景,可一次性處理10本長篇小說,150小時的演講稿,3萬行代碼。針對該模型,阿里云百煉免費為用戶贈送1000萬tokens額度。
該團隊表示,長文本任務處理依然存在諸多挑戰(zhàn),未來將進一步探索長序列人類偏好對齊,優(yōu)化推理效率以減少運算時間,并繼續(xù)研發(fā)更大、更強的長文本模型。
據(jù)介紹,阿里云百煉已上線Qwen、Llama、Flux等超200款國內(nèi)外主流開源和閉源大模型,用戶可選擇直接調(diào)用、訓練微調(diào)或打造RAG應用。目前,一汽、金山、哈啰集團、國家天文臺等超30萬企業(yè)和機構(gòu)在使用阿里云百煉。
- 世界第一!阿里云PolarDB登頂全球數(shù)據(jù)庫性能及性價比排行榜
- 阿里官宣巨投3800億:云與AI硬件基礎(chǔ)設(shè)施加速構(gòu)建,人形伴侶機器人賽道迎新機遇?
- 數(shù)據(jù)中心管道設(shè)施深度洞察:制冷、效率與可持續(xù)性
- 加速出海!美的與阿里云合作打造海外區(qū)域業(yè)務數(shù)字底座
- AI服務器出貨量預計2025年增速放緩,市場不確定性增加
- Cisco成企業(yè)AI應用風向標,AI相關(guān)業(yè)務增長潛力巨大
- Cloudflare謀劃AI時代互聯(lián)網(wǎng)重構(gòu),欲成新樞紐
- 美科技巨頭AI燒錢競賽遭市場冷遇,云計算行業(yè)周期見頂預警?
- 谷歌云業(yè)務不及預期,市值蒸發(fā)1800億美元,面臨反壟斷調(diào)查
- DeepSeek爆火!華為、BAT等云商紛紛上線DeepSeek AI大模型
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。