阿里云通義千問(wèn)開源第二波!大規(guī)模視覺語(yǔ)言模型Qwen-VL上線魔搭社區(qū)

通義千問(wèn)開源第二波!8月25日消息,阿里云推出大規(guī)模視覺語(yǔ)言模型Qwen-VL,一步到位、直接開源。Qwen-VL以通義千問(wèn)70億參數(shù)模型Qwen-7B為基座語(yǔ)言模型研發(fā),支持圖文輸入,具備多模態(tài)信息理解能力。在主流的多模態(tài)任務(wù)評(píng)測(cè)和多模態(tài)聊天能力評(píng)測(cè)中,Qwen-VL取得了遠(yuǎn)超同等規(guī)模通用模型的表現(xiàn)。

Qwen-VL是支持中英文等多種語(yǔ)言的視覺語(yǔ)言(Vision Language,VL)模型,相較于此前的VL模型,Qwen-VL除了具備基本的圖文識(shí)別、描述、問(wèn)答及對(duì)話能力之外,還新增了視覺定位、圖像中文字理解等能力。

圖片1.jpg

多模態(tài)是通用人工智能的重要技術(shù)演進(jìn)方向之一。業(yè)界普遍認(rèn)為,從單一感官的、僅支持文本輸入的語(yǔ)言模型,到“五官全開”的,支持文本、圖像、音頻等多種信息輸入的多模態(tài)模型,蘊(yùn)含著大模型智能躍升的巨大可能。多模態(tài)能夠提升大模型對(duì)世界的理解程度,充分拓展大模型的使用場(chǎng)景。

視覺是人類的第一感官能力,也是研究者首先想賦予大模型的多模態(tài)能力。繼此前推出M6、OFA系列多模態(tài)模型之后,阿里云通義千問(wèn)團(tuán)隊(duì)又開源了基于Qwen-7B的大規(guī)模視覺語(yǔ)言模型(Large Vision Language Model, LVLM)Qwen-VL。Qwen-VL及其視覺AI助手Qwen-VL-Chat均已上線ModelScope魔搭社區(qū),開源、免費(fèi)、可商用。

用戶可從魔搭社區(qū)直接下載模型,也可通過(guò)阿里云靈積平臺(tái)訪問(wèn)調(diào)用Qwen-VL和Qwen-VL-Chat,阿里云為用戶提供包括模型訓(xùn)練、推理、部署、精調(diào)等在內(nèi)的全方位服務(wù)。

圖片2.jpg

Qwen-VL可用于知識(shí)問(wèn)答、圖像標(biāo)題生成、圖像問(wèn)答、文檔問(wèn)答、細(xì)粒度視覺定位等場(chǎng)景。

比如,一位不懂中文的外國(guó)游客到醫(yī)院看病,不知怎么去往對(duì)應(yīng)科室,他拍下樓層導(dǎo)覽圖問(wèn)Qwen-VL“骨科在哪層”“耳鼻喉科去哪層”,Qwen-VL會(huì)根據(jù)圖片信息給出文字回復(fù),這是圖像問(wèn)答能力;再比如,輸入一張上海外灘的照片,讓Qwen-VL找出東方明珠,Qwen-VL能用檢測(cè)框準(zhǔn)確圈出對(duì)應(yīng)建筑,這是視覺定位能力。

Qwen-VL是業(yè)界首個(gè)支持中文開放域定位的通用模型,開放域視覺定位能力決定了大模型“視力”的精準(zhǔn)度,也即,能否在畫面中精準(zhǔn)地找出想找的事物,這對(duì)于VL模型在機(jī)器人操控等真實(shí)應(yīng)用場(chǎng)景的落地至關(guān)重要。


圖片3.jpg

圖片4.jpg

Qwen-VL以Qwen-7B為基座語(yǔ)言模型,在模型架構(gòu)上引入視覺編碼器,使得模型支持視覺信號(hào)輸入,并通過(guò)設(shè)計(jì)訓(xùn)練過(guò)程,讓模型具備對(duì)視覺信號(hào)的細(xì)粒度感知和理解能力。Qwen-VL支持的圖像輸入分辨率為448,此前開源的LVLM模型通常僅支持224分辨率。在Qwen-VL 的基礎(chǔ)上,通義千問(wèn)團(tuán)隊(duì)使用對(duì)齊機(jī)制,打造了基于LLM的視覺AI助手Qwen-VL-Chat,可讓開發(fā)者快速搭建具備多模態(tài)能力的對(duì)話應(yīng)用。

在四大類多模態(tài)任務(wù)(Zero-shot Caption/VQA/DocVQA/Grounding)的標(biāo)準(zhǔn)英文測(cè)評(píng)中,Qwen-VL取得了同等尺寸開源LVLM的最好效果。為了測(cè)試模型的多模態(tài)對(duì)話能力,通義千問(wèn)團(tuán)隊(duì)構(gòu)建了一套基于GPT-4打分機(jī)制的測(cè)試集“試金石”,對(duì)Qwen-VL-Chat及其他模型進(jìn)行對(duì)比測(cè)試,Qwen-VL-Chat在中英文的對(duì)齊評(píng)測(cè)中均取得了開源LVLM最好結(jié)果。

8月初,阿里云開源通義千問(wèn)70億參數(shù)通用模型Qwen-7B和對(duì)話模型Qwen-7B-Chat,成為國(guó)內(nèi)首個(gè)加入大模型開源行列的大型科技企業(yè)。通義千問(wèn)開源模型剛一上線就廣受關(guān)注,當(dāng)周沖上HuggingFace趨勢(shì)榜單,不到一個(gè)月在GitHub收獲3400多星,模型累計(jì)下載量已突破40萬(wàn)。

開源地址:

ModelScope魔搭社區(qū):

Qwen-VL    https://modelscope.cn/models/qwen/Qwen-VL/summary

Qwen-VL-Chat    https://modelscope.cn/models/qwen/Qwen-VL-Chat/summary

模型體驗(yàn):https://modelscope.cn/studios/qwen/Qwen-VL-Chat-Demo/summary

HuggingFace:

Qwen-VL   https://huggingface.co/Qwen/Qwen-VL

Qwen-VL-Chat   https://huggingface.co/Qwen/Qwen-VL-Chat

GitHub:

https://github.com/QwenLM/Qwen-VL

技術(shù)論文地址:

https://arxiv.org/abs/2308.12966

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2023-08-25
阿里云通義千問(wèn)開源第二波!大規(guī)模視覺語(yǔ)言模型Qwen-VL上線魔搭社區(qū)
通義千問(wèn)開源第二波!8月25日消息,阿里云推出大規(guī)模視覺語(yǔ)言模型Qwen-VL,一步到位、直接開源。

長(zhǎng)按掃碼 閱讀全文