通用目標(biāo)檢測(cè)是計(jì)算機(jī)視覺的基本問題之一,在目標(biāo)檢測(cè)經(jīng)典框架YOLO的基礎(chǔ)上,阿里達(dá)摩院新推出了新框架DAMO-YOLO,兼顧速度與精度,已成為最新的SOTA。達(dá)摩院已宣布將該框架開源,并在魔搭社區(qū)上免費(fèi)開放使用。
所謂目標(biāo)檢測(cè),是讓AI在圖片中找到某些特定物體,不僅要識(shí)別這些對(duì)象的種類,還得標(biāo)注出這些物體的位置??梢哉f(shuō),沒有目標(biāo)檢測(cè),自動(dòng)駕駛等AI應(yīng)用無(wú)從談起。YOLO全稱是You Only Look Once,只需要看一眼就可以識(shí)別出圖中物體的類別和位置。從2016年提出以來(lái),YOLO因其高效、精準(zhǔn)成為了目標(biāo)檢測(cè)的經(jīng)典算法框架,并不斷演進(jìn),獲得廣泛使用。
目標(biāo)檢測(cè)示意
達(dá)摩院研究團(tuán)隊(duì)在YOLO基礎(chǔ)上進(jìn)行了一系列創(chuàng)新,對(duì)原有架進(jìn)行了大幅的修改,形成了新框架DAMO-YOLO,創(chuàng)新包括:基于神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索技術(shù)(NAS)的高效檢測(cè)骨干網(wǎng)絡(luò)(backbone),更深的多尺度特征融合檢測(cè)頸部(neck),精簡(jiǎn)的檢測(cè)頭結(jié)構(gòu)(head),以及引入蒸餾技術(shù)進(jìn)一步提升效果。其中,新骨干網(wǎng)絡(luò)結(jié)構(gòu)采用了阿里自研的MAE-NAS,這是一種啟發(fā)式和免訓(xùn)練的NAS搜索方法,可以用于快速大范圍搜索各種不同規(guī)模的骨干網(wǎng)絡(luò)結(jié)構(gòu)。由于這些創(chuàng)新和優(yōu)化,DAMO-YOLO在嚴(yán)格限制時(shí)延的情況下顯著提升了精度,成為YOLO框架中的新SOTA。
DAMO-YOLO和其他YOLO的性能對(duì)比
為了進(jìn)一步提升實(shí)用性,DAMO-YOLO引入TinyNAS技術(shù),使得用戶可以根據(jù)硬件算力情況進(jìn)行低成本的檢測(cè)模型定制,提高硬件利用效率并且獲得更高精度。模型之外,DAMO-YOLO還提供高效的訓(xùn)練策略以及便捷易用的部署工具,以便快速解決工業(yè)落地中的實(shí)際問題。目前,該框架已在AI模型社區(qū)魔搭ModelScope上線,支持快速調(diào)用,0代碼可以體驗(yàn)?zāi)P托Ч?行代碼實(shí)現(xiàn)模型推理,10行代碼實(shí)現(xiàn)模型調(diào)優(yōu)。
使用入口:https://www.modelscope.cn/models/damo/cv_tinynas_object-detection_damoyolo/summary
代碼地址:https://github.com/tinyvision/DAMO-YOLO
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )