阿里達摩院推出新目標檢測框架DAMO-YOLO 兼顧速度與精度

通用目標檢測是計算機視覺的基本問題之一,在目標檢測經典框架YOLO的基礎上,阿里達摩院新推出了新框架DAMO-YOLO,兼顧速度與精度,已成為最新的SOTA。達摩院已宣布將該框架開源,并在魔搭社區(qū)上免費開放使用。

所謂目標檢測,是讓AI在圖片中找到某些特定物體,不僅要識別這些對象的種類,還得標注出這些物體的位置。可以說,沒有目標檢測,自動駕駛等AI應用無從談起。YOLO全稱是You Only Look Once,只需要看一眼就可以識別出圖中物體的類別和位置。從2016年提出以來,YOLO因其高效、精準成為了目標檢測的經典算法框架,并不斷演進,獲得廣泛使用。

01.jpg

目標檢測示意

達摩院研究團隊在YOLO基礎上進行了一系列創(chuàng)新,對原有架進行了大幅的修改,形成了新框架DAMO-YOLO,創(chuàng)新包括:基于神經網絡結構搜索技術(NAS)的高效檢測骨干網絡(backbone),更深的多尺度特征融合檢測頸部(neck),精簡的檢測頭結構(head),以及引入蒸餾技術進一步提升效果。其中,新骨干網絡結構采用了阿里自研的MAE-NAS,這是一種啟發(fā)式和免訓練的NAS搜索方法,可以用于快速大范圍搜索各種不同規(guī)模的骨干網絡結構。由于這些創(chuàng)新和優(yōu)化,DAMO-YOLO在嚴格限制時延的情況下顯著提升了精度,成為YOLO框架中的新SOTA。

02.jpg

DAMO-YOLO和其他YOLO的性能對比

為了進一步提升實用性,DAMO-YOLO引入TinyNAS技術,使得用戶可以根據(jù)硬件算力情況進行低成本的檢測模型定制,提高硬件利用效率并且獲得更高精度。模型之外,DAMO-YOLO還提供高效的訓練策略以及便捷易用的部署工具,以便快速解決工業(yè)落地中的實際問題。目前,該框架已在AI模型社區(qū)魔搭ModelScope上線,支持快速調用,0代碼可以體驗模型效果,1行代碼實現(xiàn)模型推理,10行代碼實現(xiàn)模型調優(yōu)。

使用入口:https://www.modelscope.cn/models/damo/cv_tinynas_object-detection_damoyolo/summary

代碼地址:https://github.com/tinyvision/DAMO-YOLO

(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )

贊助商
2022-11-28
阿里達摩院推出新目標檢測框架DAMO-YOLO 兼顧速度與精度
通用目標檢測是計算機視覺的基本問題之一,在目標檢測經典框架YOLO的基礎上,阿里達摩院新推出了新框架DAMO-YOLO,兼顧速度與精度,已成為最新的SOTA。達摩院已宣布將該框架開源,并在魔搭社區(qū)上免費開放使用。

長按掃碼 閱讀全文