2020年,“新基建”正給中國科技發(fā)展帶來新的重大機遇,人工智能基礎(chǔ)設(shè)施面臨全面升級。深度學(xué)習(xí)框架正是推動產(chǎn)業(yè)智能化進階的重要基礎(chǔ)設(shè)施。近日,國內(nèi)唯一開源開放、功能完備的深度學(xué)習(xí)開源平臺——百度飛槳,在智能視覺領(lǐng)域?qū)崿F(xiàn)重大升級。
此次,PaddleCV最新全景圖首度曝光。其中,PaddleDetection、PaddleSeg、PaddleSlim和Paddle Lite重磅升級;全新發(fā)布3D視覺和PLSC超大規(guī)模分類2項能力。同時,PaddleCV新增了15個在產(chǎn)業(yè)實踐中廣泛應(yīng)用的算法,整體高質(zhì)量算法數(shù)量達到73個;35個高精度預(yù)訓(xùn)練模型,總數(shù)達到203個。
PaddleCV全景圖
PaddleCV依托于飛槳底層核心技術(shù)以及百度大腦軟硬一體AI大生產(chǎn)平臺的優(yōu)勢,貫通了從核心技術(shù)、生態(tài)應(yīng)用,再到商業(yè)化解決方案的整套體系,支撐百度視覺成為目前業(yè)內(nèi)規(guī)模最大、技術(shù)棧最全面、生態(tài)體系最完善的視覺技術(shù)平臺,形成可自我持續(xù)迭代優(yōu)化的閉環(huán)。
如全景圖所示,PaddleCV主要從三方面更新核心技術(shù)能力:
第一,核心技術(shù)能力升級,基于產(chǎn)業(yè)實踐真實場景打磨,多場景視覺任務(wù)上模型準(zhǔn)確率全面提升。
PaddleDetection模塊種類與性能全面提升,YOLOv3大幅增強,精度提升4.3%,訓(xùn)練提速40%,推理提速21%;人臉檢測模型BlazeFace新增NAS版本,體積壓縮3倍,推理速度提速122%;新增IoU損失函數(shù)類型,精度再提升1%,不增加預(yù)測耗時。在模型方面,新增3個類型,基于COCO數(shù)據(jù)集的精度最高開源模型CBNet,高達53.3%;Libra-RCNN模型精度提升2%;Open Images V5成為目標(biāo)檢測比賽最佳單模型。
PaddleSeg新增基于HRNet的高精度圖像分割模型,其最大的特點是將圖像在整個處理過程中保持高分辨率特征,這和大多數(shù)模型所使用的從高分辨率到低分辨率網(wǎng)絡(luò)產(chǎn)生的低分辨率特征中恢復(fù)高分辨率特征有所不同。同時,獲得實時語義分割模型Fast-SCNN,它的最大特點是“小快靈”,即該模型在推理計算時僅需要較小的FLOPs,就可以快速推理出一個不錯的結(jié)果。
Fast-SCNN網(wǎng)絡(luò)結(jié)構(gòu)圖
PaddleCV還新增了3D點云分類、分割和檢測的PointNet++和PointRCNN模型。PointNet++在ModelNet40數(shù)據(jù)集上,分類精度高達90%;PointRCNN在KITTI(Car)的Easy數(shù)據(jù)子集上,檢測精度高達86.66%。和此前PaddleCV支持的數(shù)十種模型一樣,基于飛槳框架,開發(fā)者無需全新開發(fā)代碼,只要進行少量修改,就能快速在工業(yè)領(lǐng)域?qū)崿F(xiàn)3D圖像的分類、語義分割和目標(biāo)檢測任務(wù)。
圖像分類新增預(yù)訓(xùn)練模型SENet-vd、Res2Net、HRNet系列模型。Res2Net可以更細粒度表示多尺度特征,HRNet全程都可以保持高分辨率。截至目前,飛槳圖像分類模型包含了ResNet、ResNet-vd、ResNet_ACNet、MobileNet、ShuffleNet、EfficientNet等系列近20類圖像分類算法,105個預(yù)訓(xùn)練模型,也可供目標(biāo)檢測、圖像分割等任務(wù)應(yīng)用。其中,ResNet-vd系列相比ResNet系列模型,在不增加推理耗時的情況下,精度提高1%-2%,EfficientNet推出了small版本,在GPU上速度提升1.59倍。
第二,PaddleCV端到端能力大幅提升,打通了模型開發(fā)、訓(xùn)練、壓縮、部署全流程,更好地服務(wù)于產(chǎn)業(yè)實踐。
目標(biāo)檢測模型在實際部署時,由于耗時和內(nèi)存占用,仍然存在很大挑戰(zhàn)?;诖耍琍addleSlim提供了多種高效的模型壓縮方法,助推PaddleDetection性能到達全新高度。使用蒸餾模型壓縮方案可提升驗證精度2%;裁剪模型壓縮方案大幅降低FLOPs;蒸餾+裁剪模型壓縮方案,基于COCO數(shù)據(jù)集進行測試,可以加速2.3倍。此外,PaddleDetection還為開發(fā)者提供了從訓(xùn)練到部署的端到端流程,并提供一個跨平臺的圖像檢測模型的C++預(yù)測部署方案。
跟目標(biāo)檢測模型類似,語義分割模型在實際部署時也會面臨耗時、內(nèi)存占用的挑戰(zhàn)。PaddleSlim為PaddleSeg提供了多種分割模型的壓縮方案,F(xiàn)LOPs減少51%,提升部署成功率。
針對超大規(guī)模人臉識別等應(yīng)用挑戰(zhàn),正式發(fā)布PLSC超大規(guī)模分類工具。一方面,通過多機分布式訓(xùn)練可以將全連接層參數(shù)切分到更多的GPU卡,從而支持千萬類別分類,并且飛槳大規(guī)模分類庫在理論上可支持分類類別數(shù)隨著使用GPU卡數(shù)的增加而增加。另一方面,PLSC的訓(xùn)練精度和效率高,在多個數(shù)據(jù)集上得SOTA的訓(xùn)練精度,同時支持混合精度訓(xùn)練,單機8張Nvidia Tesla v100 GPU配置下混合精度訓(xùn)練速度提升42%。PLSC讓開發(fā)者通過五行代碼即可實現(xiàn)千萬類別分類網(wǎng)絡(luò)的構(gòu)建和訓(xùn)練,提供大規(guī)模分類任務(wù)從訓(xùn)練到部署的全流程解決方案。同時,支持訓(xùn)練GPU卡數(shù)的動態(tài)調(diào)整、Base64格式圖像數(shù)據(jù)預(yù)處理。
PaddleCV與飛槳領(lǐng)先分布式訓(xùn)練能力全面結(jié)合,對于人臉識別等廣泛的場景應(yīng)用提供了強有力的推動作用。3月初,百度開源的“戴口罩人臉識別算法”中,即通過PLSC實現(xiàn)了快速對數(shù)百萬ID的訓(xùn)練數(shù)據(jù)進行訓(xùn)練;同時采用飛槳模型壓縮庫PaddleSlim進行模型搜索與壓縮,產(chǎn)出了高性能的人臉識別模型;最后基于Paddle Lite,實現(xiàn)了云端和移動端的快速部署。
第三,PaddleCV全面打通了模型算法、開發(fā)框架和AI芯片,實現(xiàn)軟硬一體化。
首先,PaddleCV基于Paddle Lite多硬件支持能力的優(yōu)勢,與昆侖芯片進行深度聯(lián)合優(yōu)化,實現(xiàn)端到端軟硬一體能力的完全領(lǐng)先和自主可控。以制造業(yè)為例,百度與微億智造聯(lián)合打造了智能自動化監(jiān)測設(shè)備“表面缺陷視覺檢測設(shè)備”,區(qū)別于傳統(tǒng)人工肉眼檢查電子零件的方式,既保障質(zhì)檢環(huán)節(jié)的檢查質(zhì)量與效率,也進一步緩解了由于疫情原因造成的人力缺乏問題。
此次合作,借由百度昆侖芯片、百度智能云的加持,以及基于百度飛槳深度學(xué)習(xí)平臺的目標(biāo)檢測模型,微億構(gòu)建完成了一個從智能硬件到算法軟件再到算力供給的智能制造解決方案大閉環(huán),具備了端到端軟硬一體能力,實現(xiàn)了完全的自主可控。此外,在央視《新聞聯(lián)播》2月10日報道中還提到,江蘇常州的精研科技借助“表面缺陷視覺檢測設(shè)備”,解決了工人無法復(fù)工情況下的生產(chǎn)難題,在精研科技的精密零部件制造車間,十臺無人值守的智能化檢測設(shè)備24小時工作,比人工檢測效率提升近10倍。
百度與微億智造打造的工業(yè)智能質(zhì)檢設(shè)備
PaddleCV的重磅升級,飛槳為視覺領(lǐng)域提供了更為強大且應(yīng)用廣泛的工具,加速不同產(chǎn)業(yè)的AI落地。除了在視覺領(lǐng)域,飛槳也形成了語音、視覺、NLP等全方位的能力體系。飛槳還充分發(fā)揮全硬件平臺能力的優(yōu)勢,與昆侖芯片深度融合優(yōu)化,打造技術(shù)領(lǐng)先、自主可控的軟硬一體技術(shù)平臺。
目前,飛槳已累計服務(wù)150多萬開發(fā)者,幫助6.5萬企業(yè)用戶,作為百度大腦的堅實底座,在很多關(guān)乎國計民生的領(lǐng)域,都發(fā)揮著實實在在的重要作用。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )