近年來(lái),在視頻采集傳感器以及信息科學(xué)領(lǐng)域技術(shù)蓬勃發(fā)展的前提下,基于計(jì)算機(jī)視覺(jué)的視頻分析任務(wù),尤其是人體行為識(shí)別技術(shù)在虛擬現(xiàn)實(shí)、視頻監(jiān)控、視頻檢索、醫(yī)療和游戲等方面有著廣泛的應(yīng)用。人體行為識(shí)別是計(jì)算機(jī)視覺(jué)的一個(gè)熱門(mén)研究話題。
人類(lèi)行為識(shí)別(HAR)是通過(guò)復(fù)雜技術(shù)破譯人類(lèi)行為的過(guò)程,以使機(jī)器能夠理解、分析、理解和分類(lèi)這些行為,并給出任何形式的有效輸入或刺激。深度學(xué)習(xí)對(duì)于解決識(shí)別與分類(lèi)問(wèn)題非常有效,因?yàn)樗鼒?zhí)行端到端優(yōu)化,且相關(guān)任務(wù)可以相互受益(轉(zhuǎn)移學(xué)習(xí))。
據(jù)悉,微美全息(NASDAQ:WIMI)以具有良好的表征能力的卷積神經(jīng)網(wǎng)絡(luò)CNN為基礎(chǔ),開(kāi)發(fā)了基于卷積神經(jīng)網(wǎng)絡(luò)的三維人體行為識(shí)別算法系統(tǒng)。
首先,從骨骼關(guān)節(jié)的相對(duì)運(yùn)動(dòng)中提取四個(gè)獨(dú)特的時(shí)空特征向量,將這些特征隨后被編碼到圖像中,然后將這些圖像送入CNN進(jìn)行深層特征提取。更具體地說(shuō),該系統(tǒng)是將骨架數(shù)據(jù)用于3D人類(lèi)行為識(shí)別任務(wù),從三維骨架數(shù)據(jù)中提取四種類(lèi)型的信息特征(距離、距離速度、角度和角度速度特征),并使用合適的編碼方案將其編碼為圖像。另外WIMI微美全息還使用反離子優(yōu)化從特征空間中刪除冗余和誤導(dǎo)性信息。最后,WIMI微美全息使用分類(lèi)對(duì)操作進(jìn)行最終預(yù)測(cè)。
基于卷積神經(jīng)網(wǎng)絡(luò)的三維人體行為識(shí)別算法系統(tǒng)的應(yīng)用流程主要包括數(shù)據(jù)收集、數(shù)據(jù)預(yù)處理、特征提取、分類(lèi)、預(yù)測(cè)決策等。
第一步是為基于卷積神經(jīng)網(wǎng)絡(luò)的三維人體行為識(shí)別算法系統(tǒng)收集適當(dāng)?shù)臄?shù)據(jù)。適當(dāng)、結(jié)構(gòu)化和正確標(biāo)記的數(shù)據(jù)集是訓(xùn)練模型的最基本要求之一。神經(jīng)網(wǎng)絡(luò)會(huì)將數(shù)據(jù)集作為母體學(xué)習(xí)其相應(yīng)特征信息,保存為深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練后的記憶,并以此記憶為依托對(duì)其他相應(yīng)數(shù)據(jù)集進(jìn)行預(yù)測(cè)。因此數(shù)據(jù)集質(zhì)量的高低會(huì)直接影響到神經(jīng)網(wǎng)絡(luò)訓(xùn)練的質(zhì)量,一個(gè)覆蓋面廣、信息全、分辨率高的數(shù)據(jù)集訓(xùn)練出的神經(jīng)網(wǎng)絡(luò)要遠(yuǎn)比簡(jiǎn)單、低分辨率、背景復(fù)雜的數(shù)據(jù)集訓(xùn)練出的網(wǎng)絡(luò)效果好。人體行為識(shí)別網(wǎng)絡(luò)對(duì)于數(shù)據(jù)集的要求包括行為類(lèi)別要全面、行為質(zhì)量要高、視頻要清晰等等。
第二步是數(shù)據(jù)的預(yù)處理,特征變換、特征選擇和特征提取耦合在一起,通常稱(chēng)為數(shù)據(jù)預(yù)處理模塊。特征的提取和正確表示是提高模型性能的關(guān)鍵步驟。對(duì)于高維數(shù)據(jù),模型過(guò)擬合的可能性相對(duì)增加,因此需要選擇相關(guān)特征。為分類(lèi)模型選擇所需的特征是正確的關(guān)鍵步驟。接下來(lái)是分類(lèi),將提取的特征用于訓(xùn)練模型,以完成對(duì)不同形式的人類(lèi)行為識(shí)別和分類(lèi)的任務(wù)。最后是預(yù)測(cè)分析,從卷積神經(jīng)網(wǎng)絡(luò)模型的輸入中提取更多信息特征,使模型可以在不考慮類(lèi)別之間的視覺(jué)差異的情況下進(jìn)行決策。
WIMI微美全息的基于卷積神經(jīng)網(wǎng)絡(luò)的三維人體行為識(shí)別算法技術(shù)可實(shí)現(xiàn)對(duì)個(gè)體及群體進(jìn)行高精準(zhǔn)度的行為識(shí)別,對(duì)設(shè)定的異常行為進(jìn)行預(yù)判并及時(shí)預(yù)警,其可廣泛運(yùn)用于人員識(shí)別、車(chē)輛識(shí)別、區(qū)域入侵、目標(biāo)異常檢測(cè)等運(yùn)用場(chǎng)景。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )