版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、基于視頻的人體動(dòng)作識(shí)別是計(jì)算機(jī)視覺領(lǐng)域的一個(gè)熱點(diǎn)問題,在智能監(jiān)控、人機(jī)交互以及視頻檢索等領(lǐng)域具有廣泛的應(yīng)用前景和潛在的經(jīng)濟(jì)價(jià)值。動(dòng)作識(shí)別的主要任務(wù)是通過計(jì)算機(jī)對(duì)傳感器采集的原始圖像或圖像序列數(shù)據(jù)進(jìn)行處理和分析,學(xué)習(xí)并理解其中人的動(dòng)作和行為,建立底層視覺特征與動(dòng)作行為類別等高層語義信息之間的對(duì)應(yīng)關(guān)系。
動(dòng)作識(shí)別中主要解決的問題有兩個(gè):動(dòng)作表示和動(dòng)作分類。動(dòng)作表示即從視頻中提取有效的特征對(duì)動(dòng)作進(jìn)行描述,而動(dòng)作分類則是根據(jù)提取的
2、特征設(shè)計(jì)相應(yīng)的分類模型。根據(jù)對(duì)動(dòng)作的表示的不同,我們將目前的動(dòng)作識(shí)別方法分為三類:基于人體模型的方法,基于全局特征的方法,基于局部特征的方法。其中,基于局部特征的方法是近年來比較流行的方法,在多個(gè)人體動(dòng)作數(shù)據(jù)集上都取得了很好的結(jié)果。
視頻特征提取與描述是人體動(dòng)作識(shí)別中至關(guān)重要的一步,對(duì)動(dòng)作識(shí)別的結(jié)果有著重要的影響。本文首先對(duì)現(xiàn)存的軌跡提取方法進(jìn)行了詳細(xì)的分析,指出了它們的創(chuàng)新與不足之處,然后提出了一種新的軌跡提取方法,它能
3、夠準(zhǔn)確的反映出人的運(yùn)動(dòng)信息。為了描述一條給定軌跡的形狀和運(yùn)動(dòng)信息,我們?cè)谒木植苦徲騼?nèi)抽取三種描述符:梯度方向直方圖,光流直方圖,運(yùn)動(dòng)邊界直方圖。
很多情況下,識(shí)別人體動(dòng)作不僅與人體的運(yùn)動(dòng)軌跡有關(guān),也與人所處的場(chǎng)景有關(guān),場(chǎng)景信息能夠暗示在這種情況下可能會(huì)發(fā)生的動(dòng)作類型。基于此,本文使用了一種場(chǎng)景特征Gist來對(duì)場(chǎng)景結(jié)構(gòu)進(jìn)行建模。
我們引入了一種詞袋模型的思想,將視頻表示為一系列視覺單詞的集合,由于詞袋模型通常
4、忽略了局部特征之間的時(shí)空關(guān)系,我們將視頻序列劃分為時(shí)空網(wǎng)格以嵌入結(jié)構(gòu)信息。最后,我們還使用了多核學(xué)習(xí)的思想,將兩類特征進(jìn)行有效的融合,以達(dá)到最佳的分類效果。
目前的動(dòng)作識(shí)別算法在簡(jiǎn)單受限的場(chǎng)景下得到了較高的識(shí)別率,然而,真實(shí)場(chǎng)景(比如電視廣播、電影以及監(jiān)控視頻等)中的動(dòng)作識(shí)別仍舊是一個(gè)非常有挑戰(zhàn)性的問題。為了驗(yàn)證本文算法的有效性和可行性,我們?cè)谒膫€(gè)具有挑戰(zhàn)性的人體動(dòng)作數(shù)據(jù)集上對(duì)本文的算法進(jìn)行了測(cè)試和評(píng)價(jià)。實(shí)驗(yàn)結(jié)果表明:本文
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于關(guān)節(jié)模型的人體動(dòng)作識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)的人體動(dòng)作識(shí)別方法研究.pdf
- 基于視頻流的人體行為識(shí)別方法研究.pdf
- 基于視頻和三維動(dòng)作捕捉數(shù)據(jù)的人體動(dòng)作識(shí)別方法的研究.pdf
- 基于立體視覺的人體動(dòng)作識(shí)別方法研究.pdf
- 基于Kinect骨骼數(shù)據(jù)的人體動(dòng)作識(shí)別方法研究.pdf
- 基于流形學(xué)習(xí)的人體動(dòng)作識(shí)別方法研究.pdf
- 基于視頻序列的人體動(dòng)作識(shí)別.pdf
- 基于分層時(shí)空特征模型的人體動(dòng)作識(shí)別方法研究.pdf
- 視頻數(shù)據(jù)中人體動(dòng)作識(shí)別方法研究.pdf
- 基于高魯棒性特征的人體動(dòng)作識(shí)別方法研究.pdf
- 基于視頻的人體姿態(tài)檢測(cè)與運(yùn)動(dòng)識(shí)別方法.pdf
- 視頻中的人體動(dòng)作識(shí)別研究.pdf
- 基于加速度傳感器的人體動(dòng)作識(shí)別方法研究.pdf
- 基于視頻的人體動(dòng)作分析與識(shí)別的研究.pdf
- 視頻中的人體動(dòng)作行為識(shí)別研究.pdf
- 視頻監(jiān)控中的人體異常行為識(shí)別方法研究.pdf
- 基于視頻的人臉識(shí)別方法研究.pdf
- 視頻人體行為識(shí)別方法研究.pdf
- 基于模型的人體行為識(shí)別方法研究.pdf
評(píng)論
0/150
提交評(píng)論