2023年全國(guó)碩士研究生考試考研英語(yǔ)一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩129頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、人體動(dòng)作識(shí)別廣泛應(yīng)用于視頻檢索、視頻監(jiān)控和人機(jī)交互等多個(gè)方面。近年來(lái),隨著視覺(jué)認(rèn)知理論的發(fā)展,基于時(shí)空數(shù)據(jù)的流形表征與建模識(shí)別人體動(dòng)作受到了越來(lái)越多的研究者關(guān)注。然而人體動(dòng)作時(shí)空數(shù)據(jù)的多樣性、空間拓?fù)浣Y(jié)構(gòu)的復(fù)雜性、時(shí)間拓?fù)浣Y(jié)構(gòu)的動(dòng)態(tài)性、不同個(gè)體執(zhí)行的多變性、以及人體動(dòng)作因環(huán)境因素的影響等,給人體動(dòng)作識(shí)別和人體行為理解帶來(lái)巨大的挑戰(zhàn)。如何使計(jì)算機(jī)具備人類的視覺(jué)感知和理解認(rèn)知,進(jìn)一步識(shí)別和理解人體動(dòng)作,是計(jì)算機(jī)視覺(jué)、模式識(shí)別和圖像處理領(lǐng)域內(nèi)

2、研究的熱點(diǎn)和難點(diǎn)。本文以此問(wèn)題為中心展開(kāi)研究工作,主要的研究成果有:
  (1)人體動(dòng)作高維數(shù)據(jù)具有低維流形的本質(zhì)特性,而在高維數(shù)據(jù)中基于歐氏距離構(gòu)建的局部流形拓?fù)浣Y(jié)構(gòu)可能置亂本質(zhì)的局部流形拓?fù)浣Y(jié)構(gòu)。針對(duì)此問(wèn)題提出Grassmann流形的多聚類特征選擇算法,算法通過(guò)局部主成分分析方法逼近數(shù)據(jù)點(diǎn)的切空間,獲取局部數(shù)據(jù)的主要變化方向,濾除由歐氏距離度量造成拓?fù)浣Y(jié)構(gòu)置亂點(diǎn)的影響。然后由切空間構(gòu)造出Grassmann流形,通過(guò)Grassm

3、ann流形測(cè)地距保留局部數(shù)據(jù)的流形拓?fù)浣Y(jié)構(gòu),以L1范數(shù)優(yōu)化逼近流形拓?fù)洌罱K選擇出低維的原本數(shù)據(jù)特征。在多個(gè)數(shù)據(jù)庫(kù)中證實(shí)了算法的有效性,為進(jìn)一步獲取人體動(dòng)作低維本質(zhì)的流形表征提供了可行的理論方法。
  (2)針對(duì)視頻圖像中人體目標(biāo)與背景相似難以分割的實(shí)際問(wèn)題,提出了基于分層引導(dǎo)的視頻人體目標(biāo)輪廓提取算法。算法以貝葉斯理論為基礎(chǔ),描述人體輪廓相關(guān)的幀內(nèi)空間信息、形狀先驗(yàn)信息和幀間時(shí)間信息之間復(fù)雜關(guān)系和理論模型?;隈R爾科夫理論建立幀

4、內(nèi)空間隨機(jī)場(chǎng)模型,基于高斯分布理論建立幀間信息分布模型,以分層引導(dǎo)的思想實(shí)踐理論模型,從而獲得較完整的人體輪廓。在實(shí)際的監(jiān)控?cái)?shù)據(jù)中證實(shí)算法的有效性,為進(jìn)一步獲取人體動(dòng)作表征提供了數(shù)據(jù)支持。
  (3)針對(duì)數(shù)據(jù)特征結(jié)構(gòu)在不同觀測(cè)中描述缺失或不完整的問(wèn)題,在流形學(xué)習(xí)的基礎(chǔ)理論上,提出三種異構(gòu)特征融合算法。第一種算法根據(jù)數(shù)據(jù)局部結(jié)構(gòu)融合,提出了基于局部保留映射的流形結(jié)構(gòu)融合算法;第二種算法根據(jù)數(shù)據(jù)局部近鄰關(guān)系結(jié)構(gòu)融合,提出了基于最近鄰近

5、保留嵌入的流形結(jié)構(gòu)融合算法;第三種算法根據(jù)子空間局部結(jié)構(gòu)融合,提出基于張量子空間的流形結(jié)構(gòu)融合算法。這些算法主要包含兩個(gè)方面內(nèi)容,一方面描述向量特征結(jié)構(gòu)的度量方法和向量空間的度量方法,另一方面揭示出不同特征流形結(jié)構(gòu)融合的機(jī)理。在輪廓數(shù)據(jù)中驗(yàn)證了異構(gòu)融合方法的有效性,為進(jìn)一步人體動(dòng)作異構(gòu)特征融合提供了可行的理論方法。
  (4)從兩個(gè)方面對(duì)人體動(dòng)作建模進(jìn)行研究。一方面,從動(dòng)態(tài)數(shù)據(jù)特性建模的角度,提出了基于隨機(jī)譜回歸的人體動(dòng)作建模方法

6、,首先根據(jù)人體動(dòng)作數(shù)據(jù)在流形上的均勻分布和人體動(dòng)作分類標(biāo)簽構(gòu)建權(quán)值矩陣,克服流形學(xué)習(xí)算法的鄰域參數(shù)選擇問(wèn)題;然后通過(guò)譜回歸的方法,在相同和不同人體動(dòng)作圖像幀中逼近基于幀的空間流形,獲得對(duì)未標(biāo)記樣本的流形映射;最后對(duì)空間特征序列提取動(dòng)態(tài)特征,使用高斯過(guò)程建模對(duì)人體動(dòng)作特征進(jìn)行分類。另一方面,從建立動(dòng)態(tài)模型的角度,提出基于異構(gòu)特征空間分布特征的ARMA建模研究方法。在方法中,利用相對(duì)極坐標(biāo)劃分特征(輪廓和光流)的空間區(qū)域,在局部區(qū)域統(tǒng)計(jì)非零

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論