視頻中移動對象跟蹤技術(shù)研究【文獻綜述】_第1頁
已閱讀1頁,還剩4頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、1畢業(yè)設(shè)計文獻綜述畢業(yè)設(shè)計文獻綜述計算機科學(xué)與技術(shù)計算機科學(xué)與技術(shù)視頻中移動對象跟蹤技術(shù)研究視頻中移動對象跟蹤技術(shù)研究摘要:視頻中移動對象跟蹤技術(shù)的研究是當(dāng)前計算機視覺領(lǐng)域的一個熱點問題,本文對這一問題研究現(xiàn)狀進行了大量的文獻閱讀,并做了總結(jié)和展望。為了清楚地表達這一研究問題我引用了目前主流的劃分方法進行相應(yīng)的闡述。最后我提出了未來的移動對象跟蹤技術(shù)的一個發(fā)展前景是人機交互。在某些時刻適當(dāng)?shù)刈屗惴ㄅc人進行一定的交互來達到有效地處理復(fù)雜情

2、景。關(guān)鍵詞:計算機視覺;目標(biāo)跟蹤;移動對象跟蹤技術(shù);人機交互;一、視頻中移動對象跟蹤技術(shù)研究的意義隨著計算機技術(shù)的不斷發(fā)展,計算能力得到了極大地提高,使得利用計算機實現(xiàn)人類的視覺功能成為目前計算機領(lǐng)域中最熱門的課題之一[1]。視頻中移動對象跟蹤(簡稱目標(biāo)跟蹤)是計算機視覺領(lǐng)域的一個分支,它在視頻監(jiān)控、視頻壓縮與傳輸、電話會議、人機界面的應(yīng)用中以及高技術(shù)武器裝備方面都有重要的意義[215]。目前的一些目標(biāo)跟蹤算法中都有各自適用的情景,有些

3、不能處理遮擋、速度突變、光線變化以及多目標(biāo)干擾。二、視頻中移動對象跟蹤技術(shù)的研究現(xiàn)狀1.移動對象跟蹤技術(shù)的基本原理對于視覺跟蹤問題的處理,總體上講有兩種思路[1],一種稱之為自底向上的處理方法;另一種稱之為自頂向下的處理方法。文獻[34]也給出了另外兩種不同角度的劃分。(1)自底向上的處理方法自底向上的處理方法又稱之為基于運動分析的方法[3],這種方法不依賴于先驗知識,直接從圖像序列中獲得目標(biāo)的運動信息并進行跟蹤。在自底向上的視覺跟蹤過

4、程中,跟蹤的目的是獲得場景中運動目標(biāo)的位置、速度、加速度、運動軌跡等信息,這相當(dāng)于視覺過程中的后期階段,為得到這些信息,在獲得圖像序列并對圖像序列進行預(yù)處理之后,首先直接從圖像序列中檢測運動目標(biāo),這是早期階段;檢測到運動目標(biāo)之后,提取出運動目標(biāo)并進行識別,以判定是否跟蹤,這相當(dāng)于中期階段;最后對該目標(biāo)進行跟蹤并獲得運動目標(biāo)的相關(guān)運動信息。上述過程按處理順序共分為四步,第一步為圖像預(yù)處理,一般對所獲得的序列圖像進行消噪或增強,提高圖像質(zhì)量

5、以方便后續(xù)處3尋優(yōu)策略,有很好的實時性。熊玉梅、郭堅、陳一民[5]與2011年提出了一種搜索窗口可變的目標(biāo)跟蹤算法,該跟蹤算法最關(guān)鍵之處就是需要根據(jù)預(yù)測前面得到的標(biāo)志坐標(biāo)預(yù)測下一次標(biāo)志將會出現(xiàn)的位置并計算下一次的搜索窗口。曲巨寶林宏基梁洪濤,劉勝[12]與2011年提出的文獻中比較了經(jīng)典的卡爾曼濾波、粒子濾波以及Meanshift算法的各自缺點,并提出了一種改進背景差分法與核寬自適應(yīng)的Meanshift算法相結(jié)合的目標(biāo)跟蹤算法,此算法采

6、用灰度質(zhì)心技術(shù)與核帶寬自適應(yīng)算法提高Meanshift跟蹤效率和魯棒性。(2)國外的研究現(xiàn)狀國外的主流的跟蹤算法還是集中在對MeanShift、粒子濾波,卡爾曼等算法的研究上。經(jīng)典的卡爾曼計算量大,構(gòu)造模型困難,不適合復(fù)雜環(huán)境下的實時運動目標(biāo)跟蹤。經(jīng)典的粒子濾波算法也因經(jīng)過多次迭代后,大量粒子只集中了較小的權(quán)值它們對后驗概率的估計幾乎不起作用。經(jīng)典的Meanshift算法缺乏模板更新與核帶寬自適應(yīng)功能,容易出現(xiàn)目標(biāo)丟失情況。雖然Mean

7、shift算法有這樣的缺點,但是它是一個無參數(shù)估計算法,硬件實現(xiàn)比較容易,加之采用核函數(shù)直方圖建模,對邊緣遮擋、目標(biāo)旋轉(zhuǎn)、變形和背景運動不太敏感。因此在目標(biāo)跟蹤算法中Meanshift算法還是一個主流。另外在目標(biāo)模板與候選模板之間相似度的計算一般都采用Bhattayya系數(shù)。文獻[14]與2010年提出了結(jié)合自適應(yīng)卡爾曼與Meanshift的目標(biāo)跟蹤算法,該方法對真實復(fù)雜情況下連續(xù)幀中目標(biāo)移動的跟蹤有很好的魯棒性,例如,由于遮擋目標(biāo)的部

8、分消失或全部消失,快速移動的目標(biāo),移動目標(biāo)的突然加速等。文獻[15]提出了一種結(jié)合SIFT特征和Meanshift的目標(biāo)跟蹤技術(shù),為了獲得相似性區(qū)域的最大似然估計,這兩個評估方法的概率分布被計算出來用以尋找最大期望。這種相互支持的機制,使得即使在其中一個方法變得不穩(wěn)定的時候也能保持跟蹤的一致性。三、移動對象跟蹤技術(shù)的發(fā)展趨勢通過文獻閱讀和對國內(nèi)外研究現(xiàn)狀的分析和綜合,我認為移動對象跟蹤技術(shù)的發(fā)展趨勢如下:1.隨著移動對象跟蹤技術(shù)在現(xiàn)實場

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論