版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、人群密度估計(jì)與稠密人群計(jì)數(shù)是當(dāng)前計(jì)算機(jī)視覺(jué)領(lǐng)域的研究熱點(diǎn)之一,具有非常廣泛的應(yīng)用。隨著國(guó)家經(jīng)濟(jì)的持續(xù)高速發(fā)展,城鎮(zhèn)化不斷推進(jìn),城市人口規(guī)模越來(lái)越大,人群密集行為越來(lái)越多,由此帶來(lái)的恐怖事件、踩踏事件也日趨增多,如上海外灘踩踏事件、甘肅固原踩踏事件等。目前通過(guò)監(jiān)控視頻實(shí)現(xiàn)人群密度估計(jì)和準(zhǔn)確人群計(jì)數(shù)是一個(gè)至關(guān)重要的任務(wù),其結(jié)果對(duì)人群檢測(cè)、人群異常行為分析等有重要的參考作用。深度學(xué)習(xí)是一種由多個(gè)處理層組成的計(jì)算模型,它不需要人工標(biāo)注各種特征,
2、可以通過(guò)學(xué)習(xí)獲得數(shù)據(jù)的多抽象層表示。近年來(lái),深度學(xué)習(xí)方法的廣泛應(yīng)用顯著提高了語(yǔ)音識(shí)別、視覺(jué)目標(biāo)識(shí)別和檢測(cè)結(jié)果。卷積神經(jīng)網(wǎng)絡(luò)是目前深度學(xué)習(xí)中最為流行的學(xué)習(xí)算法,其主要優(yōu)勢(shì)體現(xiàn)在局部連接和權(quán)值共享,不僅降低了網(wǎng)絡(luò)模型的復(fù)雜度,減少了權(quán)值數(shù)量,而且這種網(wǎng)絡(luò)結(jié)構(gòu)對(duì)平抑、旋轉(zhuǎn)、傾斜、比例縮放等具有高度不變形。本文基于深度學(xué)習(xí)方法對(duì)復(fù)雜場(chǎng)景中人群密度估計(jì)與稠密人群計(jì)數(shù)問(wèn)題進(jìn)行研究。
稠密人群的特征為人群數(shù)量極大、場(chǎng)景透視、相鄰個(gè)體間存在嚴(yán)
3、重的遮擋與阻塞,為有效降低上述特征對(duì)人群密度估計(jì)和人群計(jì)數(shù)帶來(lái)的影響,本文首先引入局部稠密概念,將圖像分塊,通過(guò)均勻化樣本、添加距離閾值、增加歐氏距離權(quán)值改進(jìn)kNN算法,并將D-kNN算法與灰度共生矩陣結(jié)合用于人群密度估計(jì)。均勻化樣本和設(shè)置閾值避免了因目標(biāo)場(chǎng)景與樣本之間的距離過(guò)大造成的誤判,保證了分類的性能;添加距離權(quán)值增強(qiáng)了特征的表示能力,降低了高維度特征對(duì)分類結(jié)果造成的影響。其次,本文借鑒卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)提取特征和對(duì)場(chǎng)景扭曲的不變性
4、,提出了一種 LR-CNN稠密人群計(jì)數(shù)模型。LR-CNN模型可以從分割和壓縮過(guò)的圖像中提取到原圖像的有效信息;通過(guò)使用新的LR激活函數(shù)給卷積神經(jīng)網(wǎng)絡(luò)添加非線性因素,保留了部分負(fù)值,修正了數(shù)據(jù)分布,解決了ReLU訓(xùn)練時(shí)神經(jīng)元易死亡的問(wèn)題;使用人群密度估計(jì)得出的稠密塊來(lái)訓(xùn)練LR-CNN稠密人群計(jì)數(shù)模型,降低了人群分布不均勻?qū)θ巳河?jì)數(shù)問(wèn)題帶來(lái)的影響。
為了驗(yàn)證和分析算法性能,本文采用當(dāng)前較為流行的 ShanghaiTech和UCF_
5、CC_50數(shù)據(jù)集。使用均絕對(duì)誤差(MAE)和均方誤差(MSE)作為評(píng)估算法性能的標(biāo)準(zhǔn),實(shí)驗(yàn)結(jié)果表明:本文設(shè)計(jì)的CNN計(jì)數(shù)模型在測(cè)試集上的MAE和MSE分別為:169.4,258.6;35.1,57.3;408.7,460.3;2.19,7.63;在稠密人群計(jì)數(shù)方面MAE和MSE較以往的方法有了明顯的降低,提高了計(jì)數(shù)的準(zhǔn)確率,對(duì)稠密人群計(jì)數(shù)因遮擋透視帶來(lái)的問(wèn)題提供了有效的解決方法。通過(guò)實(shí)驗(yàn)測(cè)試及與其他方法的對(duì)比,在高人群密度場(chǎng)景下較以往的
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于視頻的人群密度估計(jì)研究.pdf
- 基于紋理分析的人群密度估計(jì).pdf
- 基于視頻圖像的人群密度估計(jì)研究.pdf
- 場(chǎng)景監(jiān)控下的人群密度估計(jì)研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人群密度估計(jì).pdf
- 視頻監(jiān)控場(chǎng)景中的人群密度估計(jì)研究.pdf
- 人群密度估計(jì)的算法研究.pdf
- 人群的密度估計(jì)與運(yùn)動(dòng)估計(jì).pdf
- 基于灰度共生矩陣的人群密度估計(jì)算法研究.pdf
- 智能視頻監(jiān)控中的人群密度估計(jì)方法.pdf
- 基于人群密度估計(jì)的視頻監(jiān)控技術(shù).pdf
- 視頻監(jiān)控中人群密度估計(jì)研究.pdf
- 基于視頻的目標(biāo)跟蹤及人群密度估計(jì)方法研究.pdf
- 視頻監(jiān)控中人群密度估計(jì)和人群異常行為識(shí)別.pdf
- 視頻監(jiān)控中的人群密度估計(jì)和人數(shù)統(tǒng)計(jì)技術(shù)研究.pdf
- 人群密度估計(jì)研究及其在醫(yī)院中的應(yīng)用.pdf
- 機(jī)場(chǎng)航站樓視頻監(jiān)控系統(tǒng)中的人群密度估計(jì)研究.pdf
- 智能視頻監(jiān)控中人群密度估計(jì)方法研究.pdf
- 重點(diǎn)視頻監(jiān)控區(qū)域的人群密度估計(jì)改進(jìn)算法的研究與實(shí)現(xiàn).pdf
- 監(jiān)控視頻中人群的密度估計(jì)和行為分析.pdf
評(píng)論
0/150
提交評(píng)論