版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、在深度卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNNs)中,池化是一個(gè)關(guān)鍵機(jī)制,有利于CNNs獲得具有平移不變性的特征。大量的經(jīng)驗(yàn)和理論研究表明,池化能夠有效的提升CNNs的性能。傳統(tǒng)的池化操作一般是基于激活值的。本文提出一種基于序的池化機(jī)制。提出這種池化方法的動(dòng)機(jī)是,在池化域內(nèi),激活值的序只與激活值的大小關(guān)系有關(guān),而與其實(shí)際大小無關(guān)?;诩せ钪档男蛴?jì)算池化輸出有利于獲得更加魯棒的特征。此外,通過合理的
2、使用激活值的序能夠有效地避免基于值的方法所面臨的數(shù)據(jù)尺度問題。
基于序的池化方法可以視為一種加權(quán)池化,也就是將池化域內(nèi)所有激活值的加權(quán)和作為池化輸出。根據(jù)加權(quán)方式的不同,本文提出三種新的池化操作:基于序的平均池化、基于序的加權(quán)池化和基于序的隨機(jī)池化。作為另外一個(gè)重要貢獻(xiàn),本文引入判別熵的概念,提出一種評(píng)估池化方法判別能力的準(zhǔn)則。
在圖像識(shí)別和人群計(jì)數(shù)兩個(gè)計(jì)算機(jī)視覺任務(wù)上評(píng)價(jià)提出的方法。在圖像識(shí)別任務(wù)上,四個(gè)標(biāo)準(zhǔn)數(shù)據(jù)集
3、(MNIST、CIFAR-10、CIFAR-100和NORB)上的實(shí)驗(yàn)結(jié)果表明,提出的基于序的池化方法相比于已有方法有更好的識(shí)別表現(xiàn)。為了進(jìn)一步展示提出方法的優(yōu)越性,將基于序的隨機(jī)池化方法與NIN(Network-in-Network)網(wǎng)絡(luò)結(jié)合,在CIFAR-10和CIFAR-100數(shù)據(jù)集上獲得了更加優(yōu)異的識(shí)別效果。在人群計(jì)數(shù)任務(wù)上,針對(duì)攝像機(jī)透視效果、圖像背景、人群密度分布不均勻和行人遮擋等問題,提出一種基于序的空間金字塔池化網(wǎng)絡(luò)的人
4、群計(jì)數(shù)方法。該方法將原圖像分成多個(gè)具有相同透視范圍的子區(qū)域并在各個(gè)子區(qū)域分別取不同尺度的子圖像塊,采用基于序的空間金字塔池化網(wǎng)絡(luò)估計(jì)子圖像塊人數(shù),然后相加所有子圖像塊人數(shù)得出原圖像人數(shù)。提出的圖像分塊方法有效地消除了攝像機(jī)透視效果和人群密度分布不均勻?qū)τ?jì)數(shù)的影響。提出的基于序的空間金字塔池化不僅能夠處理多種尺度的子圖像塊,而且解決了傳統(tǒng)池化方法易損失大量重要信息和易過擬合的問題。在UCSD標(biāo)準(zhǔn)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,本文方法相比于傳統(tǒng)方
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的熟料顆粒方法研究.pdf
- 基于多尺度池化的卷積神經(jīng)網(wǎng)絡(luò)人臉識(shí)別方法研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的腦組織分割方法研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的車型識(shí)別.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)跟蹤.pdf
- 基于FPGA的深度卷積神經(jīng)網(wǎng)絡(luò)加速研究.pdf
- 基于免疫卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的場(chǎng)景分類研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像分類方法研究及應(yīng)用.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的智能車輛目標(biāo)檢測(cè)方法研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的語(yǔ)義圖像檢索研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像檢索算法研究.pdf
- 基于Caffe深度學(xué)習(xí)框架的卷積神經(jīng)網(wǎng)絡(luò)研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的離線筆跡鑒別研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的顏值計(jì)算研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的表單中手寫簽名位置定位方法.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的實(shí)體關(guān)系抽取.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人體姿勢(shì)估計(jì)研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的毫米波圖像目標(biāo)檢測(cè)方法研究.pdf
評(píng)論
0/150
提交評(píng)論