基于機(jī)器學(xué)習(xí)的物體識(shí)別.pdf_第1頁(yè)
已閱讀1頁(yè),還剩164頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、計(jì)算機(jī)視覺(jué)是人工智能領(lǐng)域的核心問(wèn)題之一,它的目標(biāo)是讓計(jì)算機(jī)擁有人的視覺(jué)能力,也就是讓機(jī)算計(jì)像人一樣理解現(xiàn)實(shí)世界中的圖像。計(jì)算機(jī)視覺(jué)在醫(yī)學(xué)、工業(yè)、軍事、航天等領(lǐng)域擁有廣泛的應(yīng)用。但是,根據(jù)人的視覺(jué)占用至少60%的人腦資源這個(gè)事實(shí),計(jì)算機(jī)視覺(jué)在學(xué)術(shù)界被認(rèn)為是“人工智能完全”問(wèn)題,或者至少是“人工智能困難”問(wèn)題。在眾多計(jì)算機(jī)視覺(jué)的問(wèn)題中,廣義的物體識(shí)別,即在任意環(huán)境下識(shí)別任意物體,又是最核心的問(wèn)題之一??偟膩?lái)說(shuō),物體識(shí)別是讓計(jì)算機(jī)自動(dòng)地把圖像

2、中的物體分類。這是個(gè)非常具有挑戰(zhàn)性的問(wèn)題,它也是很多應(yīng)用問(wèn)題的最緊要瓶頸所在,比如圖片搜索問(wèn)題。雖然世界上諸如麻省理工、斯坦福、耶魯、劍橋、普林斯頓等眾多非常有實(shí)力的研究機(jī)構(gòu)已經(jīng)研究這個(gè)問(wèn)題多年,廣義的物體識(shí)別問(wèn)題還遠(yuǎn)遠(yuǎn)沒(méi)有得到很好的解決。但是,從機(jī)器學(xué)習(xí)的角度來(lái)說(shuō),物體識(shí)別的問(wèn)題至少在一定程度上是可行的。準(zhǔn)確的說(shuō),只要能合適地抽取圖像特征、合適地描述物體和找到合適的分類模型,實(shí)現(xiàn)一個(gè)能滿足實(shí)際應(yīng)用的物體識(shí)別系統(tǒng)是可行的。
  

3、 在這篇論文里,我們將介紹一個(gè)基于機(jī)器學(xué)習(xí)的物體識(shí)別系統(tǒng)原型。這個(gè)原型系統(tǒng)包括三個(gè)部分:物體分割子系統(tǒng)、物體描述子系統(tǒng)和一個(gè)分類器。在這三個(gè)要點(diǎn)上,我們創(chuàng)造性地提出了自己的方法:一個(gè)基于混合圖模型(HGM)的物體分割算法、一個(gè)基于拉多表示的物體描述算法(RRFD)和一個(gè)稱為神經(jīng)編碼分類器(NCC)的分類算法。隨后,我們對(duì)這個(gè)基本原型系統(tǒng)做一些改進(jìn)工作:包括基于低秩描述(LRR)的圖像聚類算法、基于局部線性轉(zhuǎn)換(LLT)的多標(biāo)簽分類算法和

4、基于反饋嵌入(FE)的大規(guī)模相似圖像查找技術(shù)。具體來(lái)說(shuō),本文的創(chuàng)新點(diǎn)有:
   我們提出了用于一般半指導(dǎo)分類的HGM(Hybrid Graph Model,混合圖模型),并建立了一個(gè)有效的物體自動(dòng)分割方法。根據(jù)我們所知,我們是第一個(gè)將混合圖引入機(jī)器學(xué)習(xí)的人。不同于傳統(tǒng)的物體分割方法,我們的基于HGM的方法是自動(dòng)的,即不需要手動(dòng)分割好的訓(xùn)練數(shù)據(jù)。這使得我們的物體識(shí)別系統(tǒng)更加實(shí)用。
   我們提出了基于Radon變換的物體描

5、述算法,稱為RRFD(Radon Repre-sentation Based Feature Description,基于拉多表示的特征描述)。在物體已經(jīng)從圖像中分割出來(lái)后,RRFD可以把物體的形狀、顏色、紋理等信息綜合地集成到一個(gè)維度比較低的特征向量中去,并由此而實(shí)現(xiàn)精確的物體識(shí)別。除此之外,RRFD也可以作為一個(gè)一般的特征描述算法,它可以描述任意一個(gè)圖像區(qū)域。
   物體識(shí)別中的最后一個(gè)步驟是對(duì)特征向量進(jìn)行分類。我們提出了基

6、于神經(jīng)編碼的分類器,稱為NCC(Neural Coding Classifier,神經(jīng)編碼分類器)。和傳統(tǒng)的諸如SVM的分類算法相比,NCC不僅能夠很好地處理測(cè)試數(shù)據(jù)與訓(xùn)練數(shù)據(jù)同分布的情況,也能更好地處理測(cè)試數(shù)據(jù)與訓(xùn)練數(shù)據(jù)概率分布不同的情況。實(shí)驗(yàn)結(jié)果表明,在測(cè)試數(shù)據(jù)和訓(xùn)練數(shù)據(jù)概率分布相同的情況下,NCC的分類精度度略微超過(guò)SVM;在測(cè)試數(shù)據(jù)和訓(xùn)練數(shù)據(jù)概率分布不同的情況下,NCC可以顯著地超過(guò)SVM。
   當(dāng)一張圖像中可能含有多

7、個(gè)類的物體時(shí),物體識(shí)別中對(duì)應(yīng)的分類問(wèn)題就是一個(gè)MLC(Multi-Label Classification,多標(biāo)簽分類)問(wèn)題。多標(biāo)簽分類問(wèn)題可以用MOR(Multi Output Regression,多輸出回歸)模型來(lái)處理。我們提出了用于定義回歸分析中損失函數(shù)的LLT(Locally Linear Transformation,局部線性轉(zhuǎn)換)機(jī)制,并在SVR(Support Vector Regression,支持向量回歸)框架下提出

8、了一種結(jié)合LLT和SVR的多輸出回歸算法,即所謂的LLT-SVR。LLT-SVR即提供了一種很好的多輸出回歸分析工具,又為我們的物體識(shí)別系統(tǒng)提供了一種有效的多標(biāo)簽分類器。
   為了提高物體識(shí)別系統(tǒng)的實(shí)用性,我們需要一種有效的圖像聚類機(jī)制。我們首次提出了用于處理矩陣數(shù)據(jù)信號(hào)的LRR(Low-Rank Representation,低秩表示)。LRR是一種新的壓縮傳感(CompressedSensor)技術(shù),和傳統(tǒng)的SR(Spar

9、se Representation,稀疏表示)相比,LRR能更好的描述數(shù)據(jù)的整體結(jié)構(gòu),從而在諸如圖像聚類之類的數(shù)據(jù)聚類問(wèn)題中,LRR有明顯的優(yōu)勢(shì)?;贚RR,我們提出了一種有效的圖像聚類算法。除圖像聚類外,LRR子空間分割算法也是一種基本的數(shù)據(jù)聚類法。更重要的是,LRR首次提出了“低秩”(LowRank)準(zhǔn)則。LRR不但在機(jī)器學(xué)習(xí)領(lǐng)域產(chǎn)生巨大的理論影響,而且在計(jì)算機(jī)視覺(jué)和圖像處理領(lǐng)域有著廣泛的應(yīng)用。
   為了提高物體識(shí)別系統(tǒng)的

10、運(yùn)行速度,我們需要一種高速的相似圖像查找技術(shù)。我們提出了稱為FE(Feedback Embedding,反饋嵌入)的數(shù)據(jù)降維算法?;贔E,我們可以設(shè)計(jì)出一種有效的語(yǔ)義哈希算法,進(jìn)而實(shí)現(xiàn)在大規(guī)模物體識(shí)別系統(tǒng)中的快速相似圖像查找。
   除研究物體識(shí)別和一些相關(guān)的機(jī)器學(xué)習(xí)問(wèn)題(比如分類、聚類和降維等)外,本文也對(duì)一些根本的科學(xué)問(wèn)題進(jìn)行了討論。比如我們探究大腦是如何處理視覺(jué)信號(hào)的,并提出了一個(gè)新穎的神經(jīng)編碼假設(shè),即大腦是基于信號(hào)重構(gòu)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論