2023年全國(guó)碩士研究生考試考研英語(yǔ)一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩171頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、隨著“Internet”的飛速發(fā)展,產(chǎn)生并累積了大量的圖像數(shù)據(jù),如果沒有很好的方法處理這些海量數(shù)據(jù),其中有用的信息就會(huì)被淹沒。因此,如何有效地表示圖像、高效的檢索圖像成為一個(gè)有意義的課題。 本文圍繞基于圖理論的圖像描述與檢索展開討論,在介紹基于內(nèi)容的圖像檢索fContent.Based Inaage Retrieval.CBIR)的基礎(chǔ)上,針對(duì)傳統(tǒng)的使用圖像顏色、紋理和形狀等特征的CBIR對(duì)結(jié)構(gòu)化信息描述不足的缺點(diǎn),提出使用基于

2、圖描述的圖像檢索。并闡明本研究的立足點(diǎn):使用基于圖理論的圖像描述與檢索作為傳統(tǒng)CBIR檢索的補(bǔ)充,以提高檢索效率。 為了使用圖理論來(lái)優(yōu)化基于內(nèi)容的圖像檢索,首先必須尋找有效的圖像圖描述方法。本文詳細(xì)闡述了基于圖像特征點(diǎn)的Delatlrlay圖的描述方法,并通過(guò)圖譜特征的圖像分類實(shí)驗(yàn)來(lái)驗(yàn)證這種圖像描述方法的有效性。對(duì)于內(nèi)容較為簡(jiǎn)單的圖像,提出了基于輪廓的加權(quán)圖描述方法。該方法利用仿射傅立葉變換重構(gòu)的離散輪廓點(diǎn)來(lái)構(gòu)成加權(quán)圖,使用這種

3、圖可以在較小的數(shù)據(jù)規(guī)模情況下較好的保持圖像的形狀結(jié)構(gòu)。而骨架作為有效的描述圖像形狀的手段,在很多方面取得了成功的應(yīng)用,結(jié)合骨架和圖描述的優(yōu)勢(shì),本文提出了基于骨架的圖描述方法。該方法是建立在水平集理論和散度空間的骨架提取算法之上的。不論是基于輪廓的圖描述方法還是基于骨架的圖描述方法,都只能描述簡(jiǎn)單的單一輪廓圖像,為了突破這一限制,本文提出基于了輪廓和骨架統(tǒng)一框架的分層圖描述方法。該方法在不同層采用不同規(guī)模的圖描述,使形狀比較可以在不同層進(jìn)

4、行。 雖然有了圖像的圖描述,但是如何衡量?jī)蓤D之間距離一直是一個(gè)困難的問(wèn)題。本文引入了衡量圖與圖之間距離的一種思路:先把圖序列化成串,利用串與串間的相似度量方法來(lái)比較圖與圖的距離。基于這種思路,提出了基于譜系數(shù)夾角的圖的序列化方法和基于隨機(jī)圖理論的圖的序列化方法。譜系數(shù)夾角作為圖的譜特征用于圖的序列化,利用圖的特征向量獲取序列化的起點(diǎn),然后按照譜系數(shù)夾角的排序來(lái)完成序列化過(guò)程:基于隨機(jī)圖理論的圖的序列化方法利用隨機(jī)圖中層次類覆蓋捕

5、獲圖理論,把序列化過(guò)程看成是個(gè)隨機(jī)過(guò)程,根據(jù)其概率模型來(lái)完成序列化過(guò)程。對(duì)于序列化后的圖,本文提出使用動(dòng)態(tài)時(shí)間規(guī)整算法來(lái)刻畫序列化圖之間距離,并給出了動(dòng)態(tài)時(shí)間規(guī)整描述圖距離的概率模型及其算法框架。使用圖描述圖像的方法把圖像庫(kù)的檢索轉(zhuǎn)換成圖庫(kù)的檢索,圖庫(kù)的特殊性使得圖庫(kù)的高維索引成為必須考慮的問(wèn)題。本文詳細(xì)闡述了基于混合模型和矢量量化的圖庫(kù)索引方法,提出了基于模型自動(dòng)選擇聚類的圖庫(kù)索引方法和基于t-混合模型的圖庫(kù)索引方法。基于模型自動(dòng)選擇

6、聚類的圖庫(kù)索引方法利用改進(jìn)的主分量?jī)?yōu)先的EM算法-CEM<'2>(Component wise EM)來(lái)估計(jì)圖庫(kù)的分布模型。由于該方法可以在未知圖庫(kù)精確類別數(shù)的情況下進(jìn)行索引,因而比起傳統(tǒng)的基于高斯混合模型的索引方法更實(shí)用;考慮到實(shí)際圖庫(kù)可能比較復(fù)雜,而基于高斯混合模型的索引方法對(duì)于圖庫(kù)中類別分布極不均勻的場(chǎng)合的索引效率會(huì)顯著下降。為此,本文提出基于t-混合模型和獨(dú)立成分分析的索引方法。由于t-混合模型具有抗野值性能強(qiáng)的特性,使該索引方

7、法具有較強(qiáng)的穩(wěn)定性。 傳統(tǒng)的基于內(nèi)容的圖像檢索方法,返回的結(jié)果集只考慮與查詢圖像在特征域的相似性,而不考慮結(jié)果集內(nèi)部圖像之間的關(guān)系。本文研究了在擴(kuò)大的結(jié)果集上尋求既與查詢圖像相似,結(jié)果集本身分布又比較緊密的子集作為檢索的結(jié)果。提出了基于關(guān)系圖譜特征的圖像檢索方法,該方法在初始結(jié)果集上構(gòu)造關(guān)系圖,利用該關(guān)系圖的圖譜特征來(lái)尋找滿足條件的頂點(diǎn)子集,其對(duì)應(yīng)的結(jié)果作為檢索的結(jié)果。實(shí)驗(yàn)證明該方法可以在不顯著增加檢索復(fù)雜度的前提下提高檢索的精

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論