2023年全國(guó)碩士研究生考試考研英語(yǔ)一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩121頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、近年來(lái),隨著計(jì)算機(jī)技術(shù)、多媒體技術(shù)和網(wǎng)絡(luò)技術(shù)的不斷發(fā)展,圖像和視頻資源日益豐富,從這些海量圖像、視頻中獲取感興趣的信息已經(jīng)成為當(dāng)前多媒體信息技術(shù)研究的熱點(diǎn)。圖像、視頻中的文字包含豐富的語(yǔ)義信息,是理解圖像、視頻內(nèi)容的重要線索,提取和識(shí)別這種圖像、視頻中的文字對(duì)于圖像理解、視頻內(nèi)容分析、基于內(nèi)容的圖像和視頻檢索等領(lǐng)域具有重要意義。由于圖像、視頻中的文字通常疊加在復(fù)雜的背景之上,背景的干擾使得現(xiàn)有 OCR(Optical Character

2、 Recognition)技術(shù)難以獲得較好的識(shí)別結(jié)果,因而如何從圖像、視頻復(fù)雜場(chǎng)景中檢測(cè)識(shí)別文字成為一個(gè)重要的研究課題。
  本文以圖像、視頻復(fù)雜場(chǎng)景為研究背景,圍繞在復(fù)雜場(chǎng)景中文字檢測(cè)和識(shí)別進(jìn)行研究,根據(jù)文字紋理特征,研究了復(fù)雜背景中文字的檢測(cè)、復(fù)雜場(chǎng)景中重疊文本的檢測(cè)和識(shí)別、OCR識(shí)別結(jié)果的校對(duì)以及海量視頻文本檢測(cè)識(shí)別等問(wèn)題。概括起來(lái),本文所取得的主要研究成果包括:
  首先提出了一種基于Gabor和SVM的復(fù)雜背景中文

3、字檢測(cè)方法,通過(guò)不同方向尺度的 Gabor濾波器得到表示中文字符橫、豎、撇、捺四個(gè)方向的紋理圖像,使用SVM分類器對(duì)紋理圖像進(jìn)行訓(xùn)練,通過(guò)構(gòu)建一個(gè)SVM分類網(wǎng)絡(luò)來(lái)得到最終的文字區(qū)域。實(shí)驗(yàn)結(jié)果表明,該方法對(duì)復(fù)雜背景下中文字符的檢測(cè)具有較好的效果。
  其次提出了一種利用深度學(xué)習(xí)算法進(jìn)行文字區(qū)域定位的方法,利用 Gabor濾波器提取文字區(qū)域的紋理特征,然后使用DBN網(wǎng)絡(luò)進(jìn)行分類,由于DBN網(wǎng)絡(luò)對(duì)高維特征向量具有很強(qiáng)的提取特征和分類能力

4、,因此能夠用來(lái)區(qū)分文字區(qū)域和背景區(qū)域。實(shí)驗(yàn)結(jié)果表明,深度學(xué)習(xí)網(wǎng)絡(luò)具有較高的分類準(zhǔn)確性,效果要好于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)、SVM等方法。
  接著針對(duì)前面所提出的方法在檢測(cè)復(fù)雜場(chǎng)景中重疊文本時(shí)受背景干擾比較大的問(wèn)題,提出了一種復(fù)雜場(chǎng)景中重疊文本檢測(cè)和識(shí)別的方法。首先利用聚類的方法將復(fù)雜場(chǎng)景圖像轉(zhuǎn)換成多個(gè)具有單一背景的層圖像,在每一個(gè)層圖像中使用連通分量分析方法,得到該層圖像中的候選文本連通分量,采用級(jí)聯(lián)Adaboost分類器根據(jù)文本區(qū)域的特

5、征剔除非文本連通分量,再用OCR包對(duì)文本連通分量進(jìn)行識(shí)別,最后利用圖像層之間的關(guān)系對(duì)識(shí)別結(jié)果進(jìn)行驗(yàn)證。對(duì)于復(fù)雜場(chǎng)景下重疊文本的識(shí)別,該方法明顯優(yōu)于其他方法。
  然后提出了一種基于Google的文字識(shí)別結(jié)果校對(duì)方法,由于很多字符、文字具有相似性,OCR軟件識(shí)別過(guò)程會(huì)產(chǎn)生一些錯(cuò)誤,現(xiàn)有的 OCR識(shí)別結(jié)果校對(duì)方法主要是利用自然語(yǔ)言規(guī)律統(tǒng)計(jì)大量的語(yǔ)料庫(kù)進(jìn)行語(yǔ)法判斷。本文提出了一種基于 Google的 OCR識(shí)別結(jié)果校對(duì)方法,將傳統(tǒng)的基于

6、 N-Gram語(yǔ)料庫(kù)的方法和Google知識(shí)庫(kù)相結(jié)合,利用Google知識(shí)庫(kù)來(lái)不斷的豐富傳統(tǒng)的語(yǔ)料庫(kù),有效地解決了傳統(tǒng) N-Gram方法在字典詞匯量有限,對(duì)新詞、專有名詞無(wú)法校對(duì)的問(wèn)題。該方法實(shí)用性比較強(qiáng),有效地提高了自然場(chǎng)景圖像中OCR的識(shí)別率。
  最后實(shí)現(xiàn)了一個(gè)基于云計(jì)算架構(gòu)的視頻文本檢測(cè)和識(shí)別系統(tǒng)平臺(tái),隨著大數(shù)據(jù)時(shí)代的到來(lái),現(xiàn)有的文字識(shí)別方法遇到了很大的挑戰(zhàn),很難快速的應(yīng)用到大數(shù)據(jù)中進(jìn)行視頻文本內(nèi)容的識(shí)別。本文通過(guò)連接大量

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論