2023年全國碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁
已閱讀1頁,還剩67頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、隨著Internet的迅猛發(fā)展和日益普及,電子文本信息迅速膨脹,如何有效地組織和管理這些信息,并快速、準確、全面地從中找到用戶所需要的信息是當前信息科學和技術(shù)領(lǐng)域面臨的一大挑戰(zhàn)。文本分類作為處理和組織大量文本數(shù)據(jù)的關(guān)鍵技術(shù),可以在較大程度上解決信息雜亂現(xiàn)象的問題,方便用戶準確地定位所需的信息和分流信息。而且作為信息過濾、信息檢索、搜索引擎、文本數(shù)據(jù)庫、數(shù)字化圖書館等領(lǐng)域的技術(shù)基礎,文本分類技術(shù)有著廣泛的應用前景。 本文對文本分類

2、及其相關(guān)技術(shù)進行了研究。從提高分類方法的快速性、準確性和穩(wěn)定性出發(fā),提出多種有效的解決或改進的方法和技術(shù)。較系統(tǒng)地綜述了中文文本分類中自動分詞技術(shù)、特征提取技術(shù)、文本分類模型和性能評估技術(shù)的研究現(xiàn)狀和研究方法。較全面地討論了貝葉斯方法、k近鄰方法和AdaBoost等三種中文文本分類方法。作者采用三個模型,實現(xiàn)了樸素貝葉斯分類器、k近鄰分類器和Adaboost分類器三個中文文本分類器,集成了一個實用性較強的實驗系統(tǒng)。 文中深入地分

3、析了k近鄰方法的不足,提出了改進的k近鄰方法,有基于隱含語義,特征聚合,強化文本中語義鏈屬性因子與檢索相結(jié)合的迭代近鄰法四種方法進行改進,提高了分類器的性能。 重點討論了AdaBoost的相關(guān)問題。概述了boost理論的主要內(nèi)容和應用情況。 Naive Bayesian分類器是一種有效的文本分類方法,但由于具有較強的穩(wěn)定性,很難通過Boosting機制提高其性能。因此用Naive分類器作為Boosting的基分類器需要解

4、決的最大問題,就是如何破壞Naive Bayesian分類器的穩(wěn)定性。提出了3種破壞Naive Bayesian學習器穩(wěn)定性的方法。第一種方法改變訓練集樣本,第二種方法采用隨機屬性選擇社團,第三種方法是在Boosting的每次迭代中利用不同的文本特征提取方法建立不同的特征詞集。實驗表明,這幾種方法各有其優(yōu)缺點,但都比原有方法準確、高效。 實驗表明,三種分類器都適合于中文文本分類的需要,其中Adaboost分類器的分類性能最好。而

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論