2023年全國碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁
已閱讀1頁,還剩68頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

1、詞的表示問題是自然語言處理中的關(guān)鍵問題之一。詞的表示方法是否適當,直接影響著句法分析、語義表示和理解等任務的建模方法,也影響著信息檢索、問答系統(tǒng)等應用系統(tǒng)的準確性和魯棒性。特別是當面臨大規(guī)模真實中文數(shù)據(jù)時,詞的數(shù)量大,詞表示方法的好壞直接影響著系統(tǒng)的運算效率和性能。
  本文將目前已有的一些中文詞的表示策略歸納為三類:傳統(tǒng)的0-1表示、基于潛在語義信息的分布式的表示以及基于神經(jīng)語言模型的分布式表示。0-1表示是中文信息處理中使用最

2、為廣泛的表示。很多基于最大熵、CRF模型等的漢語組塊分析系統(tǒng)便是直接采用0-1表示來形式化詞的特征,這種表示雖然簡單,但是形成的特征矩陣維度非常高,容易導致特征稀疏。為了彌補這一缺點,后兩種表示策略將詞表示成一個低維的實值向量。區(qū)別在于,基于潛在語義信息的分布式的表示主要是借鑒一些矩陣分解技術(shù),而基于神經(jīng)語言模型的分布式表示則是直接將詞表示向量看作是神經(jīng)網(wǎng)絡中的一個隱層。
  本文主要關(guān)注基于神經(jīng)網(wǎng)絡的詞表示方法及表示學習。深入探

3、究了Bengio(2003)提出的神經(jīng)語言模型具體在漢語詞的表示學習中的實現(xiàn)過程。在山西大學500萬漢語分詞語料上學習得到了漢語詞的和字的分布式表示矩陣,并進行了理論和表示向量數(shù)值特征上的分析。結(jié)果表明,矩陣中實值表示的數(shù)值范圍隨著表示學習算法迭代次數(shù)的增加而增加,這與 Turian(2010)得到的英文詞表示學習中的現(xiàn)象是一致的。本文從理論上初步分析了這一現(xiàn)象的原因,并給出了表示矩陣無界的一個充分條件。
  本文研究了詞的義項與

4、向量表示之間的關(guān)系。選取了中文和英文中的一些具有不同義項的典型詞,將它們的實值向量表示繪制成不同指標的直方圖。通過分析,本文初步認為義項越多的詞,對應的直方圖的“峰”可能越多。并且,在漢語和英文中均表現(xiàn)出類似的現(xiàn)象。
  為了體現(xiàn)基于潛在語義的分布式的詞表示與基于神經(jīng)語言模型的分布式詞表示的區(qū)別。本文分別在兩種表示上進行詞的聚類實驗。我們給出幾個典型漢語詞的前10近鄰詞,聚類結(jié)果表明,基于神經(jīng)語言模型的分布式詞表示的詞聚類效果要明

5、顯優(yōu)于基于潛在語義的分布式的表示。
  本文在漢語基本塊邊界識別任務上對比分析了詞的0-1表示以及基于神經(jīng)語言模型的分布式詞表示對模型性能的影響。在[-2,2]窗口使用0-1詞特征的基本塊邊界識別模型中,邊界識別的F值為38.72%;而上述模型中詞特征替換為分布式詞特征后,邊界識別的 F值提高到70.51%;將表示矩陣進行尺度變換后,邊界識別的F值提高到70.74%。在使用詞特征[-2,2]+詞性特征的模型中,使用詞的0-1特征與

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論