版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、廣泛迅捷的分享和交換信息是互聯(lián)網(wǎng)最重要的優(yōu)點(diǎn)之一,然而隨著互聯(lián)網(wǎng)中承載的數(shù)據(jù)量和信息量呈指數(shù)級爆炸式增長,導(dǎo)致人們必須面對日益嚴(yán)重的信息過載問題。在該背景下信息檢索技術(shù)應(yīng)運(yùn)而生并隨著互聯(lián)網(wǎng)一起迅猛的發(fā)展,成為當(dāng)前解決信息過載問題最直接和有效的手段。同時(shí)查詢理解和相關(guān)反饋技術(shù)是近幾年被廣泛驗(yàn)證的用于改善信息檢索性能的有效途徑,盡管現(xiàn)有研究已經(jīng)取得了一些重要進(jìn)展,但是仍然有很多關(guān)鍵的問題沒有得到很好的解決。針對現(xiàn)有研究中存在的種種不足,本文
2、在分析當(dāng)前各查詢理解和相關(guān)反饋算法基礎(chǔ)上,重點(diǎn)對查詢理解技術(shù)以及以其為基礎(chǔ)的相關(guān)反饋技術(shù)進(jìn)行了深入的研究。本文的主要研究工作和貢獻(xiàn)如下:
1.針對查詢理解技術(shù)中的詞項(xiàng)權(quán)重預(yù)測問題,本文將其轉(zhuǎn)換為序列標(biāo)注問題,提出了一種新的基于循環(huán)神經(jīng)網(wǎng)絡(luò)的查詢詞項(xiàng)權(quán)重學(xué)習(xí)模型。該模型通過綜合考慮查詢中各詞項(xiàng)的統(tǒng)計(jì)、語法、語義以及詞項(xiàng)間關(guān)系信息構(gòu)造查詢詞項(xiàng)特征向量,同時(shí)利用遺傳算法結(jié)合真實(shí)文檔相關(guān)性標(biāo)注得到最優(yōu)詞項(xiàng)權(quán)重值,最后利用雙向循環(huán)神經(jīng)網(wǎng)
3、絡(luò)對查詢詞項(xiàng)序列與相應(yīng)最優(yōu)權(quán)重序列之間的關(guān)系進(jìn)行有監(jiān)督學(xué)習(xí)建模,實(shí)現(xiàn)了對查詢詞項(xiàng)權(quán)重自動、合理和有效地預(yù)測。實(shí)驗(yàn)結(jié)果表明,通過該方法得到的查詢詞項(xiàng)權(quán)重能夠明顯地提升檢索效果,并且在多個(gè)數(shù)據(jù)集和檢索結(jié)果準(zhǔn)確率評價(jià)指標(biāo)上均顯著地優(yōu)于各對比方法。
2.針對查詢理解技術(shù)中現(xiàn)有查詢意圖分類方法普遍存在的嚴(yán)重依賴人工標(biāo)注數(shù)據(jù)和面對類別體系變化不靈活的問題,本文將其轉(zhuǎn)換為由一個(gè)序列分類問題和一個(gè)經(jīng)典分類問題組成的兩階段分類問題,并根據(jù)該分類
4、問題的特點(diǎn),提出了一種新的基于級聯(lián)深度學(xué)習(xí)的查詢意圖分類方法。該方法首先從提高分類靈活度和效率的角度出發(fā),提出了一種級聯(lián)的深度神經(jīng)網(wǎng)絡(luò),構(gòu)造了一個(gè)兩階段查詢意圖分類器;然后從降低對人工標(biāo)注依賴的角度出發(fā),通過隱式相關(guān)反饋技術(shù)挖掘源于真實(shí)用戶的標(biāo)注行為,實(shí)現(xiàn)了查詢分類訓(xùn)練數(shù)據(jù)的自動構(gòu)造。實(shí)驗(yàn)結(jié)果表明,該方法能夠有效的對查詢按主題意圖進(jìn)行分類,且分類效果顯著的優(yōu)于各對比方法。
3.針對現(xiàn)有基于查詢擴(kuò)展技術(shù)的相關(guān)反饋方法對檢索系統(tǒng)查
5、詢?nèi)罩炯捌渲胁樵冊~項(xiàng)間關(guān)系挖掘不足的問題,本文從充分利用檢索系統(tǒng)查詢?nèi)罩具M(jìn)行查詢擴(kuò)展的角度出發(fā),提出了一種新的基于兩階段SimRank算法和查詢擴(kuò)展技術(shù)的相關(guān)反饋方法。該方法通過引入權(quán)重關(guān)系改進(jìn)了基于圖結(jié)構(gòu)的相似度算法SimRank,并使用改進(jìn)算法在由查詢點(diǎn)擊圖經(jīng)多次轉(zhuǎn)換得到的詞項(xiàng)關(guān)系圖上全面深入地挖掘詞項(xiàng)間相似度及語義關(guān)聯(lián),從而篩選出高質(zhì)量的查詢擴(kuò)展詞項(xiàng)。通過在公開標(biāo)準(zhǔn)數(shù)據(jù)集上的實(shí)驗(yàn)表明該方法可以有效地選擇高質(zhì)量相關(guān)擴(kuò)展詞項(xiàng),使得檢索
6、效果有顯著的提升。
4.針對現(xiàn)有基于語言模型的相關(guān)反饋方法未能同時(shí)充分利用正向和負(fù)向相關(guān)信息的問題,本文從充分利用隱式反饋和同時(shí)挖掘正負(fù)兩種相關(guān)信息的角度出發(fā),提出了一種新的基于語言模型的正負(fù)雙向相關(guān)反饋方法。該方法通過分析疑難查詢場景下隱式反饋的正負(fù)雙向相關(guān)文檔,基于語言模型檢索框架,同時(shí)構(gòu)造正向和負(fù)向相關(guān)語言模型,并利用正向模型進(jìn)一步優(yōu)化負(fù)向模型,最大化地提高相關(guān)文檔排名并盡量過濾非相關(guān)文檔,從而改善反饋檢索的效果。通過基
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 正負(fù)相關(guān)反饋與查詢擴(kuò)展技術(shù)的研究.pdf
- 信息檢索中的相關(guān)反饋技術(shù)研究.pdf
- 基于查詢向量轉(zhuǎn)移和聚類相結(jié)合的相關(guān)反饋技術(shù)研究.pdf
- 基于文本理解的偽相關(guān)反饋.pdf
- 基于SVM的CBIR相關(guān)反饋技術(shù)研究.pdf
- 基于SVM的相關(guān)反饋圖像檢索技術(shù)研究.pdf
- 圖像語義檢索中的相關(guān)反饋技術(shù)研究.pdf
- CBIR系統(tǒng)中的Bayesian相關(guān)反饋技術(shù)研究.pdf
- 基于語言模型的正負(fù)相關(guān)反饋文檔自動識別技術(shù)的研究與實(shí)現(xiàn).pdf
- 基于內(nèi)容醫(yī)學(xué)圖像檢索中相關(guān)反饋技術(shù)研究.pdf
- 圖像檢索中基于SVM的相關(guān)反饋技術(shù)研究.pdf
- CBIR中相關(guān)反饋技術(shù)的研究.pdf
- 基于內(nèi)容的圖像檢索及相關(guān)反饋技術(shù)研究.pdf
- 矢量圖形檢索中的相關(guān)反饋技術(shù)研究.pdf
- 基于相關(guān)反饋的個(gè)性化信息檢索技術(shù)研究.pdf
- 基于形狀特征和相關(guān)反饋的圖像檢索技術(shù)研究.pdf
- 基于多特征和相關(guān)反饋的圖像檢索技術(shù)研究.pdf
- 基于多特征及相關(guān)反饋的圖像檢索技術(shù)研究.pdf
- 圖像檢索中多特征組合和相關(guān)反饋技術(shù)研究.pdf
- 基于綜合特征和相關(guān)反饋的圖像檢索技術(shù)研究.pdf
評論
0/150
提交評論