版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、隨著移動(dòng)網(wǎng)絡(luò)的發(fā)展和智能移動(dòng)設(shè)備的普及,mHealth充分利用了移動(dòng)互聯(lián)網(wǎng)通信技術(shù),為用戶提供健康、保健和醫(yī)療等服務(wù)。此類應(yīng)用和服務(wù)以智能移動(dòng)設(shè)備為基礎(chǔ)平臺(tái),利用人本感知技術(shù)來獲得用戶的上下文狀態(tài)。醫(yī)療服務(wù)機(jī)構(gòu)或者相關(guān)專業(yè)人員通過分析用戶的狀態(tài)信息,來為用戶提供及時(shí)、有效和有針對性的治療方案和醫(yī)療服務(wù)。但是相比于 eHealth,移動(dòng)環(huán)境具有信息量大、應(yīng)用環(huán)境復(fù)雜、上層應(yīng)用需求多樣和實(shí)時(shí)性要求較高的特點(diǎn)。因而在mHealth中需要對原有
2、的感知算法和模型進(jìn)行相應(yīng)地精簡和改進(jìn),以適應(yīng)移動(dòng)應(yīng)用環(huán)境。
本文首先針對移動(dòng)環(huán)境下,設(shè)備所處環(huán)境復(fù)雜度高且用戶個(gè)體之間差異較大的特點(diǎn),從用戶行為感知的角度,將Tri-training協(xié)同學(xué)習(xí)方法和HMM模型相結(jié)合,提出了基于HMM的協(xié)同學(xué)習(xí)行為識(shí)別算法。前者能夠通過自主學(xué)習(xí)現(xiàn)實(shí)中存在的大量未標(biāo)記樣本,來提高識(shí)別的準(zhǔn)確率。而HMM在對Tri-training的輸出序列進(jìn)行平滑和去噪的同時(shí),還能夠輔助Tri-training進(jìn)行新
3、樣本的選擇。擁有自主學(xué)習(xí)能力的Tri-training算法和隱馬爾可夫模型的結(jié)合使得系統(tǒng)能夠更好地適應(yīng)部署后的復(fù)雜環(huán)境。
然后針對mHealth中上層應(yīng)用需求多樣和實(shí)時(shí)性要求較高的特點(diǎn),從用戶語音情感感知的角度,提出了基于Adaboost C4.5和三維情感空間的語音情感識(shí)別算法。算法中使用三維情感空間模型,將不同的基本分類器以二叉樹的形式進(jìn)行構(gòu)建,每一層依照情感維度進(jìn)行區(qū)分。這樣使得上層應(yīng)用能夠根據(jù)需要,來確定分類所要到達(dá)的
4、深度。同時(shí),每個(gè)基本分類器都能夠根據(jù)自身的特點(diǎn)來選擇合適的特征量,以此來提高識(shí)別的準(zhǔn)確性。各基本分類器使用的Adaboost C4.5集成學(xué)習(xí)算法在降低運(yùn)算量的同時(shí),也提高了分類精度。分層的模型和簡單高效的集成學(xué)習(xí)算法使系統(tǒng)的靈活性得到提高,也具備了一定的實(shí)時(shí)性。
最后本文使用SensingClient感知客戶端對用戶行為數(shù)據(jù)進(jìn)行了采集,并在 Matlab中分別對兩種算法進(jìn)行了實(shí)現(xiàn)。利用采集到的行為數(shù)據(jù)和Emo-DB情感語音庫
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于無線感知的人體行為識(shí)別研究.pdf
- 面向情感語音合成的言語情感建模研究.pdf
- 基于頻譜感知特征的語音情感識(shí)別研究.pdf
- 基于壓縮感知的語音情感識(shí)別技術(shù)的研究.pdf
- 基于視覺的人體行為識(shí)別研究.pdf
- 基于HMM的人體行為識(shí)別研究.pdf
- 基于Kinect的人體行為識(shí)別研究.pdf
- 基于時(shí)空特征和分層模型的人體行為識(shí)別研究.pdf
- 基于高斯特征的人體運(yùn)動(dòng)情感識(shí)別研究.pdf
- 基于視覺的人體行為檢測識(shí)別研究.pdf
- 基于分層模型的人體行為識(shí)別研究.pdf
- 視頻中的人體動(dòng)作行為識(shí)別研究.pdf
- 基于視覺的人體運(yùn)動(dòng)行為識(shí)別研究.pdf
- 語音情感特征提取方法和情感識(shí)別研究.pdf
- 基于深度序列的人體行為識(shí)別研究.pdf
- 視頻中的人體行為識(shí)別算法研究.pdf
- 基于傳感數(shù)據(jù)的人體行為識(shí)別研究.pdf
- 基于Kinect的人體危險(xiǎn)行為檢測研究.pdf
- 基于骨架節(jié)點(diǎn)的人體行為識(shí)別研究.pdf
- 基于視頻的人體行為識(shí)別算法研究.pdf
評(píng)論
0/150
提交評(píng)論