版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、機(jī)器學(xué)習(xí)復(fù)習(xí)重點(diǎn) 機(jī)器學(xué)習(xí)復(fù)習(xí)重點(diǎn)判斷題(共 判斷題(共 30 分,每題 分,每題 2 分,打 分,打√或×)1、如果問題本身就是非線性問題,使用支持向量機(jī)(SVM)是難以取得好的預(yù)測(cè)效果的。(×)2、只要使用的半監(jiān)督學(xué)習(xí)方法合適,利用 100 個(gè)標(biāo)記樣本和 1000 個(gè)無標(biāo)記樣本的預(yù)測(cè)效果,同樣可以達(dá)到利用 1100 個(gè)標(biāo)記樣本使用監(jiān)督學(xué)習(xí)方法的預(yù)測(cè)效果。 (×)3、深度學(xué)習(xí)中應(yīng)該盡量避免過擬合。 (
2、215;)4、在隨機(jī)森林 Bagging 過程中,每次選取的特征個(gè)數(shù)為 m,m 的值過大會(huì)降低樹之間的關(guān)聯(lián)性和單棵樹的分類能力。 (×)5、決策樹學(xué)習(xí)的結(jié)果,是得到一組規(guī)則集,且其中的規(guī)則是可以解釋的。 (√)6、在 FCM 聚類算法中交替迭代優(yōu)化目標(biāo)函數(shù)的方法不一定得到最優(yōu)解。 (√)7、在流形學(xué)習(xí) ISOMAP 中,測(cè)地距離即是歐氏距離。 (×)8、貝葉斯決策實(shí)質(zhì)上是按后驗(yàn)概率進(jìn)行決策的。 (√)9、非參數(shù)估計(jì)需
3、要較大數(shù)量的樣本才能取得較好的估計(jì)結(jié)果。 (√)10、不需要顯示定義特征是深度學(xué)習(xí)的優(yōu)勢(shì)之一。 (√)判斷題為反扣分題目;答對(duì)得 判斷題為反扣分題目;答對(duì)得 2 分,不答得 分,不答得 0 分,答錯(cuò)得 分,答錯(cuò)得-2 分; 分;問答題(共 問答題(共 60 分) 分)1、 從樣本集推斷總體概率分布的方法可以歸結(jié)為哪幾種類型?請(qǐng)分別簡(jiǎn)要解釋之。監(jiān)督參數(shù)估計(jì):樣本所屬的類別和各類的類條件概率密度函數(shù)的形式是已知的,而表征概率密度函數(shù)的某些參
4、數(shù)是未知的。非監(jiān)督參數(shù)估計(jì):已知總體概率密度函數(shù)形式,但未知樣本所屬類別,要求判斷出概率密度函數(shù)的某些參數(shù)。非參數(shù)估計(jì):已知樣本所屬類別,但未知各類的概率密度函數(shù)的形式,要求我們直接推斷概率密度函數(shù)本身。2、什么是 k-近鄰算法?k-近鄰算法的基本思想(3 分):未知樣本 x,根據(jù)度量公式得到距離 x 最近的 k 個(gè)樣本。統(tǒng)計(jì)這 k 個(gè)樣本點(diǎn)中,各個(gè)類別的數(shù)量。數(shù)量最多的樣本是什么類別,我們就把這個(gè)數(shù)據(jù)點(diǎn)定為什么類別。, argmax
5、( ), K m n nnx m k k n ? ? ? 是個(gè)樣本中第類的樣本個(gè)數(shù)m 為所求類別。3、 決策樹的 C4.5 算法與 ID3 算法相比主要有哪些方面的改進(jìn)?1) 用信息增益比來選擇屬性,克服了用信息增益選擇屬性時(shí)偏向選擇取值多的屬性的不足;2) 增加了后剪枝操作。測(cè)。形式化地說,多標(biāo)記學(xué)習(xí)的任務(wù)是從數(shù)據(jù)集{(x1,Y1), (x2,Y2),…,(xm,Ym)}中學(xué)得函數(shù) f:x→2y,其中 xi∈x 為一個(gè)示例而 Yiy
6、為示例 xi 所屬的一組概念標(biāo)記。9、就您的理解,談?wù)勈裁词蔷垲???qǐng)簡(jiǎn)要介紹您所熟悉的一種聚類方法。聚類是將多個(gè)對(duì)象按照某種相似度的度量方式分成不同的組(簇) 。K-means 聚類:算法過程:選擇 K 個(gè)點(diǎn)作為初始質(zhì)心Repeat將每個(gè)點(diǎn)指派到離它最近的質(zhì)心,形成 K 個(gè)簇重新計(jì)算每個(gè)簇的質(zhì)心Until 簇不再發(fā)生變化或者達(dá)到最大迭代次數(shù)計(jì)算題(共 計(jì)算題(共 10 分) 分)1、有如圖所示的神經(jīng)網(wǎng)絡(luò)。 Squash functio
7、n 為:,輸入樣本 , 1 ( ) 1 , 1x x f x x? ? ? ? ? ?,輸出節(jié)點(diǎn)為 ,第 次學(xué)習(xí)得到的權(quán)值為: 1 2 1, 0 x x ? ? z k。試求第 次前向傳播學(xué) 11 12 21 22 1 2 ( ) 0, ( ) 2, ( ) 2, ( ) 1, ( ) 1, ( ) 1 w k w k w k w k T k T k ? ? ? ? ? ? k習(xí)得到的輸出節(jié)點(diǎn)值 ,請(qǐng)給出求解過程和結(jié)果。 ( ) z k
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- [學(xué)習(xí)]復(fù)習(xí)重點(diǎn)---納稅實(shí)務(wù)總復(fù)習(xí)
- [學(xué)習(xí)]復(fù)習(xí)重點(diǎn)---納稅實(shí)務(wù)總復(fù)習(xí)圖
- 2019高考學(xué)習(xí)計(jì)劃范文語文學(xué)習(xí)規(guī)劃及復(fù)習(xí)重點(diǎn)
- 學(xué)習(xí)重點(diǎn)
- 大氣復(fù)習(xí)重點(diǎn)
- 內(nèi)科復(fù)習(xí)重點(diǎn)
- 解剖復(fù)習(xí)重點(diǎn)
- 機(jī)器學(xué)習(xí)
- 管理學(xué)復(fù)習(xí)重點(diǎn)重點(diǎn)
- 內(nèi)科復(fù)習(xí)重點(diǎn)
- 期末復(fù)習(xí)重點(diǎn)
- access復(fù)習(xí)重點(diǎn)
- 民法復(fù)習(xí)重點(diǎn)
- 藥劑復(fù)習(xí)重點(diǎn)
- 藥理復(fù)習(xí)重點(diǎn)
- 藥理復(fù)習(xí)重點(diǎn)
- 備戰(zhàn)2019高考英語一輪重點(diǎn)復(fù)習(xí)指導(dǎo)(英語學(xué)習(xí))
- 初二物理復(fù)習(xí)重點(diǎn)考試重點(diǎn)
- 民法考試復(fù)習(xí)重點(diǎn)
- 護(hù)考復(fù)習(xí)重點(diǎn)
評(píng)論
0/150
提交評(píng)論