版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
1、序,有一位計算機科學家曾經(jīng)和很多其他學科的科學家們在一起合作,大家互相介紹各自的工作的時候,這位計算機科學家苦心構(gòu)思了這么一個例子,他說:我的工作就是要讓計算機認識這個,然后他畫了下面這幅圖, 嚴格的說是寫了這組嚴格對齊的數(shù)字,0000000000000000000000000000000000000000011000000000110001100000000011000110000000001100011000000000
2、110001100000000011000110000000001100011000000000111111111000000011111111100000000000011000000000000001100000000000000110000000000000000000000000000000000000,桑克(sank):“一臺計算機若不能進行學習,就不能說它具有智能” Simon(1983):學習就是系統(tǒng)中
3、的變化,這種變化使系統(tǒng)比以前更有效地去做同樣的工作。無統(tǒng)一的機器學習定義。機器學習是研究如何使用機器來模擬人類學習活動的一門學科。稍嚴格的提法是:ML是一門研究機器獲得新知識和新技能,并識別現(xiàn)有知識的學問,1、機器學習的定義,人工智能主要是為了研究人的智能,模仿其機理將其應(yīng)用于工程的科學。 在這個過程中必然會問道:“機器怎樣做才能像人類一樣具有學習能力”。 機器學習廣泛應(yīng)用于機器人、圖像處理、語音識別、數(shù)據(jù)挖掘等
4、領(lǐng)域。機器學習的發(fā)展有利于推動其他領(lǐng)域的發(fā)展。,2、為什么要研究機器學習?,預(yù)測難:學習后知識庫發(fā)生了什么變化,系統(tǒng)功能的變化的預(yù)測。歸納推理:是論證的前提支持結(jié)論但不確保結(jié)論的推理過程(演繹推理保真);而且,歸納的結(jié)論是無限多的,其中相當多是假的,給生成的知識帶來不可靠性。判斷難:機器目前很難觀察什么重要、什么有意義。,3、實現(xiàn)的困難,5,4 系統(tǒng)學習性能評價,分類精度:是否能夠?qū)斎氲臄?shù)據(jù)進行正確、精確的分類。 解答的正
5、確性和質(zhì)量:無論是用于分類的,還是解決問題的系統(tǒng)都有解答正確性問題。同時,正確性不一定保證有好的質(zhì)量,好的質(zhì)量包括:可讀性、穩(wěn)定性等多方面的因素。 學習的速度:學習速度是一個很重要的系統(tǒng)指標。它不僅僅影響系統(tǒng)的設(shè)計,同時,影響系統(tǒng)的實現(xiàn)。一個很費時的學習方法,某種意義上也是很難實現(xiàn)的。因為,通?;ㄙM大量時間所進行的操作表現(xiàn)在對學習樣本量的要求、系統(tǒng)空間的要求、系統(tǒng)硬件性能的要求上。,6,,環(huán)境,學習環(huán)節(jié),,知識庫,執(zhí)行環(huán)節(jié),,,,,,
6、,學習是建立理論、形成假設(shè)和進行歸納推理的過程。 整個過程包括:信息的存儲、知識的處理兩部分,三、機器學習模型,學習系統(tǒng),學習系統(tǒng)所感知到的外界信息集合,也是學習系統(tǒng)的外界來源,對環(huán)境提供的信息進行整理、分析歸納或類比,形成知識,并將其放入知識庫,存儲經(jīng)過加工后的信息(即知識),根據(jù)知識庫去執(zhí)行一系列任務(wù),并將執(zhí)行結(jié)果或執(zhí)行過程中獲得的信息反饋給學習環(huán)節(jié),,,,,學習模型,輸入x,輸出,約束條件,機器學習的分類,根據(jù)是否需要已知類別
7、的樣本進行學習,機器學習可以分為兩大類: 有教師學習(監(jiān)督學習)無教師學習(非監(jiān)督學習和強化學習),監(jiān)督學習supervised learning,利用已知類別的樣本去訓練算法從而調(diào)整分類器的參數(shù),這樣的學習過程叫做監(jiān)督學習。監(jiān)督學習的任務(wù)是學習一個模型,使模型能夠?qū)θ我饨o定的輸入,對其相應(yīng)的輸出做出一個很好的預(yù)測。常見的監(jiān)督學習算法有:決策樹adbost算法樸素貝葉斯算法回歸算法支持向量機,,,,訓練集,學習系統(tǒng),
8、測試系統(tǒng),測試集,模型,測試結(jié)果,監(jiān)督學習示意圖,,上表是用于區(qū)分不同鳥類需要使用的四個不同的屬性值,分別選取的是體重、翼展、腳蹼和后背顏色作為評測基準。這些測量的四種值成為特征,也叫屬性。,,數(shù)據(jù)X={x1,x2,x3,x4} 表示一組數(shù)據(jù)標簽label Y={y1,y2,y3,y4}訓練集 T={(x1,y1),(x2,y2),(x3,y3)}測試集 {(x4,y4)}特征損失函數(shù),訓練誤差,測試誤差經(jīng)驗風險最小化與結(jié)
9、構(gòu)風險最小化交叉驗證,選取特定的機器學習算法進行分類,首先需要做的是訓練算法,既學習如何分類。通常我們?yōu)樗惴ㄝ斎氪罅恳逊诸悢?shù)據(jù)作為算法的訓練集。訓練集就是用于訓練機器學習算法的數(shù)據(jù)樣本集合,表1是包含5個樣本集合的訓練集,每個訓練樣本有4中特征和一個目標變量,目標變量是機器學習算法的預(yù)測結(jié)果既F(x),其中x為一組輸入樣本。,損失函數(shù),在監(jiān)督學習中,給定x,根據(jù)F(x)給出相應(yīng)的輸出,而這個輸出是預(yù)測輸出,和真實值y可能一致,也可能
10、不一致。用一個損失函數(shù)或者代價函數(shù)來度量預(yù)測錯誤的程度。損失函數(shù)是F(x)和y的非負值函數(shù),記做L(y,F(x))。,常用的損失函數(shù),(1) 0-1損失函數(shù)(2) 平方損失函數(shù) (3) 絕對損失函數(shù) (4)對數(shù)損失函數(shù),經(jīng)驗風險最小化與結(jié)構(gòu)風險最小化,經(jīng)驗風險最小化的策略認為,經(jīng)驗風險最小的模型是最優(yōu)模型結(jié)構(gòu)風險最小化 是為了防止過擬合而提出的策略。結(jié)構(gòu)風險在經(jīng)驗風險的上加上表示模型復(fù)
11、雜度的正則化項或者說是懲罰項 min R(f),奧卡姆剃刀原理:在所有可能的模型中,能夠很好地解釋已知數(shù)據(jù)并且十分簡單的次啊是最好的模型,也是應(yīng)該選擇的模型。,如果給定的樣本數(shù)據(jù)充足,進行模型選擇的一種簡單方法就是隨機地將數(shù)據(jù)切分成三部分,分別為訓練集,驗證集和測試集。訓練集用來訓練模型,驗證機用于模型選擇,測試集用于最終對學習方法的評估。在學習到不同的復(fù)雜度的模型中,選擇對驗證集有最小預(yù)測誤差的模型
12、。 但是,許多實際應(yīng)用中數(shù)據(jù)并不是充分的,為了選擇好的模型,可以采用交叉驗證的方法。交叉驗證的基本思想是重復(fù)的使用數(shù)據(jù);把給定的數(shù)據(jù)進行切分,將切分的數(shù)據(jù)集組合成訓練集與測試集,在此基礎(chǔ)上反復(fù)地進行訓練,測試以及模型的選擇。,交叉驗證,(1)簡單交叉驗證:首先隨機地將已給數(shù)據(jù)分為兩部分,一部分作為訓練集,另一部分最為測試集;然后用訓練集在各種條件下訓練模型,從而得到不同的模型,在測試集上評價各個模型的測試誤差,
13、選出測試誤差最小的模型(2)S折交叉驗證:首先隨機的把已給的數(shù)據(jù)切分成s個互不相交的大小相同的子集,然后利用s-1個子集的數(shù)據(jù)訓練模型,利用余下的自己測試模型;重復(fù)的隨機選擇訓練子集,最后選出評測中平均測試誤差最小的模型(3)留一交叉驗證:當S=N時,成為留一交叉驗證,這往往在數(shù)據(jù)缺乏的時候使用。,交叉驗證,樸素貝葉斯算法,貝葉斯分類是一類分類算法的總稱,這類算法均以貝葉斯定理為基礎(chǔ),故統(tǒng)稱為貝葉斯分類假設(shè)一個樣本集的數(shù)據(jù)分類
14、兩類。P1(x,y)表示數(shù)據(jù)點(x y)屬于類別1的概率,p2(x,y)表示數(shù)據(jù)點 (x y)屬于類別2的概率 如果p1(x,y)>p2(x,y) 則數(shù)據(jù)(x y)屬于類別1 如果p1(x,y)<p2(x,y) 則數(shù)據(jù)(x y)屬于類別2,貝葉斯分類的基礎(chǔ)——貝葉斯定理,基本流程,1、設(shè) 為一個待分類項,而每個a為x的一個特征屬性。2 有類別集合
15、3 計算 4 求出最大的 則x劃分為類別,,,某個醫(yī)院早上收了六個門診病人,如下表?! “Y狀 職業(yè) 疾病 打噴嚏 護士 感冒 打噴嚏 農(nóng)夫 過敏 頭痛 建筑工人 腦震蕩 頭痛 建筑工人 感冒 打噴嚏 教師 感冒 頭痛 教師 腦震蕩現(xiàn)在又來了第七個病人,是一個打噴嚏的建筑工人。
16、請問他患上感冒的概率有多大?,,P(感冒|打噴嚏x建筑工人) = P(打噴嚏x建筑工人|感冒) x P(感冒) / P(打噴嚏x建筑工人)打噴嚏"和"建筑工人"這兩個特征是獨立的,,P(感冒|打噴嚏x建筑工人) = P(打噴嚏|感冒) x P(建筑工人|感冒) x P(感冒) / P(打噴嚏) x P(建筑工人),,P(感冒|打噴嚏x建筑工人)
17、0; = 0.66 x 0.33 x 0.5 / 0.5 x 0.33 = 0.66因此,這個打噴嚏的建筑工人,有66%的概率是得了感冒。同理,可以計算這個病人患上過敏或腦震蕩的概率。比較這幾個概率,就可以知道他最可能得什么病。這就是貝葉斯分類器的基本方法:在統(tǒng)計資料的基礎(chǔ)上,依據(jù)某些特征,計算各個類別的概率,從而實現(xiàn)分類。,基于樸素貝葉斯的文本分類,首先需要拆分文本以便從中獲取特征(詞條),一個詞條是任
18、意字符的組合。,,,將W 作為一個個獨立的特征,上述公式可寫成,假設(shè)所有詞都相互獨立(獨立性加色),訓練階段,創(chuàng)建包含所有文檔中出現(xiàn)的不重復(fù)的詞列表['cute' 'love' 'help' 'garbage' 'quit' 'I' 'problems' 'is' 'park' 'st
19、op' 'flea' 'dalmation' 'licks' 'food' 'not' 'him' 'buying' 'posting' 'has' 'worthless' 'ate' 'to' 'maybe' 'p
20、lease' 'dog' 'how' 'stupid' 'so' 'take' 'mr' 'steak' 'my']然后將每一個文本片段表示為一個詞條向量,1表示詞條出現(xiàn)在文檔中,0表示未出現(xiàn)。[0 0 1 0 0 0 1 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 1 1 0
21、0 0 0 0 0 1]給出一個新的文檔 ,計算,,通過訓練集,對算法進行訓練 得出P1,P2。,測試階段,給定一個測試詞條,轉(zhuǎn)換成詞條向量計算 = =比較
22、 大小。,優(yōu)點: 在數(shù)據(jù)較少的情況下仍然有效,可以處理多類別問題缺點:對于輸入數(shù)據(jù)的準備方式比較敏感。,決策樹學習,,決策樹,在示例學習中,每一個概念實際上可以看成是例子中所屬的一個類別,,,可以看做是一個對目標分類的劃分和獲取策略,由一個根結(jié)點,若干葉結(jié)點和非葉結(jié)點構(gòu)成。根結(jié)點對應(yīng)于學習任務(wù),分類的開始。每個葉結(jié)點都包含一個分類名(概念
23、),表示一個實例的結(jié)束。每個非葉結(jié)點都包含表示相應(yīng)實例中的某一屬性。邊代表某一屬性可能的屬性值。,決策樹,從根節(jié)點到葉節(jié)點的每一條路徑都代表一個具體的實例同一路徑上的所有屬性之間為合取關(guān)系,不同路徑(即一個屬性的不同屬性值)之間為析取關(guān)系。決策樹的分類過程就是從這棵樹的根接點開始,按照給定的事例的屬性值去測試對應(yīng)的樹枝,并依次下移,直至到達某個葉節(jié)點為止。,關(guān)于決策樹:,,可表示為如下規(guī)則集: IF 鳥類會飛 AN
24、D 是家養(yǎng)的 THEN 該鳥類可能是和平鴿 IF 鳥類會飛 AND 不是家養(yǎng)的 THEN 該鳥類可能是信天翁 IF 鳥類不會飛 AND 會游泳 THEN 該鳥類可能是企鵝 IF 鳥類不會飛 AND 不會游泳 THEN 該鳥類可能是鴕鳥,決策樹還可以表示成規(guī)則的形式,昆蘭(J.R.Quinlan)于1979年提出的一種以信息熵(entropy)的下降速度作為屬性選擇
25、標準的一種學習算法。輸入是一個用來描述各種已知類別的例子集學習結(jié)果是一棵用于進行分類的決策樹,ID3 算法 :,1.令根結(jié)點包含例子集中所有實例。2.如果每個葉結(jié)點包含的例子都屬于同一分類,則停止劃分。3.否則需對葉結(jié)點進行進一步劃分: (1)需要進一步劃分的葉結(jié)點所包含的例子組成子例子集S。 (2)找出對S來說E值最小的屬性abest。 (3)根據(jù)屬性abest的值對S進行劃分,每個值將生成一個分枝。
26、 (4) 執(zhí)行步驟2。,,通過E值可以找出一個最有利于當前劃分的屬性,ID3 算法 :,,E是一個基于熵(平均信息量)的函數(shù),該函數(shù)評 價用各屬性進行分類所能獲得的信息量,選擇E 值最小即獲得信息量最大的屬性。,ID3 算法,S中屬性ai的值為vij的正例數(shù)目,Nj-為屬性ai的值為vij的反例數(shù)目,熵,熵是研究不確定人工智能的一個重要參數(shù),熵的歷史可以追溯到19世紀。1864年德國物理學家克勞修斯在研究熱力學時首先提出熵
27、的概念:,1877年,玻爾茲曼又給出了熵的統(tǒng)計學新定義——玻爾茲曼公式,即S=klnW;k為玻爾茲曼常數(shù);W是某一宏觀態(tài)所對應(yīng)的微觀態(tài)數(shù)目,即該微觀態(tài)的熱力學幾率,1948年,香農(nóng)將熵的定義引入信息領(lǐng)域:信息熵,設(shè)一個系統(tǒng)X由多個事件|Xi|(i=1,2,…,n)組成,事件Xi的概率為p(Xi),那么信息熵定義為:,信息熵的定義:,信息熵大,說明什么?,例:給出概率分布,其信息熵分別為:,信息熵越大,不確定性程度越大 信息熵表示事件
28、集X中事件出現(xiàn)的平均不確定性 當X中事件出現(xiàn)的概率相等時,信息熵達到最大值,,E是一個基于熵(平均信息量)的函數(shù),該函數(shù)評 價用各屬性進行分類所能獲得的信息量,選擇E 值最小即獲得信息量最大的屬性。,ID3 算法:,S中屬性ai的值為vij的正例數(shù)目,Nj-為屬性ai的值為vij的反例數(shù)目,危險,狗的例子集,E顏色.棕色= E顏色.黑色=,,,∴ E顏色=5.510+5.510=11.020,,顏色=棕色的狗:4只是危險
29、的,2只不是危險的。顏色=黑色的狗:2只是危險的,4只不是危險的。,E體形.大=E體形.中=E體形.?。?,,∴ E體形=3.245+3.245=6.490,體形=大的4條狗全是危險的;體形=中/小的狗:1條是危險的;3條不是危險的。,ID3 算法,E毛型.光滑= E毛型.卷毛=,∴E毛型=6+6=12,,,毛型=光滑的狗:3條是危險的;3條不是危險的。毛型=卷毛的狗:3條是危險的;3條不是危險的。,因此,
30、E體形< E顏色< E毛型,現(xiàn)在必須對“中”“小”這兩個分枝的實例重復(fù)上述計算過程。,,E顏色=4 和 E毛型=6.490,現(xiàn)在只有“體形”為“中”和“小”的“棕色”狗還沒有明確類別,需用“毛型”來進一步劃分。,,,需要的匹配次數(shù):24,,需要的匹配次數(shù):36,決策樹的優(yōu)點,可以生成可以理解的規(guī)則;計算量相對來說不是很大;可以處理連續(xù)和離散字段;決策樹可以清晰的顯示哪些字段比較重要。,AdaBoost元算法,當需要做
31、出重要決定的時候,大家往往會聽取多個人的意見而不是一個人的意見,元算法就是采用這種思想。,機器學習種類繁多,各有優(yōu)缺點。我們自然可以將不同的分類器組合起來,而這種組合結(jié)果稱為集成算法,或者元算法。,集成方法有很多形式:可以是不同算法的集成,也可以是同一算法在不同設(shè)置下的集成,還可以是數(shù)據(jù)集不同部分分配給不同分類器之后的集成。,基于數(shù)據(jù)隨機重抽樣的分類器構(gòu)建方法,自舉匯聚法,也稱bagging方法,是在原始數(shù)據(jù)集選擇s次后得到s個新數(shù)據(jù)集
32、的方法。新數(shù)據(jù)集和原數(shù)據(jù)集相等,每個數(shù)據(jù)集都是通過在原始數(shù)據(jù)集中隨機選取一個樣本進行替換而得到的。這里的替換意味著可以多次選擇同一個樣本。,在s個數(shù)據(jù)建好之后,將某個學習算法分別作用于每個數(shù)據(jù)集就得到s個分類器。當要對新數(shù)據(jù)進行分類的時候,需要應(yīng)用s個分類器進行分類,選擇分類器投票結(jié)果中最多的類別作為最后的分類結(jié)果。,另一與bagging類似的技術(shù)是boosting技術(shù)。前者在訓練中,不同的訓練器是通過串行訓練而獲得的,每個分類器都根據(jù)
33、已訓練出的分類器的性能來進行訓練。而boosting是通過集中關(guān)注已有分類器錯分的哪些數(shù)據(jù)獲得新的分類器。,Boosting方法種類很多,其中最流行的就是AdaBoost算法。,,,,,,,,,,,,,,,,,,分類器2,分類器1,分類器3,∑,,,0.69,0.90,0.97,AdaBoost元算法,思想:使用弱分類器和過個實例來構(gòu)建一個強分類器基本過程:訓練數(shù)據(jù)中的每個樣本,并賦予一個權(quán)重,這些權(quán)重構(gòu)成了向量D,以及分類器的權(quán)值。
34、一開始,這些權(quán)重初始化成相等的值。首先在訓練數(shù)據(jù)上訓練出一個弱分類器并計算該分類器的錯誤率,然后再同一數(shù)據(jù)集上再次訓練弱分類器。在分類器的第二次訓練當中,將會重新調(diào)整每個樣本的權(quán)重,使分對的樣本權(quán)重變低,分錯的樣本權(quán)重變高,同時更新分類器的權(quán)值,以此類推。,,其中α是根據(jù)錯誤率ε進行計算的,錯誤率ε定義如下:而α的計算公式如下:計算出α的值后,可以對權(quán)值向量D進行調(diào)整,使那些正確分類的樣本權(quán)值變低,錯誤分類的樣本權(quán)值變高。如果
35、一個樣本被正確分類,則其權(quán)值被更改為:反之:,,假設(shè)訓練出m個分類器,最終的分類結(jié)果等于:,,圖中,“+”和“-”分別表示兩種類別,在這個過程中,我們使用水平或者垂直的直線作為分類器,來進行分類。,,第一步: 根據(jù)分類的正確率,得到一個新的樣本分布D2,一個子分類器h1其中: 其中劃圈的樣本表示被分錯的。在右邊的途中,比較大的“+”表示對該樣本做了加權(quán),,,第二步:根據(jù)分類的正確率,得到一
36、個新的樣本分布D3,一個子分類器h2,,第三步:得到一個子分類器h3,,整合所有的子分類器:,Adaboost優(yōu)點,1)adaboost是一種有很高精度的分類器2)可以使用各種方法構(gòu)建子分類器,adaboost算法提供的是框架 3)當使用簡單分類器時,計算出的結(jié)果是可以理解的。而且弱分類器構(gòu)造極其簡單 4)簡單,不用做特征篩選5)不用擔心overfitting!,回歸,回歸的目的就是預(yù)測數(shù)值型的目標
37、值??偝煽?0.6*期末成績+0.2*期中成績+0.2*平時成績這就是回歸方程,其中0.6 0.2 0.2就是回歸系數(shù),求這些回歸系數(shù)的過程就是回歸。假設(shè)我們有一組數(shù)據(jù){X,Y},X={x1,x2,…,xm},Y={y1,y2,…,ym},對error求導,并令其等于零,解出,,,局部加權(quán)線性回歸:給待測點附近每個點一個權(quán)重。,,K=1,K=0.01,K=0.003,,如果特征比樣本數(shù)還多(n>m),輸入矩陣X不是滿秩矩陣,
38、而非滿秩矩陣在求逆會出現(xiàn)問題。為了解決這個問題,引入了嶺回歸的概念。,,嶺回歸就是在矩陣 上加上一 個 矩陣,使其非奇異。矩陣I 是一個m*m的單位矩陣,對角線上為1,其他元素為0. 是自定義的一個參數(shù)。,Logistic回歸,,,假設(shè)現(xiàn)在有一些數(shù)據(jù)點,我們用一條直線對這些點擬合(最佳擬合直線),這個擬合的過程就叫回歸。根據(jù)現(xiàn)有數(shù)據(jù)對分類邊界線簡歷回歸公式,以此進行分類,訓練分類器時的做法
39、就是尋找最佳擬合參數(shù)。,我們想要的函數(shù)應(yīng)該是能夠接受所有的輸入然后預(yù)測出類別。在兩類的情況下,函數(shù)應(yīng)該輸出0或1.有很多單位躍階函數(shù)(海維賽德躍階函數(shù))。然而,這種函數(shù)在跳躍點上從0瞬間跳到1上,這個瞬間躍階很難處理好Sigmoid函數(shù) 當x為0時,函數(shù)值為0.5,隨著x增大,函數(shù)值增大并逼近于1,x減小,函數(shù)值減小并逼近于0.,,如果采用向量
40、的方法寫,X就是輸入數(shù)據(jù), 就是需要進行訓練的參數(shù)。通過訓練后找到最優(yōu)化的參數(shù),梯度上升法,基本思想:想找到某函數(shù)的最大值,最好的方法是沿著該函數(shù)的梯度方向探尋。,梯度上升算法的迭代公式:,,,,每個回歸系數(shù)初始化為1重復(fù)N次:計算整個數(shù)據(jù)集的梯度使用 更新回歸系數(shù)返回回歸系數(shù),,,,W=[4.120711455781440, 0.4797796
41、32289162, -0.616416051893343],這個分類結(jié)果只錯分了4個點,分類精度相當不錯。但是這個方法需要大量的計算,不適用于大規(guī)模的數(shù)據(jù)。,神經(jīng)網(wǎng)絡(luò),人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡寫為ANNs)也簡稱為神經(jīng)網(wǎng)絡(luò)(NNs)或稱作連接模型(Connection Model),它是一種模仿動物神經(jīng)網(wǎng)絡(luò)行為特征,進行分布式并行信息處理的算法數(shù)學模型。這種網(wǎng)絡(luò)依靠系統(tǒng)的復(fù)雜程度,通
42、過調(diào)整內(nèi)部大量節(jié)點之間相互連接的關(guān)系,從而達到處理信息的目的。,,,86,,連接權(quán)值,87,,改變權(quán)值的過程就是學習的過程,88,,規(guī)律?,89,The Hebb Rule,D. Hebb, 1904-1985.Degree in English, 1925.Master degree in psychology at McGill University.Ph.D. from Harvard in 1936.Moved to Y
43、erkes Lab in 1942.Published “The Organization of Behavior” in 1949.,90,Hebb Rule,,,,,,,,,,,,,,synapse,Hebb 規(guī)則是最早的神經(jīng)網(wǎng)絡(luò)學習規(guī)則之一,其最關(guān)鍵的一條假設(shè):若一條突觸兩側(cè)的兩個神經(jīng)元同時被激活,那么突觸的強度將增大。,91,,權(quán)值W 不僅僅在 a,p 全為正數(shù)增大,在 全為負數(shù)時也增大,92,Hebb 規(guī)則,如果兩個神經(jīng)
44、元的突觸同時激活,那么它們之間的連接強度會增加,93,自聯(lián)想存儲器– 學習規(guī)則,,Supervised Hebbian Learning,94,Matrix Form:,(Zero InitialWeights),學習規(guī)則,95,,,,P1 P2 P3,P,,,?,96,P,P3,P2,P1,,Inputs:,Outputs:,Input:,Output: ???,
45、97,,基于heb神經(jīng)網(wǎng)絡(luò)的PCA,傳統(tǒng)PCA算法的缺點: 需要大量的計算 屬于批量學習基于神經(jīng)網(wǎng)絡(luò)的PCA的優(yōu)點: 不需要計算協(xié)方差矩陣 屬于在線學習,99,基于hebb規(guī)則的權(quán)值更新公式:,,數(shù)據(jù)集,,基于hebb規(guī)則的神經(jīng)網(wǎng)絡(luò)已被證明 當?shù)螖?shù)無窮大時,方差趨向于,,,64 pages,102,Sanger proposed the Ge
46、neralized Hebbian Algorithm (GHA),多維壓縮,64 pages,103,GHA Learning Algorithm,64 pages,104,2維壓縮,(Oja Algorithm based onHebb rules),第一個輸出神經(jīng)元權(quán)值向量,第二個輸出神經(jīng)元權(quán)值向量,64 pages,105,,…,…,感知機,感知器是用于線性可分模式分類的最簡單的神經(jīng)網(wǎng)絡(luò).它由一個具有可調(diào)突觸權(quán)值和偏置的神經(jīng)元
47、組成。,,,,…,X1X2xm,,w1,w2,wm,,偏置b,,,v,Φ(·),輸出Y,感知器權(quán)值自適應(yīng)公式,1.假如訓練成員第N個成員x(n)根據(jù)算法中的第N次迭代的權(quán)值向量w(n)能正確分類,那么感知器的權(quán)值向量不做修改2.否則,感知器的權(quán)值向量根據(jù)以下規(guī)則進行修改: w(n+1)=w(n)-η(n)x(n) 假如預(yù)測結(jié)果為1,實際屬于類2 w(n+1)=w(n)+η(n
48、)x(n) 假如預(yù)測結(jié)果為2,實際屬于類1這里η(n)是學習參數(shù),控制這第n次迭代中作用于權(quán)值向量的調(diào)節(jié),BP神經(jīng)網(wǎng)絡(luò),反向傳播算法也稱BP算法。由于這種算法在本質(zhì)上是一種神經(jīng)網(wǎng)絡(luò)學習的數(shù)學模型,所以,有時也稱為BP模型。BP算法是為了解決多層前向神經(jīng)網(wǎng)絡(luò)的權(quán)系數(shù)優(yōu)化而提出來的;所以,BP算法也通常暗示著神經(jīng)網(wǎng)絡(luò)的拓撲結(jié)構(gòu)是一種無反饋的多層前向網(wǎng)絡(luò)。故而.有時也稱無反饋多層前向網(wǎng)絡(luò)為BP模型。,基本原理:利用輸出后的誤差來估計輸
49、出層的直接前導層的誤差,再用這個誤差估計更前一層的誤差,如此一層一層的反傳下去,就獲得了所有其他各層的誤差估計,BP神經(jīng)網(wǎng)絡(luò),,,,,具有一層隱藏層的多層感知器,函數(shù)信號的前向傳播和誤差信號的反向傳播,BP模型的學習過程,反向傳播算法分二步進行,即正向傳播和反向傳播。這兩個過程的工作簡述如下。1.正向傳播輸入的樣本從輸入層經(jīng)過隱單元一層一層進行處理,通過所有的隱層之后,則傳向輸出層;在逐層處理的過程中,每一層神經(jīng)元的狀態(tài)只對下一層神
50、經(jīng)元的狀態(tài)產(chǎn)生影響。在輸出層把現(xiàn)行輸出和期望輸出進行比較,如果現(xiàn)行輸出不等于期望輸出,則進入反向傳播過程。2.反向傳播反向傳播時,把誤差信號按原來正向傳播的通路反向傳回,并對每個隱層的各個神經(jīng)元的權(quán)系數(shù)進行修改,以望誤差信號趨向最小。步驟1,2不斷循環(huán) 直到網(wǎng)絡(luò)輸出誤差減少到可接受程度或者進行到預(yù)先設(shè)定的次數(shù)為止。,自組織映射,當人腦接收外界的時空信息時,大腦皮層的特定區(qū)域會興奮,而且類似的外界信息在對應(yīng)的區(qū)域是連續(xù)的。因此Koh
51、onen認為,一個神經(jīng)網(wǎng)絡(luò)在接受外界輸入模式時,將會分為不同的對應(yīng)區(qū)域,且各個區(qū)域?qū)斎肽J接胁煌捻憫?yīng)特征,而且這個特征是自動完成的。SOFM只有兩層:輸入層和競爭層,競爭層神經(jīng)元的排列有多種形式:一維線陣、二維平面、三維柵格等等。,權(quán)值調(diào)整方法是在勝者為王基礎(chǔ)上改進的,即優(yōu)勝領(lǐng)域內(nèi)的神經(jīng)元都可以調(diào)整權(quán)值。理論上應(yīng)該是離勝者越近,學習率的越大,但是為簡化計算,實際中優(yōu)勝領(lǐng)域內(nèi)一般取相同的學習率。優(yōu)勝領(lǐng)域開始定的很大,隨著訓練次
52、數(shù)的增加,最終應(yīng)該收縮到0。 SOFM分為訓練階段和工作階段,要訓練階段,權(quán)向量被訓練為輸入樣本空間的聚類中心。在工作階段,當輸入向量與某個競爭層的內(nèi)星權(quán)值相似時,自然會被分到對應(yīng)的聚類上去。因此SOFM可用作模式分類器。注意當輸入模式在訓練集中從未出現(xiàn)過時,SOFM網(wǎng)只能將它歸入最接近的模式分類中去。,自組織映射主要有三個過程:1.競爭。對每個輸入模式,網(wǎng)絡(luò)中的神經(jīng)元計算它們各自判別的函數(shù)值。具有最大函數(shù)值的特定神經(jīng)元成為競爭的
53、勝利者2.合作。獲勝神經(jīng)元決定興奮神經(jīng)元的拓撲鄰域的空間位置,從而提供這樣的相鄰神經(jīng)元合作的基礎(chǔ)3.突觸調(diào)節(jié)。使興奮神經(jīng)元通過對它們的突觸權(quán)值進行適當?shù)恼{(diào)節(jié)以增強它們關(guān)于該輸入模式的判別函數(shù)值。所做的調(diào)節(jié)是獲勝神經(jīng)元對以后相似的輸入模式響應(yīng)增強了。,遞歸神經(jīng)網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)的特點,1)可以充分逼近任意復(fù)雜的非線性關(guān)系; (2)所有定量或定性的信息都等勢分布貯存于網(wǎng)絡(luò)內(nèi)的各神經(jīng)元,故有很強的魯棒性和容錯性; (3
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 機器學習
- 機器學習-習題答案
- 機器學習復(fù)習重點
- 統(tǒng)計機器學習doc
- 專題學習會
- 《機器人世界》專題學習網(wǎng)站的設(shè)計及應(yīng)用研究.pdf
- 機器學習與知識發(fā)現(xiàn)
- 機器學習算法及應(yīng)用
- 什么是機器學習-huihoo
- [學習]反洗錢專題案例學習
- 深度學習及其應(yīng)用:機器學習學術(shù)報告
- 基于機器視覺及機器學習的室內(nèi)機器人導航研究.pdf
- 機器學習常用模型及優(yōu)化
- 《機器學習》課程教學大綱
- 遺傳算法與機器學習
- 外文翻譯--機器學習的研究
- 大數(shù)據(jù)下的機器學習
- 專題學習情況總結(jié)
- 機器學習svm習題集
- 機器學習與數(shù)據(jù)挖掘-drivehq
評論
0/150
提交評論