




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
1、1Hopfield網(wǎng)絡(luò)及其應(yīng)用鄭洪英重慶大學(xué)信息安全系2一、反饋網(wǎng)絡(luò)二、Hopfield網(wǎng)絡(luò)簡介三、DHNN網(wǎng)絡(luò)四、 TSP問題求解五、內(nèi)容小結(jié)內(nèi)容安排31.1 反饋網(wǎng)絡(luò)簡介1.2 網(wǎng)絡(luò)穩(wěn)定性一、反饋網(wǎng)絡(luò)41.1 反饋網(wǎng)絡(luò)簡介反饋網(wǎng)絡(luò)(Recurrent Network),又稱自聯(lián)想記憶網(wǎng)絡(luò) 其目的是為了設(shè)計一個網(wǎng)絡(luò),儲存一組平衡點,使得當給網(wǎng)絡(luò)一組初始值時,網(wǎng)絡(luò)通過自行運行而最終收斂到這個設(shè)計的平衡點上。 反饋網(wǎng)絡(luò)能表現(xiàn)出非線性動力學(xué)系統(tǒng)動態(tài)特性 網(wǎng)絡(luò)系統(tǒng)具有若干個穩(wěn)定狀態(tài)。當網(wǎng)絡(luò)從某一初始狀態(tài)開始運動,網(wǎng)絡(luò)系統(tǒng)總可以收斂到某一個穩(wěn)定的平衡狀態(tài); 系統(tǒng)穩(wěn)定的平衡狀態(tài)可以通過設(shè)計網(wǎng)絡(luò)的權(quán)值而被
2、存儲到網(wǎng)絡(luò)中5前饋型與反饋型神經(jīng)網(wǎng)絡(luò)的比較 (1) 前饋型神經(jīng)網(wǎng)絡(luò)只表達輸入輸出之間前饋型神經(jīng)網(wǎng)絡(luò)只表達輸入輸出之間的映射關(guān)系,實現(xiàn)非線性映射;反饋型神經(jīng)網(wǎng)的映射關(guān)系,實現(xiàn)非線性映射;反饋型神經(jīng)網(wǎng)絡(luò)考慮輸入輸出之間在時間上的延遲,需要用絡(luò)考慮輸入輸出之間在時間上的延遲,需要用動態(tài)方程來描述,反饋型神經(jīng)網(wǎng)絡(luò)是一個非線動態(tài)方程來描述,反饋型神經(jīng)網(wǎng)絡(luò)是一個非線性動力學(xué)系統(tǒng)。性動力學(xué)系統(tǒng)。 (2) 前饋型神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)訓(xùn)練的目的是快前饋型神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)訓(xùn)練的目的是快速收斂,一般用誤差函數(shù)來判定其收斂程度;速收斂,一般用誤差函數(shù)來判定其收斂程度;反饋型神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)目的是快速尋找到穩(wěn)定反饋型神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)目
3、的是快速尋找到穩(wěn)定點,一般用能量函數(shù)來判別是否趨于穩(wěn)定點。點,一般用能量函數(shù)來判別是否趨于穩(wěn)定點。 (3) 兩者都有局部極小問題。兩者都有局部極小問題。 61.1 反饋網(wǎng)絡(luò)簡介反饋網(wǎng)絡(luò)分類 如果激活函數(shù)f()是一個二值型的函數(shù),即aisgn(ni),il, 2, r,則稱此網(wǎng)絡(luò)為離散型反饋網(wǎng)絡(luò); 如果f()為一個連續(xù)單調(diào)上升的有界函數(shù),這類網(wǎng)絡(luò)被稱為連續(xù)型反饋網(wǎng)絡(luò)7該網(wǎng)絡(luò)為單層全反饋網(wǎng)絡(luò),其中的每個神經(jīng)元的輸出都是與其他神經(jīng)元的輸入相連的。所以其輸入數(shù)目與輸出層神經(jīng)元的數(shù)目是相等的,有rs。 89101.2 網(wǎng)絡(luò)穩(wěn)定性狀態(tài)軌跡 對于一個由r個神經(jīng)元組成的反饋網(wǎng)絡(luò),在某一時刻t,分別用N(t)和
4、A(t)來表示加權(quán)和矢量和輸出矢量。在下一時刻t+1,可得到N(t+1),而N(t+1)又引起A(t+1)的變化,這種反饋演化的過程,使網(wǎng)絡(luò)狀態(tài)隨時間發(fā)生變化。 在一個r維狀態(tài)空間上,可以用一條軌跡來描述狀態(tài)變化情況。從初始值A(chǔ)(t0)出發(fā),A(t0+t)A(t0+2t)A(t0+mt),這些在空間上的點組成的確定軌跡,是演化過程中所有可能狀態(tài)的集合,我們稱這個狀態(tài)空間為相空間111.2 網(wǎng)絡(luò)穩(wěn)定性狀態(tài)軌跡 離散與連續(xù)軌跡 在一個r維狀態(tài)空間上,可以用一條軌跡來描述狀態(tài)變化情況. 121.2 網(wǎng)絡(luò)穩(wěn)定性狀態(tài)軌跡分類:對于不同的連接權(quán)值wij和輸入Pj(i, j=1, 2, r),反饋網(wǎng)絡(luò)可能出
5、現(xiàn)不同性質(zhì)的狀態(tài)軌跡 軌跡為穩(wěn)定點 軌跡為極限環(huán) 軌跡為混沌現(xiàn)象 軌跡發(fā)散131.2 網(wǎng)絡(luò)穩(wěn)定性穩(wěn)定軌跡 反饋網(wǎng)絡(luò)從任一初始態(tài)P(0)開始運動,若存在某一有限時刻t,從t以后的網(wǎng)絡(luò)狀態(tài)不再發(fā)生變化(P(t+t)= P(t),t0)則稱網(wǎng)絡(luò)是穩(wěn)定的 處于穩(wěn)定時的網(wǎng)絡(luò)狀態(tài)叫做穩(wěn)定狀態(tài),又稱為定吸引子141.2 網(wǎng)絡(luò)穩(wěn)定性穩(wěn)定點分類 在一個反饋網(wǎng)絡(luò)中,存在很多穩(wěn)定點 穩(wěn)定點收斂域 漸近穩(wěn)定點:在穩(wěn)定點Ae周圍的A()區(qū)域內(nèi),從任一個初始狀態(tài)A(t0)出發(fā),當t時都收斂于Ae,則稱Ae為漸近穩(wěn)定點 不穩(wěn)定平衡點Aen:在某些特定的軌跡演化過程中,網(wǎng)絡(luò)能夠到達穩(wěn)定點Aen,但對其它方向上任意小的區(qū)域A(
6、),不管A()取多么小,其軌跡在時間t以后總是偏離Aen; 期望解 網(wǎng)絡(luò)的解:如果網(wǎng)絡(luò)最后穩(wěn)定到設(shè)計人員期望的穩(wěn)定點,且該穩(wěn)定點又是漸近穩(wěn)定點,那么這個點稱為網(wǎng)絡(luò)的解; 網(wǎng)絡(luò)的偽穩(wěn)定點:網(wǎng)絡(luò)最終穩(wěn)定到一個漸近穩(wěn)定點上,但這個穩(wěn)定點不是網(wǎng)絡(luò)設(shè)計所要求的解151.2 網(wǎng)絡(luò)穩(wěn)定性狀態(tài)軌跡為極限環(huán) 在某些參數(shù)的情況下,狀態(tài)A(t)的軌跡是一個圓,或一個環(huán) 狀態(tài)A(t)沿著環(huán)重復(fù)旋轉(zhuǎn),永不停止,此時的輸出A(t)也出現(xiàn)周期變化(即出現(xiàn)振蕩) 如果在r種狀態(tài)下循環(huán)變化,稱其極限環(huán)為r 對于離散反饋網(wǎng)絡(luò),軌跡變化可能在兩種狀態(tài)下來回跳動,其極限環(huán)為2161.2 網(wǎng)絡(luò)穩(wěn)定性狀態(tài)軌跡為混沌 如果狀態(tài)A(t)的軌
7、跡在某個確定的范圍內(nèi)運動,但既不重復(fù),又不能停下來 狀態(tài)變化為無窮多個,而軌跡也不能發(fā)散到無窮遠,這種現(xiàn)象稱為混沌(chaos) 出現(xiàn)混沌的情況下,系統(tǒng)輸出變化為無窮多個,并且隨時間推移不能趨向穩(wěn)定,但又不發(fā)散171.2 網(wǎng)絡(luò)穩(wěn)定性狀態(tài)軌跡發(fā)散 狀態(tài)A(t)的軌跡隨時間一直延伸到無窮遠。此時狀態(tài)發(fā)散,系統(tǒng)的輸出也發(fā)散 一般非線性人工神經(jīng)網(wǎng)絡(luò)中發(fā)散現(xiàn)象是不會發(fā)生的.181.2網(wǎng)絡(luò)穩(wěn)定性目前的反饋神經(jīng)網(wǎng)絡(luò)是利用穩(wěn)定的特定軌跡來解決某些問題 如果視系統(tǒng)的穩(wěn)定點為一個記憶,則從初始狀態(tài)朝此穩(wěn)定點移動的過程即為尋找該記憶的過程 狀態(tài)的初始值可以認為是給定的有關(guān)該記憶的部分信息,狀態(tài)A(t)移動的過程,是
8、從部分信息去尋找全部信息,這就是聯(lián)想記憶的過程 將系統(tǒng)的穩(wěn)定點考慮為一個能量函數(shù)的極小點。在狀態(tài)空間中,從初始狀態(tài)A(t0) ,最后到達A*。若A*為穩(wěn)定點,則可以看作是A*把A(t0)吸引了過去,在A(t0)時能量比較大,而吸引到A*時能量已為極小了191.2網(wǎng)絡(luò)穩(wěn)定性考慮具體應(yīng)用,可以將能量的極小點作為一個優(yōu)化目標函數(shù)的極小點,把狀態(tài)變化的過程看成是優(yōu)化某一個目標函數(shù)的過程因此反饋網(wǎng)絡(luò)的狀態(tài)移動的過程實際上是一種計算聯(lián)想記憶或優(yōu)化的過程。它的解并不需要真的去計算,只需要形成一類反饋神經(jīng)網(wǎng)絡(luò),適當?shù)卦O(shè)計網(wǎng)絡(luò)權(quán)值wij,使其初始輸入A(t0)向穩(wěn)定吸引子狀態(tài)移動就可以達到目的20二、Hopfi
9、eld網(wǎng)絡(luò)簡介2.1 網(wǎng)絡(luò)模型2.2 DHNN2.3 CHNN2.4 聯(lián)想記憶與優(yōu)化計算21概述 Hopfield Hopfield網(wǎng)絡(luò)是神經(jīng)網(wǎng)絡(luò)發(fā)展歷史上的一個重要的里網(wǎng)絡(luò)是神經(jīng)網(wǎng)絡(luò)發(fā)展歷史上的一個重要的里程碑。由美國加州理工學(xué)院物理學(xué)家程碑。由美國加州理工學(xué)院物理學(xué)家J.J.HopfieldJ.J.Hopfield教授于教授于19821982年提出,是一種單層反饋神經(jīng)網(wǎng)絡(luò)。年提出,是一種單層反饋神經(jīng)網(wǎng)絡(luò)。HopfieldHopfield網(wǎng)絡(luò)是一種由非線性元件構(gòu)成的反饋系統(tǒng),其穩(wěn)網(wǎng)絡(luò)是一種由非線性元件構(gòu)成的反饋系統(tǒng),其穩(wěn)定狀態(tài)的分析比前向神經(jīng)網(wǎng)絡(luò)要復(fù)雜得多。定狀態(tài)的分析比前向神經(jīng)網(wǎng)絡(luò)要復(fù)雜得
10、多。19841984年,年,HopfieldHopfield設(shè)計并研制了網(wǎng)絡(luò)模型的電路,并成功地解決了設(shè)計并研制了網(wǎng)絡(luò)模型的電路,并成功地解決了旅行商旅行商(TSP)(TSP)計算難題計算難題( (優(yōu)化問題優(yōu)化問題) )。 Hopfield Hopfield網(wǎng)絡(luò)分為離散型和連續(xù)型兩種網(wǎng)絡(luò)模型,分網(wǎng)絡(luò)分為離散型和連續(xù)型兩種網(wǎng)絡(luò)模型,分別記作別記作DHNN (Discrete Hopfield Neural Network) DHNN (Discrete Hopfield Neural Network) 和和CHNN (Continues Hopfield Neural Network) CHNN
11、 (Continues Hopfield Neural Network) 。 Hello,Im John Hopfield22反饋神經(jīng)網(wǎng)絡(luò)由于其輸出端有反饋到其反饋神經(jīng)網(wǎng)絡(luò)由于其輸出端有反饋到其輸入端;所以,輸入端;所以,HopfieldHopfield網(wǎng)絡(luò)在輸入的網(wǎng)絡(luò)在輸入的激勵下,會產(chǎn)生不斷的狀態(tài)變化。激勵下,會產(chǎn)生不斷的狀態(tài)變化。當有輸入之后,可以求出當有輸入之后,可以求出HopfieldHopfield的輸?shù)妮敵觯@個輸出反饋到輸入從而產(chǎn)生新的出,這個輸出反饋到輸入從而產(chǎn)生新的輸出,這個反饋過程一直進行下去。如輸出,這個反饋過程一直進行下去。如果果HopfieldHopfield網(wǎng)絡(luò)是
12、一個能收斂的穩(wěn)定網(wǎng)網(wǎng)絡(luò)是一個能收斂的穩(wěn)定網(wǎng)絡(luò),則這個反饋與迭代的計算過程所產(chǎn)絡(luò),則這個反饋與迭代的計算過程所產(chǎn)生的變化越來越小,一旦到達了穩(wěn)定平生的變化越來越小,一旦到達了穩(wěn)定平衡狀態(tài);那么衡狀態(tài);那么HopfieldHopfield網(wǎng)絡(luò)就會輸出一網(wǎng)絡(luò)就會輸出一個穩(wěn)定的恒值。個穩(wěn)定的恒值。232.1 網(wǎng)絡(luò)模型分類分類 離散離散HopfieldHopfield網(wǎng)絡(luò)(網(wǎng)絡(luò)(DHNNDHNN) 連續(xù)連續(xù)HopfieldHopfield網(wǎng)絡(luò)(網(wǎng)絡(luò)(CHNNCHNN) DHNN中的激活函數(shù) CHNN中的激活函數(shù) 242.1 網(wǎng)絡(luò)模型252.2 DHNNHopfield最早提出的網(wǎng)絡(luò)是二值神經(jīng)網(wǎng)絡(luò),神經(jīng)元
13、的輸出只取1和0這兩個值,所以,也稱離散Hopfield神經(jīng)網(wǎng)絡(luò)。在離散Hopfield網(wǎng)絡(luò)中,所采用的神經(jīng)元是二值神經(jīng)元;故而,所輸出的離散值1和0分別表示神經(jīng)元處于激活和抑制狀態(tài)。 262.2 DHNN對于一個離散的Hopfield網(wǎng)絡(luò),其網(wǎng)絡(luò)狀態(tài)是輸出神經(jīng)元信息的集合。對于一個輸出層是n個神經(jīng)元的網(wǎng)絡(luò),則其t時刻的狀態(tài)為一個n維向量: Aa1,a2,anT 故而,網(wǎng)絡(luò)狀態(tài)有2n個狀態(tài);因為Aj(t)(j1n)可以取值為1或0;故n維向量A(t)有2n種狀態(tài),即是網(wǎng)絡(luò)狀態(tài)。272.2 DHNN對于三個神經(jīng)元的離散Hopfield網(wǎng)絡(luò),它的輸出層就是三位二進制數(shù);每一個三位二進制數(shù)就是一種網(wǎng)
14、絡(luò)狀態(tài),從而共有8個網(wǎng)絡(luò)狀態(tài)。這些網(wǎng)絡(luò)狀態(tài)如圖所示。在圖中,立方體的每一個頂角表示一種網(wǎng)絡(luò)狀態(tài)。同理,對于n個神經(jīng)元的輸出層,它有2n個網(wǎng)絡(luò)狀態(tài),也和一個n維超立方體的頂角相對應(yīng)。282.2 DHNN如果Hopfield網(wǎng)絡(luò)是一個穩(wěn)定網(wǎng)絡(luò),那么在網(wǎng)絡(luò)的輸入端加入一個輸入向量,則網(wǎng)絡(luò)的狀態(tài)會產(chǎn)生變化,也就是從超立方體的一個頂角轉(zhuǎn)移向另一個頂角,并且最終穩(wěn)定于一個特定的頂角。 292.2 DHNNDHNN 取b0,wii0 權(quán)矩陣中有wijwji302.2 DHNN DHNN網(wǎng)絡(luò)結(jié)構(gòu)可以用一個加權(quán)向量圖表示31穩(wěn)定狀態(tài)穩(wěn)定狀態(tài) 若網(wǎng)絡(luò)從某一時刻以后,狀態(tài)不再發(fā)生若網(wǎng)絡(luò)從某一時刻以后,狀態(tài)不再發(fā)生變
15、化,則稱網(wǎng)絡(luò)處于穩(wěn)定狀態(tài)變化,則稱網(wǎng)絡(luò)處于穩(wěn)定狀態(tài) 網(wǎng)絡(luò)為對稱連接,即;神經(jīng)元自身無連網(wǎng)絡(luò)為對稱連接,即;神經(jīng)元自身無連接接 能量函數(shù)在網(wǎng)絡(luò)運行中不斷降低,最能量函數(shù)在網(wǎng)絡(luò)運行中不斷降低,最后達到穩(wěn)定后達到穩(wěn)定nnn1111E2ijijiiijiijjiwv vb v ()( )0v ttv tt 32網(wǎng)絡(luò)中神經(jīng)元能量函數(shù)變化量網(wǎng)絡(luò)中神經(jīng)元能量函數(shù)變化量n11E2iijijiiiijw vvbv nn11n1EE (1)E ( )11(1)(1)( )( )221(1)( )2iiiijijiiijijiiiiijijiiijjiiijttw v tvbv tw v t vbv tv tv t
16、w vb E0iHopfield網(wǎng)絡(luò)狀態(tài)向著能量函數(shù)減網(wǎng)絡(luò)狀態(tài)向著能量函數(shù)減小的方向演化。由于能量函數(shù)有界,小的方向演化。由于能量函數(shù)有界,所以系統(tǒng)必然會趨于穩(wěn)定狀態(tài)所以系統(tǒng)必然會趨于穩(wěn)定狀態(tài) 。332.3 CHNN將霍普菲爾德網(wǎng)絡(luò)推廣到輸入和輸出都取連續(xù)數(shù)值的情形網(wǎng)絡(luò)的基本結(jié)構(gòu)不變,狀態(tài)輸出方程形式上也相同。則網(wǎng)絡(luò)的狀態(tài)轉(zhuǎn)移方程可寫為342.3 CHNN神經(jīng)元的激活函數(shù)f為S型的函數(shù)(或線性飽和函數(shù))352.3 CHNN神經(jīng)元的激活函數(shù)f為S型的函數(shù)(或線性飽和函數(shù))362.4 聯(lián)想記憶與優(yōu)化計算聯(lián)想記憶問題 穩(wěn)定狀態(tài)已知并且通過學(xué)習(xí)和設(shè)計算法尋求合適的權(quán)值矩陣將穩(wěn)定狀態(tài)存儲到網(wǎng)絡(luò)中優(yōu)化計算
17、 權(quán)值矩陣W已知,目的為尋找具有最小能量E的穩(wěn)定狀態(tài) 主要工作為設(shè)計相應(yīng)的W和能量函數(shù)公式37三、DHNN3.1 神經(jīng)元狀態(tài)更新方式3.2 網(wǎng)絡(luò)學(xué)習(xí)3.3 網(wǎng)絡(luò)記憶容量3.4 權(quán)值設(shè)計383.1 狀態(tài)更新由-1變?yōu)?;由1變?yōu)?1;狀態(tài)保持不變串行異步方式 任意時刻隨機地或確定性地選擇網(wǎng)絡(luò)中的一個神經(jīng)元進行狀態(tài)更新,而其余神經(jīng)元的狀態(tài)保持不變 393.1 狀態(tài)更新串行異步方式 任一時刻,網(wǎng)絡(luò)中只有一個神經(jīng)元被選擇進行狀態(tài)更新或保持,所以異步狀態(tài)更新的網(wǎng)絡(luò)從某一初態(tài)開始需經(jīng)過多次更新狀態(tài)后才可以達到某種穩(wěn)態(tài)。 實現(xiàn)上容易,每個神經(jīng)元有自己的狀態(tài)更新時刻,不需要同步機制; 異步狀態(tài)更新更接近實際的
18、生物神經(jīng)系統(tǒng)的表現(xiàn)并行同步方式 任意時刻網(wǎng)絡(luò)中部分神經(jīng)元(比如同一層的神經(jīng)元)的狀態(tài)同時更新。如果任意時刻網(wǎng)絡(luò)中全部神經(jīng)元同時進行狀態(tài)更新,那么稱之為全并行同步方式 403.2 網(wǎng)絡(luò)學(xué)習(xí)聯(lián)想記憶 聯(lián)想記憶功能是DHNN的一個重要應(yīng)用范圍。 反饋網(wǎng)絡(luò)實現(xiàn)聯(lián)想記憶必須具備的兩個基本條件 網(wǎng)絡(luò)能收斂到穩(wěn)定的平衡狀態(tài),并以其作為樣本的記憶信息; 具有回憶能力,能夠從某一殘缺的信息回憶起所屬的完整的記憶信息學(xué)習(xí)目的 具有q個不同的輸入樣本組PrqP1, P2 Pq 通過學(xué)習(xí)方式調(diào)節(jié)計算有限的權(quán)值矩陣W 以每一組輸入樣本Pk,k=1,2,q 作為系統(tǒng)的初始值 經(jīng)過網(wǎng)絡(luò)工作運行后,系統(tǒng)能收斂到各自輸入樣本矢
19、量本身413.2 網(wǎng)絡(luò)學(xué)習(xí)DHNN中運用海布調(diào)節(jié)規(guī)則(hebb) 海布法則是一種無指導(dǎo)的死記式學(xué)習(xí)算法 當神經(jīng)元輸入與輸出節(jié)點的狀態(tài)相同(即同時興奮或抑制)時,從第j個到第i個神經(jīng)元之間的連接強度則增強,否則減弱當k1時,對于第i個神經(jīng)元,由海布學(xué)習(xí)規(guī)則可得網(wǎng)絡(luò)權(quán)值對輸入矢量的學(xué)習(xí)關(guān)系式為 其中,0,i1,2,r;j=1,2,r。在實際學(xué)習(xí)規(guī)則的運用中,一般取1或1/r423.2 網(wǎng)絡(luò)學(xué)習(xí)當k由1增加到2,直至q時,是在原有己設(shè)計出的權(quán)值的基礎(chǔ)上,增加一個新量pjkpik,k2, q對網(wǎng)絡(luò)所有輸入樣本記憶權(quán)值的設(shè)計公式為 其中,0,i1,2,r;j=1,2,r。在實際學(xué)習(xí)規(guī)則的運用中,一般取1
20、或1/r433.2 網(wǎng)絡(luò)學(xué)習(xí)向量形式表示1時神經(jīng)網(wǎng)絡(luò)工具箱中采用海布公式求解網(wǎng)絡(luò)權(quán)矩陣變化的函數(shù)為learnh.m和learnhd.m。后者為帶有衰減學(xué)習(xí)速率的函數(shù) dW1earnh(P,A,lr) dWlearnhd(W,P,A,lr,dr); 對于簡單的情況,lr可以選擇1;對于復(fù)雜的應(yīng)用,可取lr0.10.5,drlr3443.2 網(wǎng)絡(luò)學(xué)習(xí)簡單驗證 q1, l 求出的權(quán)值wij是否能夠保證aipi? 對于第i個輸出節(jié)點,有453.3 記憶容量設(shè)計DHNN網(wǎng)絡(luò)的目的,是希望通過所設(shè)計的權(quán)值矩陣W儲存多個期望模式當網(wǎng)絡(luò)只記憶一個穩(wěn)定模式時,該模式肯定被網(wǎng)絡(luò)準確無誤地記憶住,即所設(shè)計的W值一定
21、能夠滿足正比于輸入和輸出矢量的乘積關(guān)系但當需要記憶的模式增多時,網(wǎng)絡(luò)記憶可能出現(xiàn)問題 權(quán)值移動 交叉干擾463.3 記憶容量在網(wǎng)絡(luò)的學(xué)習(xí)過程中,網(wǎng)絡(luò)對記憶樣本輸入T1,T2,Tq的權(quán)值學(xué)習(xí)記憶實際上是逐個實現(xiàn)的。即對權(quán)值W,有程序:W=0for k=l qW=W+Tk(Tk)T-Iend 473.3 記憶容量由此過程可知:當k=1時,有 此時,網(wǎng)絡(luò)準確的記住了樣本T1 483.3 記憶容量權(quán)值移動 當k2時,為了記憶樣本T2,需要在記憶了樣本Tl的權(quán)值上加上對樣本T2的記憶項T2(T2)T-I,將權(quán)值在原來值的基礎(chǔ)上產(chǎn)生了移動 由于在學(xué)習(xí)樣本T2時,權(quán)矩陣W是在已學(xué)習(xí)了T1的基礎(chǔ)上進行修正的,
22、W起始值不再為零,所以由此調(diào)整得出的新的W值,對記憶樣本T2來說,也未必對所有的s個輸出同時滿足符號函數(shù)的條件,即難以保證網(wǎng)絡(luò)對T2的精確的記憶493.3 記憶容量權(quán)值移動 隨著學(xué)習(xí)樣本數(shù)k的增加,權(quán)值移動現(xiàn)象將進一步發(fā)生,當學(xué)習(xí)了第q個樣本Tq后,權(quán)值又在前q-1個樣本修正的基礎(chǔ)上產(chǎn)生了移動,這也是網(wǎng)絡(luò)在精確的學(xué)習(xí)了第一個樣本后的第q-1次移動 對已記憶的樣本發(fā)生遺忘,這種現(xiàn)象被稱為“疲勞”503.3 記憶容量在此情況下,所求出的新的W為:wij= tj1ti1+ tj2ti2,對于樣本T1來說,網(wǎng)絡(luò)的輸出為:此輸出有可能不再對所有的s個輸出均滿足加權(quán)輸入和與輸出符號一致的條件。網(wǎng)絡(luò)有可能部
23、分地遺忘了以前已記憶住的模式。 513.3 記憶容量交叉干擾交叉干擾 設(shè)輸入矢量設(shè)輸入矢量P P維數(shù)為維數(shù)為r rq q,取,取=1/r=1/r。P Pk k-1-1,11,所以,所以p pj jk k* *p pj jk k1 1。當網(wǎng)絡(luò)某個矢量。當網(wǎng)絡(luò)某個矢量P Pl l,l1,ql1,q,作為網(wǎng)絡(luò)的輸入,作為網(wǎng)絡(luò)的輸入矢量時,可得網(wǎng)絡(luò)的加權(quán)輸入和矢量時,可得網(wǎng)絡(luò)的加權(quán)輸入和n ni il l為為 上式右邊中第一項為期望記憶的樣本,而第二項則是當網(wǎng)絡(luò)上式右邊中第一項為期望記憶的樣本,而第二項則是當網(wǎng)絡(luò)學(xué)習(xí)多個樣本時,在回憶階段即驗證該記憶樣本時,所產(chǎn)生學(xué)習(xí)多個樣本時,在回憶階段即驗證該記憶
24、樣本時,所產(chǎn)生的相互干擾,稱為交叉干擾項的相互干擾,稱為交叉干擾項523.3 記憶容量有效容量有效容量 從對網(wǎng)絡(luò)的記憶容量產(chǎn)生影響的權(quán)值移動和從對網(wǎng)絡(luò)的記憶容量產(chǎn)生影響的權(quán)值移動和交叉干擾上看,采用海布學(xué)習(xí)法則對網(wǎng)絡(luò)記交叉干擾上看,采用海布學(xué)習(xí)法則對網(wǎng)絡(luò)記憶樣本的數(shù)量是有限制的憶樣本的數(shù)量是有限制的 通過上面的分析已經(jīng)很清楚地得知,當交叉通過上面的分析已經(jīng)很清楚地得知,當交叉干擾項值大于正確記憶值時,將產(chǎn)生錯誤輸干擾項值大于正確記憶值時,將產(chǎn)生錯誤輸出出在什么情況下,能夠保證記憶住所有樣本在什么情況下,能夠保證記憶住所有樣本? ? 當所期望記憶的樣本是兩兩正交時,能夠準當所期望記憶的樣本是兩兩
25、正交時,能夠準確得到一個可記憶數(shù)量的上限值確得到一個可記憶數(shù)量的上限值 533.3 記憶容量有效容量的上界有效容量的上界正交特性正交特性 神經(jīng)元為二值輸出的情況下,即神經(jīng)元為二值輸出的情況下,即P Pj j-1-1,11,當兩個,當兩個r r維樣本矢量維樣本矢量的各個分量中,有的各個分量中,有r/2r/2是相同,是相同,r/2r/2是相反。對于任意一個數(shù)是相反。對于任意一個數(shù)l l,l1l1,qq,有,有P Pl l(P(Pk k) )T T0 0,lklk;而有;而有P Pl l(P(Pl l) )T Tr r,l lk k 543.3 記憶容量 用外積和公式所得到的權(quán)矩陣進行迭代計算,用外
26、積和公式所得到的權(quán)矩陣進行迭代計算,在輸入樣本在輸入樣本P Pk k,k=1k=1,2, q2, q中任取中任取P Pl l為初為初始輸入,求網(wǎng)絡(luò)加權(quán)輸出和始輸入,求網(wǎng)絡(luò)加權(quán)輸出和N Nl l 只要滿足,只要滿足,r rq q,則有則有sgn(Nsgn(Nl l) )P Pl l保證保證P Pl l為網(wǎng)絡(luò)的穩(wěn)為網(wǎng)絡(luò)的穩(wěn)定解定解 553.4 權(quán)值設(shè)計的其它方法學(xué)習(xí)規(guī)則: 通過計算每個神經(jīng)元節(jié)點的實際激活值A(chǔ)(t),與期望狀態(tài)T(t)進行比較,若不滿足要求,則將二者的誤差的一部分作為調(diào)整量,若滿足要求,則相應(yīng)的權(quán)值保持不變 563.4 權(quán)值設(shè)計的其它方法偽逆法 對于輸入樣本PP1 P2 Pq,設(shè)網(wǎng)
27、絡(luò)輸出可以寫成一個與輸入樣本相對應(yīng)的矩陣A,輸入和輸出之間可用一個權(quán)矩陣W來映射,即有:W*PN,Asgn(N),由此可得WN*P* 其中P*為P的偽逆,有P*(PTP)-1PT 如果樣本之間是線性無關(guān)的,則PTP滿秩,其逆存在,則可求出權(quán)矩陣W 但當記憶樣本之間是線性相關(guān)的,由海布法所設(shè)計出的網(wǎng)絡(luò)存在的問題,偽逆法也解決不了,甚至無法求解,相比之下,由于存在求逆等運算,偽逆法較為繁瑣,而海布法則要容易求得多57四、 TSP問題求解所謂TSP(Traveling Salesman Problem)問題,即“旅行商問題”是一個十分有名的難以求解的優(yōu)化問題,其要求很簡單:在n個城市的集合中,找出一
28、條經(jīng)過每個城市各一次,最終回到起點的最短路徑問題描述 如果已知城市A,B,C,D,之間的距離為dAB,dBC,dCD;那么總的距離ddAB+dBC+dCD+,對于這種動態(tài)規(guī)化問題,要去求其min(d)的解對于n個城市的全排列共有n!種,而TSP并沒有限定路徑的方向,即為全組合,所以對于固定的城市數(shù)n的條件下,其路徑總數(shù)Sn為Snn!2n (n4)58594.3 TSP問題TSP的解是若干城市的有序排列,任何一個城市在最終路徑上的位置可用一個n維的0、1矢量表示,對于所有n個城市,則需要一個nn維矩陣。以5個城市為例,一種可能的排列矩陣為604.3 TSP問題若用dxy表示從城市x到城市y的距離,則上面路徑的總長度為: dxydCA+dAD+dDB+dBE+dECTSP的最優(yōu)解是求長度dxy為最短的一條有效的路徑 采用連續(xù)時間的霍普菲爾德網(wǎng)絡(luò)模型來求解TSP,開辟了一條解決這一問題的新途徑。其基本思想是把TSP映射到CHNN上,通過網(wǎng)絡(luò)狀態(tài)的動態(tài)演化逐步趨向穩(wěn)態(tài)而自動地搜索出優(yōu)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 整體與部分的課件
- 英漢筆譯教學(xué)課件
- 樂高機器人拼搭教學(xué)課件
- 教育技術(shù)課的課件教學(xué)
- 2025年自然資源部機關(guān)服務(wù)局招聘在職人員5人筆試歷年典型考題及考點剖析附帶答案詳解
- 新開臺球室開業(yè)活動方案
- 方特親子游具體活動方案
- 文體活動周末活動方案
- 新手媽媽活動方案
- 數(shù)碼家居活動方案
- 人教版七年級下冊數(shù)學(xué)全冊課件
- 猜歌名教學(xué)講解課件
- STEMI患者接受P2Y12受體抑制劑預(yù)處理的探討
- 大學(xué)物理課件-光電效應(yīng)
- 比亞迪秦PLUS EV說明書
- 安全生產(chǎn)培訓(xùn)記錄及效果評估表
- 潘祖仁版高分子化學(xué)(第五版)課后習(xí)題答案.24401
- 吉林省房屋修繕及抗震加固工程計價定額說明
- 預(yù)制箱梁施工監(jiān)理重點檢查內(nèi)容標準版
- 干部人事檔案目錄(樣表)
- 2023年北京理工附中小升初英語分班考試復(fù)習(xí)題
評論
0/150
提交評論