訂閱
糾錯
加入自媒體

人工智能之Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)

神經(jīng)網(wǎng)絡(luò)在1980年代復(fù)興歸功于物理學(xué)家約翰·霍普菲爾德(Hopfield)。1982年,霍普菲爾德提出了一種新的神經(jīng)網(wǎng)絡(luò),可以解決一大類模式識別問題,還可以給出一類組合優(yōu)化問題的近似解。這種神經(jīng)網(wǎng)絡(luò)模型后被稱為Hopfield神經(jīng)網(wǎng)絡(luò)

人工智能之Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)

Hopfield神經(jīng)網(wǎng)絡(luò)是一種循環(huán)神經(jīng)網(wǎng)絡(luò)[請參見公眾號“科技優(yōu)化生活”之人工智能(23)],由約翰·霍普菲爾德發(fā)明,他將物理學(xué)的相關(guān)思想(動力學(xué))引入到神經(jīng)網(wǎng)絡(luò)的構(gòu)造中,從而形成了Hopfield神經(jīng)網(wǎng)絡(luò)。貝爾實驗室在1987年成功在Hopfield神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上研制出了神經(jīng)網(wǎng)絡(luò)芯片。

Hopfield神經(jīng)網(wǎng)絡(luò)是一種遞歸神經(jīng)網(wǎng)絡(luò),從輸出到輸入均有反饋連接,每一個神經(jīng)元跟所有其他神經(jīng)元相互連接,又稱為全互聯(lián)網(wǎng)絡(luò)。

Hopfield神經(jīng)網(wǎng)絡(luò)概述:

Hopfield神經(jīng)網(wǎng)絡(luò)HNN(Hopfiled Neural Network)是一種結(jié)合存儲系統(tǒng)和二元系統(tǒng)的神經(jīng)網(wǎng)絡(luò)。它保證了向局部極小的收斂,但收斂到錯誤的局部極小值(local minimum),而非全局極。╣lobal minimum)的情況也可能發(fā)生。Hopfield神經(jīng)網(wǎng)絡(luò)也提供了模擬人類記憶的模型。

人工智能之Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)

Hopfield神經(jīng)網(wǎng)絡(luò)是反饋神經(jīng)網(wǎng)絡(luò),其輸出端又會反饋到其輸入端,在輸入的激勵下,其輸出會產(chǎn)生不斷的狀態(tài)變化,這個反饋過程會一直反復(fù)進行。假如Hopfield神經(jīng)網(wǎng)絡(luò)是一個收斂的穩(wěn)定網(wǎng)絡(luò),則這個反饋與迭代的計算過程所產(chǎn)生的變化越來越小,一旦達到了穩(wěn)定的平衡狀態(tài),Hopfield網(wǎng)絡(luò)就會輸出一個穩(wěn)定的恒值

人工智能之Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)

對于一個Hopfield神經(jīng)網(wǎng)絡(luò)來說,關(guān)鍵在于確定它在穩(wěn)定條件下的權(quán)系數(shù)。

人工智能之Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)

Hopfield神經(jīng)網(wǎng)絡(luò)分為兩種:1)離散型Hopfield神經(jīng)網(wǎng)絡(luò);2)連續(xù)型Hopfield神經(jīng)網(wǎng)絡(luò)。

離散型Hopfield神經(jīng)網(wǎng)絡(luò):

Hopfield最早提出的網(wǎng)絡(luò)是二值神經(jīng)網(wǎng)絡(luò),各神經(jīng)元的激勵函數(shù)為階躍函數(shù)或雙極值函數(shù),神經(jīng)元的輸入、輸出只取{0,1}或者{ -1,1},所以也稱為離散型Hopfield神經(jīng)網(wǎng)絡(luò)DHNN(Discrete Hopfiled Neural Network)。在DHNN中,所采用的神經(jīng)元是二值神經(jīng)元;因此,所輸出的離散值1和0或者1和-1分別表示神經(jīng)元處于激活狀態(tài)和抑制狀態(tài)。

離散Hopfield神經(jīng)網(wǎng)絡(luò)DHNN是一個單層網(wǎng)絡(luò),有n個神經(jīng)元節(jié)點,每個神經(jīng)元的輸出均接到其它神經(jīng)元的輸入。各節(jié)點沒有自反饋。每個節(jié)點都可處于一種可能的狀態(tài)(1或-1),即當(dāng)該神經(jīng)元所受的刺激超過其閥值時,神經(jīng)元就處于一種狀態(tài)(比如1),否則神經(jīng)元就始終處于另一狀態(tài)(比如-1)。

人工智能之Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)

DHNN有兩種工作方式:

1)串行(異步)方式:在時刻t時,只有某一個神經(jīng)元j的狀態(tài)發(fā)生變化,而其他n-1個神經(jīng)元的狀態(tài)不變,稱為串行工作方式。并且有:

人工智能之Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)

2)并行(同步)方式:在任一時刻t,所有的神經(jīng)元的狀態(tài)都產(chǎn)生了變化,稱為并行工作方式。并且有:

人工智能之Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)

DHNN穩(wěn)定性:

假設(shè)一個DHNN,其狀態(tài)為Y(t): 

人工智能之Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)

如果對于任何Δt>0,當(dāng)神經(jīng)網(wǎng)絡(luò)從t=0開始,有初始狀態(tài)Y(0)。經(jīng)過有限時刻t,有: 

Y(t+Δt)=Y(t) 

則認為該DHNN網(wǎng)絡(luò)是穩(wěn)定的,稱其狀態(tài)為為穩(wěn)定狀態(tài)。DHNN網(wǎng)絡(luò)的穩(wěn)定狀態(tài)X就是網(wǎng)絡(luò)的吸引子(attractor),用于存儲記憶信息。串行方式下的穩(wěn)定性稱為串行穩(wěn)定性;并行方式下的穩(wěn)定性稱為并行穩(wěn)定性。

人工智能之Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)

DHNN是一種多輸入、含有閾值的二值非線性動態(tài)系統(tǒng)。在動態(tài)系統(tǒng)中,平衡穩(wěn)定狀態(tài)可以理解為系統(tǒng)某種形式的能量函數(shù)(energy function)在系統(tǒng)運行過程中,其能量不斷減少,最后處于最小值。

DHNN穩(wěn)定的充分條件:如果DHNN的權(quán)系數(shù)矩陣W是一個對稱矩陣,并且對角線元素為0,則這個網(wǎng)絡(luò)是穩(wěn)定的。即在權(quán)系數(shù)矩陣W中,如果:

人工智能之Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)

則該DHNN是穩(wěn)定的。

W是一個對稱矩陣僅是充分條件,不是必要條件。

DHNN聯(lián)想記憶功能:

DHNN一個重要功能是可以用于聯(lián)想記憶,即聯(lián)想存儲器,這是人類的智能特點之一。

人工智能之Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)

要實現(xiàn)聯(lián)想記憶,DHNN必須具有兩個基本條件:

1) 網(wǎng)絡(luò)能收斂到穩(wěn)定的平衡狀態(tài),并以其作為樣本的記憶信息;

2) 具有回憶能力,能夠從某一殘缺的信息回憶起所屬的完整的記憶信息。

DHNN實現(xiàn)聯(lián)想記憶過程分為兩個階段

1)學(xué)習(xí)記憶階段: 設(shè)計者通過某一設(shè)計方法確定一組合適的權(quán)值,使DHNN記憶期望的穩(wěn)定平衡點。

2)聯(lián)想回憶階段: DHNN的工作過程。

記憶是分布式的,而聯(lián)想是動態(tài)的。

對于DHNN,由于網(wǎng)絡(luò)狀態(tài)是有限的,不可能出現(xiàn)混沌狀態(tài)。

DHNN局限性:

1)記憶容量的有限性;

2)偽穩(wěn)定點的聯(lián)想與記憶;

3)當(dāng)記憶樣本較接近時,網(wǎng)絡(luò)不能始終回憶出正確的記憶等;

4)DHNN平衡穩(wěn)定點不可以任意設(shè)置,也沒有一個通用的方式來事先知道平衡穩(wěn)定點。

連續(xù)型Hopfield神經(jīng)網(wǎng)絡(luò):

連續(xù)Hopfield神經(jīng)網(wǎng)絡(luò)CHNN(Continuous Hopfield Neural Network)與DHNN在拓撲結(jié)構(gòu)上是一致的。

CHNN穩(wěn)定性:

CHNN穩(wěn)定條件要求:

人工智能之Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)

CHNN與DHNN不同之處在于其函數(shù)g不是階躍函數(shù),而是S型的連續(xù)函數(shù)。一般。 

人工智能之Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)

CHNN在時間上是連續(xù)的,所以CHNN網(wǎng)絡(luò)中各個神經(jīng)元是處于同步方式工作的。

人工智能之Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)

當(dāng)CHNN網(wǎng)絡(luò)的神經(jīng)元傳遞函數(shù)g是連續(xù)且有界的(如Sigmoid函數(shù)),并且CHNN網(wǎng)絡(luò)的權(quán)值系數(shù)矩陣對稱,則這個CHNN網(wǎng)絡(luò)是穩(wěn)定的。

優(yōu)化問題:

在實際應(yīng)用中的系統(tǒng),如果其優(yōu)化問題可以用能量函數(shù)E(t)作為目標(biāo)函數(shù),那么CHNN網(wǎng)絡(luò)和優(yōu)化問題直接對應(yīng)。這樣,大量優(yōu)化問題都可以用CHNN網(wǎng)絡(luò)來求解。這也是Hopfield網(wǎng)絡(luò)用于神經(jīng)計算的基本原因。

人工智能之Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)

CHNN與DHNN主要區(qū)別:

CHNN與DHNN的主要差別在于:CHNN神經(jīng)元激活函數(shù)使用Sigmoid函數(shù),而DHNN神經(jīng)元激活函數(shù)使用了硬極限函數(shù)。

Hopfield神經(jīng)網(wǎng)絡(luò)應(yīng)用:

Hopfield神經(jīng)網(wǎng)絡(luò)早期應(yīng)用包括按內(nèi)容尋址存儲器,模數(shù)轉(zhuǎn)換及優(yōu)化組合計算等。具有代表意義的是解決TSP問題,1985年Hopfield和Tank用Hopfield網(wǎng)絡(luò)求解N=30的TSP問題,從而創(chuàng)建了神經(jīng)網(wǎng)絡(luò)優(yōu)化的新途徑。除此之外,Hopfield 神經(jīng)網(wǎng)絡(luò)在人工智能之機器學(xué)習(xí)、聯(lián)想記憶、模式識別、優(yōu)化計算、VLSI和光學(xué)設(shè)備的并行實現(xiàn)等方面有著廣泛應(yīng)用。

人工智能之Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)

結(jié)語:

Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)是一種具有循環(huán)、遞歸特性,結(jié)合存儲和二元系統(tǒng)的神經(jīng)網(wǎng)絡(luò)。由約翰·霍普菲爾德在1982年發(fā)明。對于一個Hopfield神經(jīng)網(wǎng)絡(luò)來說,關(guān)鍵在于確定它在穩(wěn)定條件下的權(quán)系數(shù)。Hopfield神經(jīng)網(wǎng)絡(luò)分為離散型和連續(xù)型兩種,主要差別在于激活函數(shù)的不同。Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)提供了模擬人類記憶的模型。它在人工智能之機器學(xué)習(xí)、聯(lián)想記憶、模式識別、優(yōu)化計算、VLSI和光學(xué)設(shè)備的并行實現(xiàn)等方面有著廣泛應(yīng)用。

原創(chuàng)  張志榮

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號