日韩欧美自拍在线观看-欧美精品在线看片一区二区-高清性视频一区二区播放-欧美日韩女优制服另类-国产精品久久久久久av蜜臀-成人在线黄色av网站-肥臀熟妇一区二区三区-亚洲视频在线播放老色-在线成人激情自拍视频

重點(diǎn)探討人工智能領(lǐng)域的循環(huán)神經(jīng)網(wǎng)絡(luò)技術(shù)

出處:電子發(fā)燒友網(wǎng) 發(fā)布于:2018-06-25 13:54:38

前言:人工智能機(jī)器學(xué)習(xí)有關(guān)算法內(nèi)容,人工智能之機(jī)器學(xué)習(xí)主要有三大類:1)分類;2)回歸;3)聚類。今天我們重點(diǎn)探討一下循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)算法。

循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)現(xiàn)已成為國(guó)際上神經(jīng)網(wǎng)絡(luò)研究的重要對(duì)象之一。它是一種節(jié)點(diǎn)定向連接成環(huán)的人工神經(jīng)網(wǎng)絡(luò),初由Jordan,Pineda.Williams,Elman等于上世紀(jì)80年代末提出的一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)模型。

引領(lǐng)循環(huán)神經(jīng)網(wǎng)絡(luò)RNN研究的主要是JuergenSchmidhuber和他的學(xué)生——其中包括SeppHochreiter,他發(fā)現(xiàn)了高深度網(wǎng)絡(luò)所遇到的梯度消失問題,后來又發(fā)明了長(zhǎng)短期記憶(LSTM)循環(huán)網(wǎng)絡(luò);還有Alex Graves,他目前在DeepMind任職。另外兩位比較的研究者分別是:Felix Gers,他發(fā)明了LSTM遺忘門;JusTIn Bayer,他發(fā)明了可以讓LSTM拓?fù)浣Y(jié)構(gòu)根據(jù)具體問題進(jìn)行自動(dòng)演化的方法。

重點(diǎn)探討人工智能領(lǐng)域的循環(huán)神經(jīng)網(wǎng)絡(luò)技術(shù)

RNN概念:

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(Recurrent Neuronnetwork)的內(nèi)部狀態(tài)可以展示動(dòng)態(tài)時(shí)序行為。不同于前饋神經(jīng)網(wǎng)絡(luò)的是,RNN可以利用它內(nèi)部的記憶來處理任意時(shí)序的輸入序列,這讓它可以更容易處理如不分段的手寫識(shí)別、語音識(shí)別等。

循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)可以實(shí)現(xiàn)并行和序列計(jì)算,原則上可以計(jì)算任何傳統(tǒng)計(jì)算機(jī)所能計(jì)算的東西。但和傳統(tǒng)計(jì)算機(jī)不同的是,RNN與人類大腦有相似之處;人腦是一種由神經(jīng)元相互聯(lián)結(jié)組成的大型前饋網(wǎng)絡(luò),可以借由某種方式學(xué)會(huì)將長(zhǎng)達(dá)人的一生的感覺信號(hào)輸入流轉(zhuǎn)換為一個(gè)有效的運(yùn)動(dòng)輸出序列。人腦是一個(gè)杰出的模范,因?yàn)樗芙鉀Q許多計(jì)算機(jī)尚且力所不及的問題。

RNN特征:

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的本質(zhì)特征是在處理單元之間既有內(nèi)部的反饋連接又有前饋連接。從系統(tǒng)觀點(diǎn)看,它是一個(gè)反饋動(dòng)力系統(tǒng),在計(jì)算過程中體現(xiàn)過程動(dòng)態(tài)特性,比前饋神經(jīng)網(wǎng)絡(luò)具有更強(qiáng)的動(dòng)態(tài)行為和計(jì)算能力。

RNN分類:

1)完全遞歸網(wǎng)絡(luò)(Fully recurrent network)

2)Hopfield網(wǎng)絡(luò)(Hopfield network)

3)Elman networks and Jordannetworks

4)回聲狀態(tài)網(wǎng)絡(luò)(Echo state network)

5)長(zhǎng)短記憶網(wǎng)絡(luò)(Long short term memery network)

6)雙向網(wǎng)絡(luò)(Bi-direcTIonal RNN)

7)持續(xù)型網(wǎng)絡(luò)(ConTInuous-TIme RNN)

8)分層RNN(Hierarchical RNN)

9)復(fù)發(fā)性多層感知器(Recurrent multilayer perceptron)

10)二階遞歸神經(jīng)網(wǎng)絡(luò)(Second Order Recurrent Neural Network)

11)波拉克的連續(xù)的級(jí)聯(lián)網(wǎng)絡(luò)(Pollack’s sequential cascaded networks)

RNN與FNN區(qū)別:

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN和前饋神經(jīng)網(wǎng)絡(luò)FNN的區(qū)別在于有一個(gè)反饋循環(huán)。另外,兩者的記憶模式完全不同。在定型之后,前饋神經(jīng)網(wǎng)絡(luò)會(huì)生成已學(xué)習(xí)數(shù)據(jù)的靜態(tài)模型,然后接受新的樣例,進(jìn)行準(zhǔn)確的分類或聚類。而循環(huán)神經(jīng)網(wǎng)絡(luò)RNN則會(huì)生成動(dòng)態(tài)模型,即會(huì)隨時(shí)間推移而變化的模型,即將第n-1步的輸出反饋給神經(jīng)網(wǎng)絡(luò),對(duì)第n步的輸出產(chǎn)生影響,之后的每一步也都以此類推。這種變化可以讓模型依據(jù)輸入樣例的上下文來進(jìn)行準(zhǔn)確的分類。

RNN模型與記憶:

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN包含了決定同個(gè)序列中的前分類結(jié)果的隱藏狀態(tài)。以后每一步,這一隱藏狀態(tài)會(huì)與新一步的輸入數(shù)據(jù)相加,生成一個(gè)新的隱藏狀態(tài),再得出一個(gè)新的分類結(jié)果。每個(gè)隱藏狀態(tài)都會(huì)被循環(huán)利用,生成經(jīng)過調(diào)整的后續(xù)隱藏狀態(tài)。

人類的記憶模式同樣能考慮上下文,循環(huán)利用對(duì)于過往狀態(tài)的認(rèn)知來恰當(dāng)?shù)亟庾x新數(shù)據(jù)。人類會(huì)受到短期記憶和先前感覺的影響,保留了不同的“隱藏狀態(tài)”。

RNN基本結(jié)構(gòu):

RNN是一種對(duì)序列數(shù)據(jù)建模的神經(jīng)網(wǎng)絡(luò),即一個(gè)序列當(dāng)前的輸出與前面的輸出也有關(guān)。具體的表現(xiàn)形式為網(wǎng)絡(luò)會(huì)對(duì)前面的信息進(jìn)行記憶并應(yīng)用于當(dāng)前輸出的計(jì)算中,即隱藏層之間的節(jié)點(diǎn)不再無連接而是有連接的,并且隱藏層的輸入不僅包括輸入層的輸出還包括上一時(shí)刻隱藏層的輸出。下面是一個(gè)RNN模型的示例圖,其中:

xt是t時(shí)刻的輸入;

st是t時(shí)刻的隱狀態(tài)(memory),基于上一時(shí)刻的隱狀態(tài)和當(dāng)前輸入得到:st=f(Uxt+Wst?1),其中f一般是非線性的激活函數(shù),在計(jì)算s0時(shí),需要用到s?1。

ot表示t時(shí)刻的輸出,ot=softmax(Vst);

在RNN中,所有層次均共享同樣的參數(shù)。其反應(yīng)出RNN中的每一步都在做相同的事,只是輸入不同,因此大大地降低了網(wǎng)絡(luò)中需要學(xué)習(xí)的參數(shù)。

RNN允許對(duì)向量的序列進(jìn)行操作:輸入可以是序列,輸出也可以是序列,在一般化的情況下輸入輸出都可以是序列。輸出序列理解為RNN關(guān)于序列下一個(gè)狀態(tài)預(yù)測(cè)的信心程度。

RNN參數(shù)訓(xùn)練:

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的參數(shù)訓(xùn)練可以通過隨時(shí)間進(jìn)行反向傳播(Back propagation Through Time,BPTT)算法,BPTT算法是針對(duì)循環(huán)層的訓(xùn)練算法,包含三個(gè)步驟:

1)前向計(jì)算每個(gè)神經(jīng)元的輸出值;

2)反向計(jì)算每個(gè)神經(jīng)元的誤差項(xiàng)值,它是誤差函數(shù)E對(duì)神經(jīng)元j的加權(quán)輸入的偏導(dǎo)數(shù);

3)計(jì)算每個(gè)權(quán)重的梯度,再用隨機(jī)梯度下降算法更新權(quán)重。

RNN優(yōu)點(diǎn):

1)分布式表達(dá);

2)能在序列預(yù)測(cè)中明確地學(xué)習(xí)和利用背景信息;

3)具有長(zhǎng)時(shí)間范圍內(nèi)學(xué)習(xí)和執(zhí)行數(shù)據(jù)的復(fù)雜轉(zhuǎn)換能力。

RNN缺點(diǎn):

1)會(huì)造成梯度消失問題;

2)會(huì)造成梯度爆炸問題;

RNN改進(jìn)方案:

1)選擇其他的激活函數(shù),比如ReLU;

2)引入改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)的機(jī)制,比如LSTM,GRU;

3)自然語音處理上應(yīng)用十分廣的就是LSTM。

RNN應(yīng)用場(chǎng)景:

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN是一類功能強(qiáng)大的人工神經(jīng)網(wǎng)絡(luò)算法,特別適用于處理聲音、時(shí)間序列(傳感器)數(shù)據(jù)或書面自然語言等序列數(shù)據(jù)。DeepMind在自動(dòng)代理玩游戲的研究中就使用了一種循環(huán)網(wǎng)絡(luò)。

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN也適用于聚類和異常狀態(tài)檢測(cè)??梢詰?yīng)用于可穿戴式設(shè)備生成的醫(yī)療保健數(shù)據(jù)、恒溫器等智能設(shè)備生成的家居環(huán)境數(shù)據(jù)、股票及指數(shù)變動(dòng)生成的市場(chǎng)數(shù)據(jù)、賬戶交易活動(dòng)生成的個(gè)人財(cái)務(wù)數(shù)據(jù)(可用于檢測(cè)欺詐或洗錢行為)等。

目前,循環(huán)神經(jīng)網(wǎng)絡(luò)RNN在自然語言處理、機(jī)器翻譯、圖像識(shí)別、語音識(shí)別等領(lǐng)域迅速得到大量應(yīng)用。

RNN已在實(shí)踐中證明對(duì)自然語言處理是非常成功的,如詞向量表達(dá)、語句合法性檢查、詞性標(biāo)注等。

結(jié)語:

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN是一類功能強(qiáng)大的人工神經(jīng)網(wǎng)絡(luò)算法,其模型是目前人工神經(jīng)網(wǎng)絡(luò)應(yīng)用中為廣泛的一類模型。特別適用于處理聲音、時(shí)間序列(傳感器)數(shù)據(jù)或書面自然語言等序列數(shù)據(jù)。DeepMind在自動(dòng)代理玩游戲的研究中就使用了一種循環(huán)網(wǎng)絡(luò)。RNN算法在人工智能之機(jī)器學(xué)習(xí)、自然語言處理、機(jī)器翻譯、圖像識(shí)別、語音識(shí)別、時(shí)間序列數(shù)據(jù)、股票交易數(shù)據(jù)和氣象觀測(cè)數(shù)據(jù)等領(lǐng)域有著廣泛應(yīng)用。

關(guān)鍵詞:人工智能,機(jī)器學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)

版權(quán)與免責(zé)聲明

凡本網(wǎng)注明“出處:維庫(kù)電子市場(chǎng)網(wǎng)”的所有作品,版權(quán)均屬于維庫(kù)電子市場(chǎng)網(wǎng),轉(zhuǎn)載請(qǐng)必須注明維庫(kù)電子市場(chǎng)網(wǎng),http://www.hbjingang.com,違反者本網(wǎng)將追究相關(guān)法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明自其它出處的作品,目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點(diǎn)或證實(shí)其內(nèi)容的真實(shí)性,不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。其他媒體、網(wǎng)站或個(gè)人從本網(wǎng)轉(zhuǎn)載時(shí),必須保留本網(wǎng)注明的作品出處,并自負(fù)版權(quán)等法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問題,請(qǐng)?jiān)谧髌钒l(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

廣告
OEM清單文件: OEM清單文件
*公司名:
*聯(lián)系人:
*手機(jī)號(hào)碼:
QQ:
有效期:

掃碼下載APP,
一鍵連接廣大的電子世界。

在線人工客服

買家服務(wù):
賣家服務(wù):
技術(shù)客服:

0571-85317607

網(wǎng)站技術(shù)支持

13606545031

客服在線時(shí)間周一至周五
9:00-17:30

關(guān)注官方微信號(hào),
第一時(shí)間獲取資訊。

建議反饋

聯(lián)系人:

聯(lián)系方式:

按住滑塊,拖拽到最右邊
>>
感謝您向阿庫(kù)提出的寶貴意見,您的參與是維庫(kù)提升服務(wù)的動(dòng)力!意見一經(jīng)采納,將有感恩紅包奉上哦!