人工智能之卷積神經(jīng)網(wǎng)絡(luò)(CNN)
前言:人工智能機器學習有關(guān)算法內(nèi)容,請參見公眾號“科技優(yōu)化生活”之前相關(guān)文章。人工智能之機器學習主要有三大類:1)分類;2)回歸;3)聚類。今天我們重點探討一下卷積神經(jīng)網(wǎng)絡(luò)(CNN)算法。
20世紀60年代,Hubel和Wiesel在研究貓腦皮層中用于局部敏感和方向選擇的神經(jīng)元時發(fā)現(xiàn)其獨特的網(wǎng)絡(luò)結(jié)構(gòu)可以有效地降低反饋神經(jīng)網(wǎng)絡(luò)的復雜性,繼而提出了卷積神經(jīng)網(wǎng)絡(luò)CNN(Convolutional Neural Networks)。
1980年,K.Fukushima提出的新識別機是卷積神經(jīng)網(wǎng)絡(luò)的第一個實現(xiàn)網(wǎng)絡(luò)。隨后,更多的科研工作者對該網(wǎng)絡(luò)進行了改進。其中,具有代表性的研究成果是Alexander和Taylor提出的“改進認知機”,該方法綜合了各種改進方法的優(yōu)點并避免了耗時的誤差反向傳播。
現(xiàn)在,CNN已經(jīng)成為眾多科學領(lǐng)域的研究熱點之一,特別是在模式分類領(lǐng)域,由于該網(wǎng)絡(luò)避免了對圖像的復雜前期預處理,可以直接輸入原始圖像,因而得到了更為廣泛的應用。
CNN概念:
在機器學習中,卷積神經(jīng)網(wǎng)絡(luò)CNN(Convolutional Neural Network)是一種前饋神經(jīng)網(wǎng)絡(luò),它的人工神經(jīng)元可以響應一部分覆蓋范圍內(nèi)的周圍單元,可以應用于語音識別、圖像處理和圖像識別等領(lǐng)域。
CNN引入意義:
在全連接神經(jīng)網(wǎng)絡(luò)中(下面左圖),每相鄰兩層之間的每個神經(jīng)元之間都是有邊相連的。當輸入層的特征維度變得很高時,這時全連接網(wǎng)絡(luò)需要訓練的參數(shù)就會增大很多,計算速度就會變得很慢。
而在卷積神經(jīng)網(wǎng)絡(luò)CNN中(下面右圖),卷積層的神經(jīng)元只與前一層的部分神經(jīng)元節(jié)點相連,即它的神經(jīng)元間的連接是非全連接的,且同一層中某些神經(jīng)元之間的連接的權(quán)重w和偏移b是共享的,這樣大量地減少了需要訓練參數(shù)的數(shù)量。
CNN核心思想:
CNN模型限制參數(shù)了個數(shù)并挖掘了局部結(jié)構(gòu)。主要用來識別位移、縮放及其他形式扭曲不變性的二維圖形。局部感受視野,權(quán)值共享以及時間或空間亞采樣這三種思想結(jié)合起來,獲得了某種程度的位移、尺度、形變不變性。通過“卷積核”作為中介。同一個卷積核在所有圖像內(nèi)是共享的,圖像通過卷積操作后仍然保留原先的位置關(guān)系。
CNN實質(zhì):
CNN在本質(zhì)上是一種輸入到輸出的映射,它能夠學習大量的輸入與輸出之間的映射關(guān)系,而不需要任何輸入和輸出之間的精確的數(shù)學表達式,只要用已知的模式對卷積網(wǎng)絡(luò)加以訓練,網(wǎng)絡(luò)就具有輸入輸出對之間的映射能力。卷積網(wǎng)絡(luò)執(zhí)行的是有導師訓練,所以其樣本集是由形如:(輸入向量,理想輸出向量)的向量對構(gòu)成的。所有這些向量對,都應該是來源于網(wǎng)絡(luò)即將模擬的系統(tǒng)的實際“運行”結(jié)果。它們可以是從實際運行系統(tǒng)中采集來的。在開始訓練前,所有的權(quán)都應該用一些不同的小隨機數(shù)進行初始化!靶‰S機數(shù)”用來保證網(wǎng)絡(luò)不會因權(quán)值過大而進入飽和狀態(tài)而導致訓練失敗;“不同”用來保證網(wǎng)絡(luò)可以正常地學習。
CNN基本結(jié)構(gòu):
卷積神經(jīng)網(wǎng)絡(luò)CNN的結(jié)構(gòu)一般包含下面幾層:
1) 輸入層:用于數(shù)據(jù)的輸入。
2) 卷積層:卷積層是卷積核在上一級輸入層上通過逐一滑動窗口計算而得,卷積核中的每一個參數(shù)都相當于傳統(tǒng)神經(jīng)網(wǎng)絡(luò)中的權(quán)值參數(shù),與對應的局部像素相連接,將卷積核的各個參數(shù)與對應的局部像素值相乘之和,得到卷積層上的結(jié)果。一般地,使用卷積核進行特征提取和特征映射。
l 特征提取:每個神經(jīng)元的輸入與前一層的局部接受域相連,并提取該局部的特征。一旦該局部特征被提取后,它與其它特征間的位置關(guān)系也隨之確定下來;
l 特征映射:網(wǎng)絡(luò)的每個計算層由多個特征映射組成,每個特征映射是一個平面,平面上所有神經(jīng)元的權(quán)值相等。特征映射結(jié)構(gòu)采用影響函數(shù)核小的sigmoid函數(shù)作為卷積網(wǎng)絡(luò)的激活函數(shù),使得特征映射具有位移不變性。此外,由于一個映射面上的神經(jīng)元共享權(quán)值,因而減少了網(wǎng)絡(luò)自由參數(shù)的個數(shù)。
卷積神經(jīng)網(wǎng)絡(luò)中的每一個卷積層都緊跟著一個用來求局部平均與二次提取的計算層,這種特有的兩次特征提取結(jié)構(gòu)減小了特征分辨率。
3) 激勵層:由于卷積也是一種線性運算,因此需要增加非線性映射。使用的激勵函數(shù)一般為ReLu函數(shù):f(x)=max(x,0)。
4) 池化層:進行下采樣,對特征圖稀疏處理,減少數(shù)據(jù)運算量。通過卷積層獲得了圖像的特征之后,理論上可以直接使用這些特征訓練分類器(如softmax),但這樣做將面臨巨大的計算量挑戰(zhàn),且容易產(chǎn)生過擬合現(xiàn)象。為了進一步降低網(wǎng)絡(luò)訓練參數(shù)及模型的過擬合程度,需要對卷積層進行池化/采樣(Pooling)處理。池化/采樣的方式通常有以下兩種:a)Max-Pooling: 選擇Pooling窗口中的最大值作為采樣值;b)Mean-Pooling: 將Pooling窗口中的所有值相加取平均,以平均值作為采樣值。
5) 全連接層:CNN尾部進行重新擬合,減少特征信息的損失。
6) 輸出層:用于最后輸出結(jié)果。
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
即日-11.13立即報名>>> 【在線會議】多物理場仿真助跑新能源汽車
-
11月28日立即報名>>> 2024工程師系列—工業(yè)電子技術(shù)在線會議
-
12月19日立即報名>> 【線下會議】OFweek 2024(第九屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會
-
即日-12.26火熱報名中>> OFweek2024中國智造CIO在線峰會
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍皮書》
-
精彩回顧立即查看>> 【限時免費下載】TE暖通空調(diào)系統(tǒng)高效可靠的組件解決方案
推薦專題
-
5 夾縫中的文遠知行
- 高級軟件工程師 廣東省/深圳市
- 自動化高級工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級銷售經(jīng)理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術(shù)專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結(jié)構(gòu)工程師 廣東省/深圳市