成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

利用神經網絡算法的C#手寫數字識別

人工智能 深度學習 算法
我決定用C#重新寫一下我的一些程序。我的程序已經取得了良好的效果,但還并不優秀(在收斂速度,錯誤率等方面)。

下載Demo -  2.77 MB (原始地址)

handwritten_character_recognition.zip

下載源碼 -  70.64 KB (原始地址)

nnhandwrittencharreccssource.zip

介紹

這是一篇基于Mike O'Neill 寫的一篇很棒的文章:神經網絡的手寫字符識別(Neural Network for Recognition of Handwritten Digits)而給出的一個人工神經網絡實現手寫字符識別的例子。盡管在過去幾年已經有許多系統和分類算法被提出,但是手寫識別任然是模式識別中的一項挑戰。Mike O'Neill的程序對想學習通過神經網絡算法實現一般手寫識別的程序員來說是一個極好的例子,尤其是在神經網絡的卷積部分。那個程序是用MFC/ C++編寫的,對于不熟悉的人來說有些困難。所以,我決定用C#重新寫一下我的一些程序。我的程序已經取得了良好的效果,但還并不優秀(在收斂速度,錯誤率等方面)。但這次僅僅是程序的基礎,目的是幫助理解神經網絡,所以它比較混亂,有重構的必要。我一直在試把它作為一個庫的方式重建,那將會很靈活,很簡單地通過一個INI文件來改變參數。希望有一天我能取得預期的效果。

字符檢測

模式檢測和字符候選檢測是我在程序中必須面對的最重要的問題之一。事實上,我不僅僅想利用另一種編程語言重新完成Mike的程序,而且我還想識別文檔圖片中的字符。有一些研究提出了我在互聯網上發現的非常好的目標檢測算法,但是對于像我這樣的業余項目來說,它們太復雜了。在教我女兒繪畫時發現的一個方法解決了這個問題。當然,它仍然有局限性,但在***次測試中就超出了我的預期。在正常情況下,字符候選檢測分為行檢測,字檢測和字符檢測幾種,分別采用不同的算法。我的做法和這有一點點不同。檢測使用相同的算法:

  1. public static Rectangle GetPatternRectangeBoundary 
  2.     (Bitmap original,int colorIndex, int hStep, int vStep, bool bTopStart)  

以及:

  1. public static List<Rectangle> PatternRectangeBoundaryList 
  2.     (Bitmap original, int colorIndex, int hStep, int vStep,  
  3.     bool bTopStart,int widthMin,int heightMin) 

通過改變參數hStep (水平步進)和vStep (垂直步進)可以簡單地檢測行,字或字符。矩形邊界也可以通過更改bTopStart 為true 或false實現從上到下和從左到右不同方式進行檢測。矩形被widthMin 和d限制。我的算法的***優點是:它可以檢測不在同一行的字或字符串。

字符候選識別可以通過以下方法實現:

  1. public void PatternRecognitionThread(Bitmap bitmap) 
  2.      { 
  3.          _originalBitmap = bitmap; 
  4.          if (_rowList == null
  5.          { 
  6.              _rowList = AForge.Imaging.Image.PatternRectangeBoundaryList 
  7.      (_originalBitmap,255, 30, 1, true, 5, 5); 
  8.              _irowIndex = 0; 
  9.  
  10.          } 
  11.          foreach(Rectangle rowRect in _rowList) 
  12.          { 
  13.              _currentRow = AForge.Imaging.ImageResize.ImageCrop 
  14.      (_originalBitmap, rowRect); 
  15.              if (_iwordIndex == 0) 
  16.              { 
  17.                  _currentWordsList = AForge.Imaging.Image.PatternRectangeBoundaryList 
  18.          (_currentRow, 255, 20, 10, false, 5, 5); 
  19.              } 
  20.  
  21.              foreach (Rectangle wordRect in _currentWordsList) 
  22.              { 
  23.                  _currentWord = AForge.Imaging.ImageResize.ImageCrop 
  24.          (_currentRow, wordRect); 
  25.                 _iwordIndex++; 
  26.                  if (_icharIndex == 0) 
  27.                  { 
  28.                      _currentCharsList = 
  29.          AForge.Imaging.Image.PatternRectangeBoundaryList 
  30.          (_currentWord, 255, 1, 1, false, 5, 5); 
  31.                  } 
  32.  
  33.                  foreach (Rectangle charRect in _currentCharsList) 
  34.                  { 
  35.                      _currentChar = AForge.Imaging.ImageResize.ImageCrop 
  36.          (_currentWord, charRect); 
  37.                     _icharIndex++; 
  38.                      Bitmap bmptemp = AForge.Imaging.ImageResize.FixedSize 
  39.          (_currentChar, 21, 21); 
  40.                      bmptemp = AForge.Imaging.Image.CreateColorPad 
  41.          (bmptemp,Color.White, 4, 4); 
  42.                      bmptemp = AForge.Imaging.Image.CreateIndexedGrayScaleBitmap 
  43.              (bmptemp); 
  44.                      byte[] graybytes = AForge.Imaging.Image.GrayscaletoBytes(bmptemp); 
  45.                      PatternRecognitionThread(graybytes); 
  46.                      m_bitmaps.Add(bmptemp); 
  47.                  } 
  48.                  string s = " \n"
  49.                  _form.Invoke(_form._DelegateAddObject, new Object[] { 1, s }); 
  50.                        If(_icharIndex ==_currentCharsList.Count
  51.                        { 
  52.                        _icharIndex =0; 
  53.                        } 
  54.               } 
  55.               If(_iwordIndex==__currentWordsList.Count
  56.               { 
  57.                        _iwordIndex=0; 
  58.               } 
  59.          } 

字符識別

原程序中的卷積神經網絡(CNN)包括輸入層在內本質上是有五層。卷積體系結構的細節已經在Mike和Simard博士在他們的文章《應用于視覺文件分析的卷積神經網絡的***實踐》中描述過了。這種卷積網絡的總體方案是用較高的分辨率去提取簡單的特征,然后以較低的分辨率將它們轉換成復雜的特征。生成較低分辨的最簡單方法是對子層進行二倍二次采樣。這反過來又為卷積核的大小提供了參考。核的寬度以一個單位(奇數大?。橹行谋贿x定,需要足夠的重疊從而不丟失信息(對于一個單位3重疊顯得過?。?,同時不至于冗余(7重疊將會過大,5重疊能實現超過70%的重疊)。因此,在這個網絡中我選擇大小為5的卷積核。填充輸入(調整到更大以實現特征單元居中在邊界上)并不能顯著提高性能。所以不填充,內核大小設定為5進行二次采樣,每個卷積層將特征尺寸從n減小到(n-3)/2。由于在MNIST的初始輸入的圖像大小為28x28,所以在二次卷積后產生整數大小的近似值是29x29。經過兩層卷積之后,5x5的特征尺寸對于第三層卷積而言太小。Simard博士還強調,如果***層的特征少于五個,則會降低性能,然而使用超過5個并不能改善(Mike使用了6個)。類似地,在第二層上,少于50個特征會降低性能,而更多(100個特征)沒有改善。關于神經網絡的總結如下:

#0層:是MNIST數據庫中手寫字符的灰度圖像,填充到29x29像素。輸入層有29x29 = 841個神經元。

#1層:是一個具有6個特征映射的卷積層。從層#1到前一層有13×13×6 = 1014個神經元,(5×5 + 1)×6 = 156個權重,以及1014×26 = 26364個連接。

#2層:是一個具有五十(50)個特征映射的卷積層。從#2層到前一層有5x5x50 = 1250個神經元,(5x5 + 1)x6x50 = 7800個權重,以及1250x(5x5x6 + 1)= 188750個連接。

(在Mike的文章中不是有32500個連接)。 

#3層:是一個100個單元的完全連接層。有100個神經元,100x(1250 + 1)= 125100權重,和100x1251 = 125100連接。

#4層:是***的,有10個神經元,10×(100 + 1)= 1010個權重,以及10×10 1 = 1010個連接。

反向傳播

反向傳播是更新每個層權重變化的過程,從***一層開始,向前移動直到達到***個層。

在標準的反向傳播中,每個權重根據以下公式更新: 

(1)

其中eta是“學習率”,通常是類似0.0005這樣的小數字,在訓練過程中會逐漸減少。但是,由于收斂速度慢,標準的反向傳播在程序中不需要使用。相反,LeCun博士在他的文章《Efficient BackProp》中提出的稱為“隨機對角列文伯格-馬夸爾特法(Levenberg-Marquardt)”的二階技術已得到應用,盡管Mike說它與標準的反向傳播并不相同,理論應該幫助像我這樣的新人更容易理解代碼。

在Levenberg-Marquardt方法中,rw 計算如下:

假設平方代價函數是:

那么梯度是:

而Hessian遵循如下規則:

Hessian矩陣的簡化近似為Jacobian矩陣,它是一個維數為N×O的半矩陣。

用于計算神經網絡中的Hessian矩陣對角線的反向傳播過程是眾所周知的。假設網絡中的每一層都有:

(7)

使用Gaus-Neuton近似(刪除包含|'(y))的項,我們得到:

(8)

(9)

以及:

隨機對角列文伯格-馬夸爾特(Levenberg-Marquardt)法

事實上,使用完整Hessian矩陣信息(Levenberg-Marquardt,Gaus-Newton等)的技術只能應用于以批處理模式訓練的非常小的網絡,而不能用于隨機模式。為了獲得Levenberg- Marquardt算法的隨機模式,LeCun博士提出了通過關于每個參數的二階導數的運算估計來計算Hessian對角線的思想。瞬時二階導數可以通過反向傳播獲得,如公式(7,8,9)所示。只要我們利用這些運算估計,可以用它們來計算每個參數各自的學習率:

其中e是全局學習速率,并且

是關于h ki的對角線二階導數的運算估計。m是防止h ki在二階導數較小的情況下(即優化在誤差函數的平坦部分移動時)的參數??梢栽谟柧毤囊粋€子集(500隨機化模式/ 60000訓練集的模式)中計算二階導數。由于它們變化非常緩慢,所以只需要每隔幾個周期重新估計一次。在原來的程序中,對角線Hessian是每個周期都重新估算的。

這里是C#中的二階導數計算函數:

  1. public void BackpropagateSecondDerivatives(DErrorsList d2Err_wrt_dXn /* in */, 
  2.                                                     DErrorsList d2Err_wrt_dXnm1 /* out */) 
  3.     // 命名(從NeuralNetwork類繼承) 
  4.     // 注意:盡管我們正在處理二階導數(而不是一階), 
  5.     // 但是我們使用幾乎相同的符號,就好像有一階導數 
  6.     // 一樣,否則ASCII的顯示會令人誤解。 我們添加一 
  7.     // 個“2”而不是兩個“2”,比如“d2Err_wrt_dXn”,以簡 
  8.     // 單地強調我們使用二階導數 
  9.     // 
  10.     // Err是整個神經網絡的輸出誤差 
  11.     // Xn是第n層上的輸出向量 
  12.     // Xnm1是前一層的輸出向量 
  13.     // Wn是第n層權重的向量 
  14.     // Yn是第n層的激活值, 
  15.     // 即,應用擠壓功能之前的輸入的加權和 
  16.     // F是擠壓函數:Xn = F(Yn) 
  17.     // F'是擠壓函數的導數 
  18.     // 簡單說,對于F = tanh,則F'(Yn)= 1-Xn ^ 2,即, 
  19.     // 可以從輸出中計算出導數,而不需要知道輸入 
  20.   
  21.     int ii, jj; 
  22.     uint kk; 
  23.     int nIndex; 
  24.     double output
  25.     double dTemp; 
  26.   
  27.     var d2Err_wrt_dYn = new DErrorsList(m_Neurons.Count); 
  28.     // 
  29.     // std::vector< double > d2Err_wrt_dWn( m_Weights.size(), 0.0 ); 
  30.     // important to initialize to zero 
  31.     ////////////////////////////////////////////////// 
  32.     // 
  33.     ///// 設計 TRADEOFF: REVIEW !! 
  34.     // 
  35.     // 請注意,此命名的方案與NNLayer :: Backpropagate() 
  36.     // 函數中的推理相同,即從該函數派生的 
  37.     // BackpropagateSecondDerivatives()函數 
  38.     // 
  39.     // 我們希望對數組“d2Err_wrt_dWn”使用STL向量(為了便于編碼) 
  40.     // ,這是圖層中當前模式的錯誤權重的二階微分。 但是,對于 
  41.     // 具有許多權重的層(例如完全連接的層),也有許多權重。 分 
  42.     // 配大內存塊時,STL向量類的分配器非常愚蠢,并導致大量的頁 
  43.     // 面錯誤,從而導致應用程序總體執行時間減慢。 
  44.   
  45.     // 為了解決這個問題,我嘗試使用一個普通的C數組, 
  46.     // 并從堆中取出所需的空間,并在函數結尾處刪除[]。 
  47.     // 但是,這會導致相同數量的頁面錯誤錯誤,并 
  48.     // 且不會提高性能。 
  49.   
  50.     // 所以我試著在棧上分配一個普通的C數組(即不是堆)。 
  51.     // 當然,我不能寫double d2Err_wrt_dWn [m_Weights.size()]; 
  52.     // 因為編譯器堅持一個編譯時間為數組大小的已知恒定值。 
  53.     // 為了避免這個需求,我使用_alloca函數來分配堆棧上的內存。 
  54.     // 這樣做的缺點是堆棧使用過多,可能會出現堆棧溢出問題。 
  55.     // 這就是為什么將它命名為“Review” 
  56.  
  57.   
  58.     double[] d2Err_wrt_dWn = new double[m_Weights.Count]; 
  59.     for (ii = 0; ii < m_Weights.Count; ++ii) 
  60.     { 
  61.         d2Err_wrt_dWn[ii] = 0.0; 
  62.     } 
  63.     // 計算 d2Err_wrt_dYn = ( F'(Yn) )^2 * 
  64.     //    dErr_wrt_Xn (其中dErr_wrt_Xn實際上是二階導數) 
  65.   
  66.     for (ii = 0; ii < m_Neurons.Count; ++ii) 
  67.     { 
  68.         output = m_Neurons[ii].output
  69.         dTemp = m_sigmoid.DSIGMOID(output); 
  70.         d2Err_wrt_dYn.Add(d2Err_wrt_dXn[ii] * dTemp * dTemp); 
  71.     } 
  72.     // 計算d2Err_wrt_Wn =(Xnm1)^ 2 * d2Err_wrt_Yn 
  73.     // (其中dE2rr_wrt_Yn實際上是二階導數) 
  74.     // 對于這個層中的每個神經元,通過先前層的連接 
  75.     // 列表,并更新相應權重的差分 
  76.   
  77.     ii = 0; 
  78.     foreach (NNNeuron nit in m_Neurons) 
  79.     { 
  80.         foreach (NNConnection cit in nit.m_Connections) 
  81.         { 
  82.             try 
  83.             { 
  84.                  kk = (uint)cit.NeuronIndex; 
  85.                 if (kk == 0xffffffff) 
  86.                 { 
  87.                     output = 1.0; 
  88.                     // 這是隱含的聯系; 隱含的神經元輸出“1” 
  89.                 } 
  90.                 else 
  91.                 { 
  92.                     output = m_pPrevLayer.m_Neurons[(int)kk].output
  93.                 } 
  94.   
  95.                 //  ASSERT( (*cit).WeightIndex < d2Err_wrt_dWn.size() ); 
  96.                 //  因為在將d2Err_wrt_dWn更改為C風格的 
  97.                 //  數組之后,size()函數將不起作用 
  98.  
  99.                 d2Err_wrt_dWn[cit.WeightIndex] = d2Err_wrt_dYn[ii] * output * output
  100.             } 
  101.             catch (Exception ex) 
  102.             { 
  103.   
  104.            } 
  105.         } 
  106.   
  107.         ii++; 
  108.     } 
  109.     // 計算d2Err_wrt_Xnm1 =(Wn)^ 2 * d2Err_wrt_dYn 
  110.     // (其中d2Err_wrt_dYn是不是***個二階導數)。 
  111.     // 需要d2Err_wrt_Xnm1作為d2Err_wrt_Xn的 
  112.     // 二階導數反向傳播的輸入值 
  113.     // 對于下一個(即先前的空間)層 
  114.     // 對于這個層中的每個神經元 
  115.   
  116.     ii = 0; 
  117.     foreach (NNNeuron nit in m_Neurons) 
  118.     { 
  119.         foreach (NNConnection cit in nit.m_Connections) 
  120.         { 
  121.             try 
  122.             { 
  123.                 kk = cit.NeuronIndex; 
  124.                 if (kk != 0xffffffff) 
  125.                 { 
  126.         // 我們排除了ULONG_MAX,它表示具有恒定輸出“1”的 
  127.         // 虛偏置神經元,因為我們不能正真訓練偏置神經元 
  128.   
  129.                     nIndex = (int)kk; 
  130.                     dTemp = m_Weights[(int)cit.WeightIndex].value; 
  131.                     d2Err_wrt_dXnm1[nIndex] += d2Err_wrt_dYn[ii] * dTemp * dTemp; 
  132.                 } 
  133.             } 
  134.             catch (Exception ex) 
  135.             { 
  136.                 return
  137.             } 
  138.         } 
  139.   
  140.         ii++;  // ii 跟蹤神經元迭代器 
  141.     } 
  142.     double oldValue, newValue; 
  143.   
  144.     // ***,使用dErr_wrt_dW更新對角線的層 
  145.     // 神經元的權重。通過設計,這個函數 
  146.     // 以及它對許多(約500個模式)的迭代被 
  147.     // 調用,而單個線程已經鎖定了神經網絡, 
  148.     // 所以另一個線程不可能改變Hessian的值。 
  149.     // 不過,由于這很容易做到,所以我們使用一 
  150.     // 個原子比較交換操作,這意味著另一個線程 
  151.     // 可能在二階導數的反向傳播過程中,而且Hessians 
  152.     // 可能會稍微移動 
  153.   
  154.     for (jj = 0; jj < m_Weights.Count; ++jj) 
  155.     { 
  156.         oldValue = m_Weights[jj].diagHessian; 
  157.         newValue = oldValue + d2Err_wrt_dWn[jj]; 
  158.         m_Weights[jj].diagHessian = newValue; 
  159.     } 
  160. ////////////////////////////////////////////////////////////////// 

訓練和實驗

盡管MFC / C ++和C#之間存不兼容,但是我的程序與原程序相似。使用MNIST數據庫,網絡在60,000個訓練集模式中執行后有291次錯誤識別。這意味著錯誤率只有0.485%。然而,在10000個模式中,有136個錯誤識別,錯誤率為1.36%。結果并不像基礎測試那么好,但對我來說,用我自己的手寫字符集做實驗已經足夠了。首先將輸入的圖像從上到下分為字符組,然后在每組中把字符從左到右進行檢測,調整到29x29像素,然后由神經網絡系統識別。該方案滿足我的基本要求,我自己的手寫數字是可以被正確識別的。在AForge.Net的圖像處理庫中添加了檢測功能,以便使用。但是,因為它只是在我的業余時間編程,我相信它有很多的缺陷需要修復。反向傳播時間就是一個例子。每個周期使用大約3800秒的訓練時間,但是只需要2400秒。(我的電腦使用了英特爾奔騰雙核E6500處理器)。與Mike的程序相比,速度相當慢。我也希望能有一個更好的手寫字符數據庫,或者與其他人合作,繼續我的實驗,使用我的算法開發一個真正的應用程序。

原文鏈接:https://www.codeproject.com/Articles/143059/Neural-Network-for-Recognition-of-Handwritten-Di

作者:Vietdungiitb

【本文是51CTO專欄作者“云加社區”的原創稿件,轉載請通過51CTO聯系原作者獲取授權】

戳這里,看該作者更多好文

 

責任編輯:武曉燕 來源: 51CTO專欄
相關推薦

2017-12-28 14:44:42

Python人工智能神經網絡

2018-04-03 11:20:00

深度學習

2022-10-11 23:35:28

神經網絡VGGNetAlexNet

2017-11-30 18:05:18

2021-11-12 15:41:42

LSTM神經網絡人工智能

2022-10-19 07:42:41

圖像識別神經網絡

2020-09-09 10:20:48

GraphSAGE神經網絡人工智能

2018-04-08 11:20:43

深度學習

2022-06-16 10:29:33

神經網絡圖像分類算法

2018-07-29 15:27:04

AI訓練光速運算人工智能

2017-04-26 09:30:53

卷積神經網絡實戰

2020-08-20 07:00:00

深度學習人工智能技術

2024-09-12 08:28:32

2024-10-17 13:05:35

神經網絡算法機器學習深度學習

2018-04-03 14:42:46

Python神經網絡深度學習

2018-07-03 16:10:04

神經網絡生物神經網絡人工神經網絡

2009-08-21 17:02:31

C#編寫數字轉換中文算

2025-03-03 08:10:00

神經網絡深度學習人工智能

2018-02-05 08:58:36

Python神經網絡識別圖像

2017-09-08 13:30:32

深度學習圖像識別卷積神經網絡
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 免费在线播放黄色 | h视频免费在线观看 | 亚洲欧美日韩精品久久亚洲区 | 久久99精品久久久久久青青日本 | 日日天天 | 久久久精品一区 | 国产精品国产a级 | 亚洲高清一区二区三区 | 日韩免费一区二区 | 青青草在线播放 | 宅男噜噜噜66一区二区 | 欧美日韩精品专区 | 亚洲国产成人精品一区二区 | 欧美操操操 | 99热国产免费 | 精品久久久久久久久久久久 | 日韩电影中文字幕在线观看 | 色毛片 | 五月婷婷丁香 | dy天堂| 久久中文免费视频 | 影音先锋中文字幕在线观看 | 伊人网一区 | 日本成人片在线观看 | 羞羞视频免费在线 | 亚洲区中文字幕 | 国产一二区在线 | 玖玖视频免费 | 鸡毛片| 亚洲精品乱码久久久久久9色 | 一级毛片视频免费观看 | 久久亚洲国产精品 | 国产高清性xxxxxxxx | 精品无码久久久久久国产 | 国产在线观看一区二区三区 | 国产成人久久精品一区二区三区 | 在线欧美视频 | h片在线播放 | 日韩精品在线一区 | 一级毛片在线播放 | 99久久久久久99国产精品免 |