成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

一個單層的基礎神經網絡實現手寫字識別

開發 后端 人工智能
這篇文章是我根據個人的一些理解來寫的,后續如果發現有錯誤,我會在新文章說出來,但這篇文章不做保留,方便后續檢查思考記錄的時候知道到底怎么踩坑的。

[[214992]] 


先上代碼 

  1. import tensorflow 
  2.  
  3. from tensorflow.examples.tutorials.mnist import input_data 
  4.  
  5. import matplotlib.pyplot as plt 
  6.  
  7.  
  8.  
  9. # 普通的神經網絡學習 
  10.  
  11. # 學習訓練類 
  12.  
  13. class Normal: 
  14.  
  15.  
  16.  
  17.     weight = [] 
  18.  
  19.     biases = [] 
  20.  
  21.  
  22.  
  23.     def __init__(self): 
  24.  
  25.         self.times = 1000 
  26.  
  27.         self.mnist = [] 
  28.  
  29.         self.session = tensorflow.Session() 
  30.  
  31.         self.xs = tensorflow.placeholder(tensorflow.float32, [None, 784]) 
  32.  
  33.         self.ys = tensorflow.placeholder(tensorflow.float32, [None, 10]) 
  34.  
  35.         self.save_path = 'learn/result/normal.ckpt' 
  36.  
  37.  
  38.  
  39.     def run(self): 
  40.  
  41.         self.import_data() 
  42.  
  43.         self.train() 
  44.  
  45.         self.save() 
  46.  
  47.  
  48.  
  49.     def _setWeight(self,weight): 
  50.  
  51.         self.weight = weight 
  52.  
  53.  
  54.  
  55.     def _setBiases(self,biases): 
  56.  
  57.         self.biases = biases 
  58.  
  59.  
  60.  
  61.     def _getWeight(self): 
  62.  
  63.         return self.weight 
  64.  
  65.  
  66.  
  67.     def _getBiases(self): 
  68.  
  69.         return self.biases 
  70.  
  71.     # 訓練 
  72.  
  73.     def train(self): 
  74.  
  75.  
  76.  
  77.         prediction = self.add_layer(self.xs, 784, 10, activation_function=tensorflow.nn.softmax) 
  78.  
  79.  
  80.  
  81.         cross_entropy = tensorflow.reduce_mean( 
  82.  
  83.             -tensorflow.reduce_sum( 
  84.  
  85.                 self.ys * tensorflow.log(prediction) 
  86.  
  87.                 , reduction_indices=[1]) 
  88.  
  89.         ) 
  90.  
  91.         train_step = tensorflow.train.GradientDescentOptimizer(0.5).minimize(cross_entropy) 
  92.  
  93.  
  94.  
  95.         self.session.run(tensorflow.global_variables_initializer()) 
  96.  
  97.  
  98.  
  99.         for i in range(self.times): 
  100.  
  101.             batch_xs, batch_ys = self.mnist.train.next_batch(100) 
  102.  
  103.             self.session.run(train_step, feed_dict={self.xs: batch_xs, self.ys: batch_ys}) 
  104.  
  105.             if i % 50 == 0: 
  106.  
  107.                 # images 變換為 labels,images相當于x,labels相當于y 
  108.  
  109.                 accurary = self.computer_accurary( 
  110.  
  111.                     self.mnist.test.images, 
  112.  
  113.                     self.mnist.test.labels, 
  114.  
  115.                     prediction 
  116.  
  117.                 ) 
  118.  
  119.  
  120.  
  121.     # 數據導入 
  122.  
  123.     def import_data(self): 
  124.  
  125.         self.mnist = input_data.read_data_sets('MNIST_data', one_hot=True
  126.  
  127.  
  128.  
  129.     # 數據保存 
  130.  
  131.     def save(self): 
  132.  
  133.         saver = tensorflow.train.Saver() 
  134.  
  135.         path = saver.save(self.session,self.save_path) 
  136.  
  137.  
  138.  
  139.     # 添加隱藏層 
  140.  
  141.     def add_layer(self,inputs,input_size,output_size,activation_function=None): 
  142.  
  143.  
  144.  
  145.         weight = tensorflow.Variable(tensorflow.random_normal([input_size,output_size]),dtype=tensorflow.float32,name='weight'
  146.  
  147.  
  148.  
  149.         biases = tensorflow.Variable(tensorflow.zeros([1,output_size]) + 0.1,dtype=tensorflow.float32,name='biases'
  150.  
  151.         Wx_plus_b = tensorflow.matmul(inputs,weight) + biases 
  152.  
  153.  
  154.  
  155.         self._setBiases(biases) 
  156.  
  157.         self._setWeight(weight) 
  158.  
  159.  
  160.  
  161.         if activation_function is None: 
  162.  
  163.             outputs = Wx_plus_b 
  164.  
  165.         else
  166.  
  167.             outputs = activation_function(Wx_plus_b,) 
  168.  
  169.  
  170.  
  171.         return outputs 
  172.  
  173.  
  174.  
  175.  
  176.  
  177.     # 計算結果數據與實際數據的正確率 
  178.  
  179.     def computer_accurary(self,x_data,y_data,tf_prediction): 
  180.  
  181.  
  182.  
  183.         prediction = self.session.run(tf_prediction,feed_dict={self.xs:x_data,self.ys:y_data}) 
  184.  
  185.  
  186.  
  187.         # 返回兩個矩陣中***值的索引號位置,然后進行相應位置的值大小比較并在此位置設置為True/False 
  188.  
  189.         correct_predition = tensorflow.equal(tensorflow.argmax(prediction,1),tensorflow.argmax(y_data,1)) 
  190.  
  191.  
  192.  
  193.         # 進行數據格式轉換,然后進行降維求平均值 
  194.  
  195.         accurary = tensorflow.reduce_mean(tensorflow.cast(correct_predition,tensorflow.float32)) 
  196.  
  197.  
  198.  
  199.         result = self.session.run(accurary,feed_dict={self.xs:x_data,self.ys:y_data}) 
  200.  
  201.  
  202.  
  203.         return result 
  204.  
  205.  
  206.  
  207. # 識別類 
  208.  
  209. class NormalRead(Normal): 
  210.  
  211.  
  212.  
  213.     input_size = 784 
  214.  
  215.     output_size = 10 
  216.  
  217.  
  218.  
  219.     def run(self): 
  220.  
  221.         self.import_data() 
  222.  
  223.         self.getSaver() 
  224.  
  225.         origin_input = self._getInput() 
  226.  
  227.         output = self.recognize(origin_input) 
  228.  
  229.  
  230.  
  231.         self._showImage(origin_input) 
  232.  
  233.         self._showOutput(output
  234.  
  235.         pass 
  236.  
  237.  
  238.  
  239.     # 顯示識別結果 
  240.  
  241.     def _showOutput(self,output): 
  242.  
  243.         number = output.index(1) 
  244.  
  245.         print('識別到的數字:',number) 
  246.  
  247.  
  248.  
  249.     # 顯示被識別圖片 
  250.  
  251.     def _showImage(self,origin_input): 
  252.  
  253.         data = [] 
  254.  
  255.         tmp = [] 
  256.  
  257.         i = 1 
  258.  
  259.         # 原數據轉換為可顯示的矩陣 
  260.  
  261.         for v in origin_input[0]: 
  262.  
  263.             if i %28 == 0: 
  264.  
  265.                 tmp.append(v) 
  266.  
  267.                 data.append(tmp) 
  268.  
  269.                 tmp = [] 
  270.  
  271.             else
  272.  
  273.                 tmp.append(v) 
  274.  
  275.             i += 1 
  276.  
  277.  
  278.  
  279.         plt.figure() 
  280.  
  281.         plt.imshow(data, cmap='binary')  # 黑白顯示 
  282.  
  283.         plt.show() 
  284.  
  285.  
  286.  
  287.  
  288.  
  289.     def _setBiases(self,biases): 
  290.  
  291.         self.biases = biases 
  292.  
  293.         pass 
  294.  
  295.  
  296.  
  297.     def _setWeight(self,weight): 
  298.  
  299.         self.weight = weight 
  300.  
  301.         pass 
  302.  
  303.  
  304.  
  305.     def _getBiases(self): 
  306.  
  307.         return self.biases 
  308.  
  309.  
  310.  
  311.     def _getWeight(self): 
  312.  
  313.         return self.weight 
  314.  
  315.  
  316.  
  317.     # 獲取訓練模型 
  318.  
  319.     def getSaver(self): 
  320.  
  321.         weight = tensorflow.Variable(tensorflow.random_normal([self.input_size, self.output_size]), dtype=tensorflow.float32,name='weight'
  322.  
  323.  
  324.  
  325.         biases = tensorflow.Variable(tensorflow.zeros([1, self.output_size]) + 0.1, dtype=tensorflow.float32, name='biases'
  326.  
  327.  
  328.  
  329.         saver = tensorflow.train.Saver() 
  330.  
  331.         saver.restore(self.session,self.save_path) 
  332.  
  333.  
  334.  
  335.         self._setWeight(weight) 
  336.  
  337.         self._setBiases(biases) 
  338.  
  339.  
  340.  
  341.     def recognize(self,origin_input): 
  342.  
  343.         input = tensorflow.placeholder(tensorflow.float32,[None,784]) 
  344.  
  345.         weight = self._getWeight() 
  346.  
  347.         biases = self._getBiases() 
  348.  
  349.  
  350.  
  351.         result = tensorflow.matmul(input,weight) + biases 
  352.  
  353.         resultSof = tensorflow.nn.softmax(result,) # 把結果集使用softmax進行激勵 
  354.  
  355.         resultSig = tensorflow.nn.sigmoid(resultSof,) # 把結果集以sigmoid函數進行激勵,用于后續分類 
  356.  
  357.         output = self.session.run(resultSig,{input:origin_input}) 
  358.  
  359.  
  360.  
  361.         output = output[0] 
  362.  
  363.  
  364.  
  365.         # 對識別結果進行分類處理 
  366.  
  367.         output_tmp = [] 
  368.  
  369.         for item in output
  370.  
  371.             if item < 0.6: 
  372.  
  373.                 output_tmp.append(0) 
  374.  
  375.             else : 
  376.  
  377.                 output_tmp.append(1) 
  378.  
  379.  
  380.  
  381.         return output_tmp 
  382.  
  383.  
  384.  
  385.     def _getInput(self): 
  386.  
  387.         inputs, y = self.mnist.train.next_batch(100); 
  388.  
  389.         return [inputs[50]] 

以上是程序,整個程序基于TensorFlow來實現的,具體的TensorFlow安裝我就不說了。

整個訓練過程不做多說,我發現網上關于訓練的教程很多,但是訓練結果的教程很少。

整個程序里,通過tensorflow.train.Saver()的save進行訓練結果模型進行存儲,然后再用tensorflow.train.Saver()的restore進行模型恢復然后取到訓練好的weight和baises。

這里要注意的一個地方是因為一次性隨機取出100張手寫圖片進行批量訓練的,我在取的時候其實也是批量隨機取100張,但是我傳入識別的是一張,通過以下這段程序: 

  1. def _getInput(self): 
  2.  
  3.         inputs, y = self.mnist.train.next_batch(100); 
  4.  
  5.         return [inputs[50]] 

注意一下return這里的數據結構,其實是取這批量的第50張,實際上這段程序寫成:

  1. def _getInput(self): 
  2.  
  3.         inputs, y = self.mnist.train.next_batch(1); 
  4.  
  5.         return [inputs[0]] 

會更好。

因為識別的時候是需要用到訓練的隱藏層來進行的,所以在此我雖然識別的是一張圖片,但是我必須要傳入一個批量數據的這樣一個結構。

然后再識別的地方,我使用了兩個激勵函數: 

  1. resultSof = tensorflow.nn.softmax(result,) # 把結果集使用softmax進行激勵 
  2.  
  3. resultSig = tensorflow.nn.sigmoid(resultSof,) # 把結果集以sigmoid函數進行激勵,用于后續分類 

這里的話,***個softmax激勵后的數據我發現得到的是以e為底的指數形式,轉換成普通的浮點數來看,不是很清楚到底是什么,那么我在做識別數字判斷的時候就不方便,所以再通過了一次sigmoid的激勵。

后續我通過一個循環判斷進行一次實際上的分類,這個原因首先要說到識別結果形式:

  1. [0,0,0,0,0,0,0,0,1,0] 

像以上這個數據,表示的是8,也就是說,數組下表第幾位為1就表示是幾,如0的表示:

  1. [1,0,0,0,0,0,0,0,0,0] 

而sigmoid函數在這個地方其實就是對每個位置的數據進行了分類,我發現如果分類值小于0.52這樣的數據其實代表的是否,也就是說此位置的值對應的是0,大于0.52應該對應的是真,也就是1;而我在程序里取的是0.6為界限做判斷。

實際上,這個界限值應該是在神經網絡訓練的時候取的,而不是看識別結果來進行憑感覺取的(雖然訓練的時候的參數也是憑感覺取的)

這篇文章是我根據個人的一些理解來寫的,后續如果發現有錯誤,我會在新文章說出來,但這篇文章不做保留,方便后續檢查思考記錄的時候知道到底怎么踩坑的。

以下是我上次寫的sigmoid函數的文章:

https://segmentfault.com/a/11...

關于其他激勵函數,可以網上找資料進行了解,很多基礎性的數學知識,放到一些比較具體的應用,會顯得非常的有意思。 

責任編輯:龐桂玉 來源: segmentfault
相關推薦

2025-02-25 14:13:31

2018-04-08 11:20:43

深度學習

2018-02-09 09:59:12

神經網絡算法識別

2024-08-22 08:21:10

算法神經網絡參數

2025-02-19 18:00:00

神經網絡模型AI

2018-08-27 17:05:48

tensorflow神經網絡圖像處理

2024-11-11 00:00:02

卷積神經網絡算法

2024-12-04 10:33:17

2020-08-14 10:01:25

編程神經網絡C語言

2024-09-24 07:28:10

2021-07-07 06:04:33

人工智能Pytorch神經網絡

2022-10-11 23:35:28

神經網絡VGGNetAlexNet

2022-03-22 14:02:39

神經網絡AI研究

2021-05-19 10:22:42

神經網絡數據圖形

2018-09-17 15:12:25

人工智能神經網絡編程語言

2017-03-13 14:45:51

Python神經網絡基礎

2017-07-18 10:20:30

Python神經網絡

2022-10-19 07:42:41

圖像識別神經網絡

2018-02-08 16:03:59

程序員Java神經網絡

2017-04-26 09:30:53

卷積神經網絡實戰
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 色毛片| 久久久久久久久久一区 | 鲁大师一区影视 | 国产人成精品一区二区三 | 国产亚洲一区二区在线观看 | 国产偷录视频叫床高潮对白 | 亚洲精品99| 黄色欧美 | 国产网站在线免费观看 | 亚洲欧洲av在线 | 国产精品福利视频 | 美女视频黄色的 | 精品国产精品一区二区夜夜嗨 | 精品国模一区二区三区欧美 | 中国黄色在线视频 | 亚洲高清在线观看 | 毛片a级 | 久久久毛片 | 中文字幕在线观看视频网站 | 久久久久久成人 | 午夜精品久久久久久久久久久久久 | 欧美一区成人 | 日日操日日干 | 久久亚洲国产精品日日av夜夜 | 国产精品成人久久久久a级 久久蜜桃av一区二区天堂 | 九九热这里 | 亚洲五码久久 | 国产精品国产 | 亚洲国产免费 | 农村真人裸体丰满少妇毛片 | 日本三级黄视频 | 97精品久久 | 青青草社区 | 黄网站色大毛片 | 免费精品一区 | 精品久久久久久 | 一区二区视频在线 | 日韩av成人在线 | 狠狠干狠狠插 | 婷婷丁香综合网 | 久久亚洲综合 |