成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

用深度神經網絡處理NER命名實體識別問題

人工智能 深度學習 移動開發
命名實體識別(NER)是指識別文本中具有特定意義的實體,主要包括人名、地名、機構名、專有名詞等。命名實體識別是信息提取、問答系統、句法分析、機器翻譯等應用領域的重要基礎工具,作為結構化信息提取的重要步驟。

本文結構:
 

  1. 什么是命名實體識別(NER)
  2. 怎么識別?

cs224d Day 7: 項目2-用DNN處理NER問題

課程項目描述地址

什么是NER?

命名實體識別(NER)是指識別文本中具有特定意義的實體,主要包括人名、地名、機構名、專有名詞等。命名實體識別是信息提取、問答系統、句法分析、機器翻譯等應用領域的重要基礎工具,作為結構化信息提取的重要步驟。摘自 BosonNLP

怎么識別?

先把解決問題的邏輯說一下,然后解釋主要的代碼,有興趣的話,完整代碼請去 這里看 。

代碼是在 Tensorflow 下建立只有一個隱藏層的 DNN 來處理 NER 問題。

1.問題識別:

NER 是個分類問題。

給一個單詞,我們需要根據上下文判斷,它屬于下面四類的哪一個,如果都不屬于,則類別為0,即不是實體,所以這是一個需要分成 5 類的問題:

  1. • Person (PER) 
  2. • Organization (ORG) 
  3. • Location (LOC) 
  4. • Miscellaneous (MISC) 

我們的訓練數據有兩列,***列是單詞,第二列是標簽。

  1. EU ORG 
  2. rejects O 
  3. German MISC 
  4. Peter PER 
  5. BRUSSELS LOC 

2.模型:

接下來我們用深度神經網絡對其進行訓練。

模型如下:

輸入層的 x^(t) 為以 x_t 為中心的窗口大小為3的上下文語境,x_t 是 one-hot 向量,x_t 與 L 作用后就是相應的詞向量,詞向量的長度為 d = 50 :

我們建立一個只有一個隱藏層的神經網絡,隱藏層維度是 100,y^ 就是得到的預測值,維度是 5:

用交叉熵來計算誤差:

J 對各個參數進行求導:

得到如下求導公式:

在 TensorFlow 中求導是自動實現的,這里用Adam優化算法更新梯度,不斷地迭代,使得loss越來越小直至收斂。

3.具體實現

在 def test_NER() 中,我們進行 max_epochs 次迭代,每次,用 training data 訓練模型 得到一對 train_loss, train_acc ,再用這個模型去預測 validation data,得到一對 val_loss, predictions ,我們選擇最小的 val_loss ,并把相應的參數 weights 保存起來,***我們是要用這些參數去預測 test data 的類別標簽:

  1. def test_NER(): 
  2. config = Config() 
  3. with tf.Graph().as_default(): 
  4. model = NERModel(config) # 最主要的類 
  5.  
  6. init = tf.initialize_all_variables() 
  7. saver = tf.train.Saver() 
  8.  
  9. with tf.Session() as session: 
  10. best_val_loss = float('inf') # ***的值時,它的 loss 它的 迭代次數 epoch 
  11. best_val_epoch = 0 
  12.  
  13. session.run(init) 
  14. for epoch in xrange(config.max_epochs): 
  15. print 'Epoch {}'.format(epoch) 
  16. start = time.time() 
  17. ### 
  18. train_loss, train_acc = model.run_epoch(session, model.X_train, 
  19. model.y_train) # 1.把 train 數據放進迭代里跑,得到 loss 和 accuracy 
  20. val_loss, predictions = model.predict(session, model.X_dev, model.y_dev) # 2.用這個model去預測 dev 數據,得到loss 和 prediction 
  21. print 'Training loss: {}'.format(train_loss) 
  22. print 'Training acc: {}'.format(train_acc) 
  23. print 'Validation loss: {}'.format(val_loss) 
  24. if val_loss < best_val_loss: # 用 val 數據的loss去找最小的loss 
  25. best_val_loss = val_loss 
  26. best_val_epoch = epoch 
  27. if not os.path.exists("./weights"): 
  28. os.makedirs("./weights"
  29.  
  30. saver.save(session, './weights/ner.weights') # 把最小的 loss 對應的 weights 保存起來 
  31. if epoch - best_val_epoch > config.early_stopping: 
  32. break 
  33. ### 
  34. confusion = calculate_confusion(config, predictions, model.y_dev) # 3.把 dev 的lable數據放進去,計算prediction的confusion 
  35. print_confusion(confusion, model.num_to_tag) 
  36. print 'Total time: {}'.format(time.time() - start) 
  37.  
  38. saver.restore(session, './weights/ner.weights') # 再次加載保存過的 weights,用 test 數據做預測,得到預測結果 
  39. print 'Test' 
  40. print '=-=-=' 
  41. print 'Writing predictions to q2_test.predicted' 
  42. _, predictions = model.predict(session, model.X_test, model.y_test) 
  43. save_predictions(predictions, "q2_test.predicted") # 把預測結果保存起來 
  44.  
  45. if __name__ == "__main__"
  46. test_NER() 

4.模型是怎么訓練的呢?

首先導入數據 training,validation,test:

  1. # Load the training set 
  2. docs = du.load_dataset('data/ner/train'
  3.  
  4. # Load the dev set (for tuning hyperparameters) 
  5. docs = du.load_dataset('data/ner/dev'
  6.  
  7. # Load the test set (dummy labels only) 
  8. docs = du.load_dataset('data/ner/test.masked'

把單詞轉化成 one-hot 向量后,再轉化成詞向量:

  1. def add_embedding(self): 
  2.   # The embedding lookup is currently only implemented for the CPU 
  3.   with tf.device('/cpu:0'): 
  4.  
  5.     embedding = tf.get_variable('Embedding', [len(self.wv), self.config.embed_size])    # assignment 中的 L     
  6.     window = tf.nn.embedding_lookup(embedding, self.input_placeholder)                # 在 L 中直接把window大小的context的word vector搞定 
  7.     window = tf.reshape( 
  8.       window, [-1self.config.window_size * self.config.embed_size]) 
  9.  
  10.     return window 

建立神經層,包括用 xavier 去初始化***層, L2 正則化和用 dropout 來減小過擬合的處理:

  1. def add_model(self, window): 
  2.  
  3.   with tf.variable_scope('Layer1', initializer=xavier_weight_init()) as scope:        # 用initializer=xavier去初始化***層 
  4.     W = tf.get_variable(                                                                # ***層有 W,b1,h 
  5.         'W', [self.config.window_size * self.config.embed_size, 
  6.               self.config.hidden_size]) 
  7.     b1 = tf.get_variable('b1', [self.config.hidden_size]) 
  8.     h = tf.nn.tanh(tf.matmul(window, W) + b1) 
  9.     if self.config.l2:                                                                # L2 regularization for W 
  10.         tf.add_to_collection('total_loss'0.5 * self.config.l2 * tf.nn.l2_loss(W))    # 0.5 * self.config.l2 * tf.nn.l2_loss(W) 
  11.  
  12.   with tf.variable_scope('Layer2', initializer=xavier_weight_init()) as scope: 
  13.     U = tf.get_variable('U', [self.config.hidden_size, self.config.label_size]) 
  14.     b2 = tf.get_variable('b2', [self.config.label_size]) 
  15.     y = tf.matmul(h, U) + b2 
  16.     if self.config.l2: 
  17.         tf.add_to_collection('total_loss'0.5 * self.config.l2 * tf.nn.l2_loss(U)) 
  18.   output = tf.nn.dropout(y, self.dropout_placeholder)                                    # 返回 output,兩個variable_scope都帶dropout 
  19.  
  20.   return output 

關于 L2正則化 和 dropout 是什么, 如何減小過擬合問題的,可以看 這篇博客,總結的簡單明了。

用 cross entropy 來計算 loss:

  1. def add_loss_op(self, y): 
  2.  
  3.   cross_entropy = tf.reduce_mean(                                                        # 1.關鍵步驟:loss是用cross entropy定義的 
  4.       tf.nn.softmax_cross_entropy_with_logits(y, self.labels_placeholder))                # y是模型預測值,計算cross entropy 
  5.   tf.add_to_collection('total_loss', cross_entropy)            # Stores value in the collection with the given name. 
  6.                                                               # collections are not sets, it is possible to add a value to a collection several times. 
  7.   loss = tf.add_n(tf.get_collection('total_loss'))            # Adds all input tensors element-wise. inputs: A list of Tensor with same shape and type 
  8.  
  9.   return loss 

接著用 Adam Optimizer 把loss最小化:

  1. def add_training_op(self, loss): 
  2.  
  3.   optimizer = tf.train.AdamOptimizer(self.config.lr) 
  4.   global_step = tf.Variable(0, name='global_step', trainable=False
  5.   train_op = optimizer.minimize(loss, global_step=global_step)    # 2.關鍵步驟:用 AdamOptimizer 使 loss 達到最小,所以更關鍵的是 loss 
  6.  
  7.   return train_op 

每一次訓練后,得到了最小化 loss 相應的 weights。

這樣,NER 這個分類問題就搞定了,當然為了提高精度等其他問題,還是需要查閱文獻來學習的。下一次先實現個 RNN。

責任編輯:林師授 來源: 簡網
相關推薦

2020-08-28 12:00:47

NER人工智能深度學習

2024-03-18 13:36:36

大型語言模型個人可識別信息

2017-11-10 11:51:39

Python自然語言分析器

2017-05-25 11:24:18

達觀數據NER系統

2018-01-04 15:50:44

深度學習自然語言機器學習

2018-02-05 08:58:36

Python神經網絡識別圖像

2019-10-29 08:50:31

深度學習編程人工智能

2017-12-05 15:32:44

深度學習語音識別

2022-10-11 23:35:28

神經網絡VGGNetAlexNet

2023-06-26 06:55:25

2017-12-22 08:47:41

神經網絡AND運算

2010-10-15 12:21:55

2018-01-29 00:16:16

神經網絡遞歸卷積深度學習

2022-10-19 07:42:41

圖像識別神經網絡

2017-03-22 11:59:40

深度神經網絡

2025-02-25 10:50:11

2022-06-06 13:05:32

神經網絡宇宙

2017-05-23 18:54:18

深度學習人工智能

2016-12-27 14:24:57

課程筆記神經網絡
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 一级视频在线免费观看 | 欧美一区| 逼逼网 | 免费一区二区三区 | 懂色中文一区二区三区在线视频 | 日韩亚洲视频 | 久久成人精品视频 | 黄网站涩免费蜜桃网站 | 国产精品一区二区三区在线播放 | 欧美一区二区 | 99热视 | 婷婷精品| 日韩一级免费电影 | 成人三级av| 久久久99精品免费观看 | 可以看黄的视频 | 亚洲高清在线 | 日韩在线| 国产精品久久久久久久免费观看 | 中文av字幕 | 国产精品久久777777 | 精品国产乱码久久久久久88av | 黄色成人在线网站 | 91影视 | 成人片免费看 | 国产一区二区三区在线观看免费 | 日本成人在线观看网站 | 日韩欧美一级片 | 91视频一区二区 | 亚洲小说图片 | 天天久| 精品视频在线观看 | 亚洲精品久久久久中文字幕二区 | 久久精品国产亚洲夜色av网站 | 亚洲精品久久久久久久久久久 | 日韩中文一区二区三区 | 草草视频在线免费观看 | 中文字幕 亚洲一区 | 成人小视频在线观看 | 成人精品鲁一区一区二区 | 在线视频第一页 |