成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

如何用 TensorFlow 教機器人作曲?秘訣原來是這樣

人工智能 機器學習 機器人
計算機會首先把你的語音轉化成文字,并且提取出關鍵字,轉化成詞向量。然后會用一些打過標簽的音樂的數據,這些標簽就是人類的各種情感。接著通過在這些數據上面訓練一個模型,模型訓練好后就可以生成符合要求關鍵詞的音樂。

今天想來看看 AI 是怎樣作曲的。

本文會用 TensorFlow 來寫一個音樂生成器。

當你對一個機器人說: 我想要一種能夠表達出希望和奇跡的歌曲時,發生了什么呢?

計算機會首先把你的語音轉化成文字,并且提取出關鍵字,轉化成詞向量。然后會用一些打過標簽的音樂的數據,這些標簽就是人類的各種情感。接著通過在這些數據上面訓練一個模型,模型訓練好后就可以生成符合要求關鍵詞的音樂。程序最終的輸出結果就是一些和弦,他會選擇最貼近主人所要求的情感關鍵詞的一些和弦來輸出。當然你不只是可以聽,也可以作為創作的參考,這樣就可以很容易地創作音樂,即使你還沒有做到刻意練習1萬小時。

機器學習其實是為了擴展我們的大腦,擴展我們的能力。

DeepMind 發表了一篇論文,叫做WaveNet, 這篇論文介紹了音樂生成和文字轉語音的藝術。

通常來講,語音生成模型是串聯。這意味著如果我們想從一些文字的樣本中來生成語音的話,是需要非常大量的語音片段的數據庫,通過截取它們的一部分,并且再重新組裝到一起,來組成一個完整的句子。

生成音樂也是同樣的道理,但是它有一個很大的難點:就是當你把一些靜止的組件組合到一起的時候,生成聲音需要很自然,并且還要有情感,這一點是非常難的。

一種理想的方式是,我們可以把所有生成音樂所需要的信息存到模型的參數里面。也就是那篇論文里講的事情。

我們并不需要把輸出結果傳給信號處理算法來得到語音信號,而是直接處理語音信號的波。

他們用的模型是 CNN。這個模型的每一個隱藏層中,每個擴張因子,可以互聯,并呈指數型的增長。每一步生成的樣本,都會被重新投入網絡中,并且用于產生下一步。

我們可以來看一下這個模型的圖。輸入的數據,是一個單獨的節點,它作為粗糙的音波,首先需要進行一下預處理,以便于進行下面的操作。

接著我們對它進行編碼,來產生一個 Tensor,這個 Tensor 有一些 sample 和 channel。然后把它投入到 CNN 網絡的***層中。這一層會產生 channel 的數量,為了進行更簡單地處理。然后把所有輸出的結果組合在一起,并且增加它的維度。再把維度增加到原來的 channel 的數量。把這個結果投入到損失函數中,來衡量我們的模型訓練的如何。***,這個結果會被再次投入到網絡中,來生成下一個時間點所需要的音波數據。重復這個過程就可以生成更多的語音。這個網絡很大,在他們的 GPU 集群上需要花費九十分鐘,并且僅僅只能生成一秒的音頻。

接下來我們會用一個更簡單的模型在 TensorFlow 上來實現一個音頻生成器。

1.引入packaGEs:

數據科學包 Numpy ,數據分析包 Pandas,tqdm 可以生成一個進度條,顯示訓練時的進度。

  1. import numpy as np 
  2.  
  3. import pandas as pd 
  4.  
  5. import msgpack 
  6.  
  7. import glob 
  8.  
  9. import tensorflow as tf 
  10.  
  11. from tensorflow.python.ops import control_flow_ops 
  12.  
  13. from tqdm import tqdm 
  14.  
  15. import midi_manipulation 

我們會用到一種神經網絡的模型 RBM-Restricted Boltzmann Machine 作為生成模型。

它是一個兩層網絡:***層是可見的,第二層是隱藏層。同一層的節點之間沒有聯系,不同層之間的節點相互連接。每一個節點都要決定它是否需要將已經接收到的數據發送到下一層,而這個決定是隨機的。

2.定義超參數:

先定義需要模型生成的 note 的 range

  1. lowest_note = midi_manipulation.lowerBound #the index of the lowest note on the piano roll 
  2.  
  3. highest_note = midi_manipulation.uPPerBound #the index of the highest note on the piano roll 
  4.  
  5. note_range = highest_note-lowest_note #the note range 

接著需要定義 timestep ,可見層和隱藏層的大小。

  1. num_timesteps = 15 #This is the number of timesteps that we will create at a time 
  2.  
  3. n_visible = 2*note_range*num_timesteps #This is the size of the visible layer. 
  4.  
  5. n_hiDDen = 50 #This is the size of the hidden layer 

訓練次數,批量處理的大小,還有學習率。

  1. num_epochs = 200 #The number of training epochs that we are going to run. For each epoch we go through the entire data set
  2.  
  3. BAtch_size = 100 #The number of training examples that we are going to send through the RBM at a time
  4.  
  5. lr = tf.constant(0.005, tf.float32) #The learning rate of our model 

3.定義變量:

x 是投入網絡的數據

w 用來存儲權重矩陣,或者叫做兩層之間的關系

此外還需要兩種 bias,一個是隱藏層的 bh,一個是可見層的 bv

  1. x = tf.placeholder(tf.float32, [None, n_visible], name="x") #The placeholder variable that holds our data 
  2.  
  3. W = tf.Variable(tf.random_normal([n_visible, n_hidden], 0.01), name="W") #The weightMATrix that stores the edge weights 
  4.  
  5. bh = tf.Variable(tf.zeros([1, n_hidden], tf.float32, name="bh")) #The bias vector for the hidden layer 
  6.  
  7. bv = tf.Variable(tf.zeros([1, n_visible], tf.float32, name="bv")) #The bias vector for the visible layer 

接著,用輔助方法 gibbs_sample 從輸入數據 x 中建立樣本,以及隱藏層的樣本:

gibbs_sample 是一種可以從多重概率分布中提取樣本的算法。

它可以生成一個統計模型,其中,每一個狀態都依賴于前一個狀態,并且隨機地生成符合分布的樣本。

  1. #The sample of x 
  2.  
  3. x_sample = gibbs_sample(1) 
  4.  
  5. #The sample of the hidden nodes, starting from the visible state of x 
  6.  
  7. h = sample(tf.sigmoid(tf.matMUl(x, W) + bh)) 
  8.  
  9. #The sample of the hidden nodes, starting from the visible state of x_sample 
  10.  
  11. h_sample = sample(tf.sigmoid(tf.matmul(x_sample, W) + bh)) 

4.更新變量:

  1. size_bt = tf. CA 
  2.  
  3. st(tf.shape(x)[0], tf.float32) 
  4.  
  5. W_adder = tf.mul(lr/size_bt, tf.sub(tf.matmul(tf.transpose(x), h), tf.matmul(tf.transpose(x_sample), h_sample))) 
  6.  
  7. bv_adder = tf.mul(lr/size_bt, tf.reduce_sum(tf.sub(x, x_sample), 0, True)) 
  8.  
  9. bh_adder = tf.mul(lr/size_bt, tf.reduce_sum(tf.sub(h, h_sample), 0, True)) 
  10.  
  11. #When we do sess.run(updt), TensorFlow will run all 3 update steps 
  12.  
  13. updt = [W.assign_add(W_adder), bv.assign_add(bv_adder), bh.assign_add(bh_adder)] 

5.運行 Graph 算法圖:

1.先初始化變量

  1. with tf.Session() as sess: 
  2.  
  3. #First, we train the model 
  4.  
  5. #initialize the variables of the model 
  6.  
  7. init = tf.initialize_all_variables() 
  8.  
  9. sess.run(init) 

首先需要 reshape 每首歌,以便于相應的向量表示可以更好地被用于訓練模型。

  1. for epoch in tqdm(range(num_epochs)): 
  2.  
  3. for song in sonGS: 
  4.  
  5. #The songs are stored in a time x notes format. The size of each song is timesteps_in_song x 2*note_range 
  6.  
  7. #Here we reshape the songs so that each training example is a vector with num_timesteps x 2*note_range elements 
  8.  
  9. song = np.array(song) 
  10.  
  11. song = song[:np.floor(song.shape[0]/num_timesteps)*num_timesteps] 
  12.  
  13. song = np.reshape(song, [song.shape[0]/num_timesteps, song.shape[1]*num_timesteps]) 

2.接下來就來訓練 RBM 模型,一次訓練一個樣本

  1. for i in range(1, len(song), batch_size): 
  2.  
  3. tr_x = song[i:i+batch_size] 
  4.  
  5. sess.run(updt, feed_dict={x: tr_x}) 

模型完全訓練好后,就可以用來生成 music 了。

3.需要訓練 Gibbs chain

其中的 visible nodes 先初始化為0,來生成一些樣本。

然后把向量 reshape 成更好的格式來 playback。

  1. sample = gibbs_sample(1).eval(session=sess, feed_dict={x: np.zeros((10, n_visible))}) 
  2.  
  3. for i in range(sample.shape[0]): 
  4.  
  5. if not any(sample[i,:]): 
  6.  
  7. continue 
  8.  
  9. #Here we reshape the vector to be time x notes, and then save the vector as a midi file 
  10.  
  11. S = np.reshape(sample[i,:], (num_timesteps, 2*note_range)) 

4.***,打印出生成的和弦

  1. midi_manipulation.noteStateMatrixToMidi(S, "generated_chord_{}".format(i))1212 

綜上,就是用 CNN 來參數化地生成音波,

用 RBM 可以很容易地根據訓練數據生成音頻樣本,

Gibbs 算法可以基于概率分布幫我們得到訓練樣本。

***送上Siraj 的原始視頻和源代碼鏈接。

責任編輯:武曉燕 來源: 36大數據
相關推薦

2022-12-14 07:32:40

InnoDBMySQL引擎

2021-05-07 13:20:39

Python機器人編程語言

2018-04-02 15:13:21

網絡

2023-02-15 08:17:38

2024-04-30 08:22:51

Figma圖形編輯變換矩陣

2025-02-17 09:22:16

MySQLSQL語句

2022-05-05 08:55:12

工業物聯網IIoT

2023-05-22 15:58:11

2024-02-06 09:30:25

Figma矩形矩形物理屬性

2022-10-21 17:30:26

機器人

2020-11-24 06:20:02

Linux日志文件系統

2020-05-26 08:52:36

Java JVM多態

2016-10-12 08:54:24

2021-07-22 10:17:55

加密機器人加密貨幣機器人

2021-05-21 14:11:15

機器人系統技術

2014-07-21 10:32:52

蘋果公司實習

2021-08-17 07:00:00

雙重檢查鎖Nacos

2020-08-04 10:04:31

AI人工智能機器人

2015-03-25 09:55:34

程序員程序員修補BUG真正原因
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 女人毛片a毛片久久人人 | 精品99久久久久久 | 天堂三级| 国产98色在线 | 亚洲人一区 | 在线色网| 成人精品国产 | 欧美亚洲网站 | 亚洲免费一 | 日本一二三区高清 | 九色91视频| 日本免费一区二区三区四区 | 午夜欧美一区二区三区在线播放 | 三级特黄特色视频 | 午夜免费小视频 | 欧美精品一区二区三区在线播放 | 日本久久网 | 成人一区二区三区在线观看 | 免费黄色录像片 | 欧美精品久久久久久久久久 | 成年人精品视频在线观看 | 久草网址 | 久久99精品久久久久久国产越南 | 怡红院免费的全部视频 | 免费黄色特级片 | 欧美日韩国产中文 | 国产一级片免费在线观看 | 日日夜夜视频 | 久久精品亚洲国产 | 91亚洲精品国偷拍自产在线观看 | 国产在线精品一区二区 | 免费视频二区 | 国产在线精品一区二区 | 91精品国产日韩91久久久久久 | av黄色片在线观看 | 亚洲国产精品一区二区第一页 | 国产精品毛片一区二区在线看 | 男女羞羞视频网站 | 亚洲一区二区三区在线播放 | 青青久在线视频 | 91美女在线 |