成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了

新聞 人工智能
如果用聲波記錄儀顯示聲音的話,其實(shí)生活中絕大部分聲音都是非常復(fù)雜、甚至雜亂無章的。而通過傅里葉變換,就能把這些雜亂的聲波轉(zhuǎn)化為正弦波,也就是我們平常看到的音樂頻譜圖的樣子。

本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

在我們的生活中,大到天體觀測(cè)、小到MP3播放器上的頻譜,沒有傅里葉變換都無法實(shí)現(xiàn)。

通俗來講,離散傅里葉變換(DFT)就是把一串復(fù)雜波形中分成不同頻率成分。

比如聲音,如果用聲波記錄儀顯示聲音的話,其實(shí)生活中絕大部分聲音都是非常復(fù)雜、甚至雜亂無章的。

而通過傅里葉變換,就能把這些雜亂的聲波轉(zhuǎn)化為正弦波,也就是我們平常看到的音樂頻譜圖的樣子。

[[403197]]

不過在實(shí)際計(jì)算中,這個(gè)過程其實(shí)非常復(fù)雜。

如果把聲波視作一個(gè)連續(xù)函數(shù),它可以唯一表示為一堆三角函數(shù)相疊加。不過在疊加過程中,每個(gè)三角函數(shù)的加權(quán)系數(shù)不同,有的要加高一些、有的要壓低一些,有的甚至不加。

傅里葉變換要找到這些三角函數(shù)以及它們各自的權(quán)重。

你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了

這不就巧了,這種找啊找的過程,像極了神經(jīng)網(wǎng)絡(luò)

神經(jīng)網(wǎng)絡(luò)的本質(zhì)其實(shí)就是逼近一個(gè)函數(shù)。

那豈不是可以用訓(xùn)練神經(jīng)網(wǎng)絡(luò)的方式來搞定傅里葉變換?

這還真的可行,并且最近有人在網(wǎng)上發(fā)布了自己訓(xùn)練的過程和結(jié)果。

DFT=神經(jīng)網(wǎng)絡(luò)

該怎么訓(xùn)練神經(jīng)網(wǎng)絡(luò)呢?這位網(wǎng)友給出的思路是這樣的:

首先要把離散傅里葉變換(DFT)看作是一個(gè)人工神經(jīng)網(wǎng)絡(luò),這是一個(gè)單層網(wǎng)絡(luò),沒有bias、沒有激活函數(shù),并且對(duì)于權(quán)重有特定的值。它輸出節(jié)點(diǎn)的數(shù)量等于傅里葉變換計(jì)算后頻率的數(shù)量。

具體方法如下:

這是一個(gè)DFT:

你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了
  • k表示每N個(gè)樣本的循環(huán)次數(shù);
  • N表示信號(hào)的長(zhǎng)度;
  • 表示信號(hào)在樣本n處的值。

一個(gè)信號(hào)可以表示為所有正弦信號(hào)的和。

yk是一個(gè)復(fù)值,它給出了信號(hào)x中頻率為k的正弦信號(hào)的信息;從yk我們可以計(jì)算正弦的振幅和相位。

換成矩陣式,它就變成了這樣:

你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了

這里給出了特定值k的傅里葉值。

不過通常情況下,我們要計(jì)算全頻譜,即k從[0,1,…N-1]的值,這可以用一個(gè)矩陣來表示(k按列遞增,n按行遞增):

你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了

簡(jiǎn)化后得到:

你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了

看到這里應(yīng)該還很熟悉,因?yàn)樗且粋€(gè)沒有bias和激活函數(shù)的神經(jīng)網(wǎng)絡(luò)層。

指數(shù)矩陣包含權(quán)值,可以稱之為復(fù)合傅里葉權(quán)值(Complex Fourier weights),通常情況下我們并不知道神經(jīng)網(wǎng)絡(luò)的權(quán)重,不過在這里可以。

  • 不用復(fù)數(shù)

通常我們也不會(huì)在神經(jīng)網(wǎng)絡(luò)中使用復(fù)數(shù),為了適應(yīng)這種情況,就需要把矩陣的大小翻倍,使其左邊部分包含實(shí)數(shù),右邊部分包含虛數(shù)。

你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了

你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了

帶入DFT,可以得到:

你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了

然后用實(shí)部(cos形式)來表示矩陣的左半部分,用虛部(sin形式)來表示矩陣的右半部分:

你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了

簡(jiǎn)化后可以得到:

你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了

你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了

稱為傅里葉權(quán)重

需要注意的是,y^和y實(shí)際上包含相同的信息,但是y^

不使用復(fù)數(shù),所以它的長(zhǎng)度是y的兩倍。

換句話說,我們可以用

你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了

你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了

表示振幅和相位,但是我們通常會(huì)使用

你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了

現(xiàn)在,就可以將傅里葉層加到網(wǎng)絡(luò)中了。

用傅里葉權(quán)重計(jì)算傅里葉變換

現(xiàn)在就可以用神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)

你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了

,并用快速傅里葉變換(FFT)檢查它是否正確。

  1. import matplotlib.pyplot as plt 
  2.  
  3.  
  4. y_real = y[:, :signal_length] 
  5. y_imag = y[:, signal_length:] 
  6. tvals = np.arange(signal_length).reshape([-11]) 
  7. freqs = np.arange(signal_length).reshape([1, -1]) 
  8. arg_vals = 2 * np.pi * tvals * freqs / signal_length 
  9. sinusoids = (y_real * np.cos(arg_vals) - y_imag * np.sin(arg_vals)) / signal_length 
  10. reconstructed_signal = np.sum(sinusoids, axis=1
  11.  
  12.  
  13. print('rmse:', np.sqrt(np.mean((x - reconstructed_signal)**2))) 
  14. plt.subplot(211
  15. plt.plot(x[0,:]) 
  16. plt.title('Original signal'
  17. plt.subplot(212
  18. plt.plot(reconstructed_signal) 
  19. plt.title('Signal reconstructed from sinusoids after DFT'
  20. plt.tight_layout() 
  21. plt.show() 
  1. rmse: 2.3243522568191728e-15 

得到的這個(gè)微小誤差值可以證明,計(jì)算的結(jié)果是我們想要的。

  • 另一種方法是重構(gòu)信號(hào)
  1. import matplotlib.pyplot as plt 
  2.  
  3.  
  4. y_real = y[:, :signal_length] 
  5. y_imag = y[:, signal_length:] 
  6. tvals = np.arange(signal_length).reshape([-11]) 
  7. freqs = np.arange(signal_length).reshape([1, -1]) 
  8. arg_vals = 2 * np.pi * tvals * freqs / signal_length 
  9. sinusoids = (y_real * np.cos(arg_vals) - y_imag * np.sin(arg_vals)) / signal_length 
  10. reconstructed_signal = np.sum(sinusoids, axis=1
  11.  
  12.  
  13. print('rmse:', np.sqrt(np.mean((x - reconstructed_signal)**2))) 
  14. plt.subplot(211
  15. plt.plot(x[0,:]) 
  16. plt.title('Original signal'
  17. plt.subplot(212
  18. plt.plot(reconstructed_signal) 
  19. plt.title('Signal reconstructed from sinusoids after DFT'
  20. plt.tight_layout() 
  21. plt.show() 
 
  1. rmse: 2.3243522568191728e-15 
你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了

最后可以看到,DFT后從正弦信號(hào)重建的信號(hào)和原始信號(hào)能夠很好地重合。

通過梯度下降學(xué)習(xí)傅里葉變換

現(xiàn)在就到了讓神經(jīng)網(wǎng)絡(luò)真正來學(xué)習(xí)的部分,這一步就不需要向之前那樣預(yù)先計(jì)算權(quán)重值了。

首先,要用FFT來訓(xùn)練神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)離散傅里葉變換:

  1. import tensorflow as tf 
  2.  
  3.  
  4. signal_length = 32 
  5.  
  6.  
  7. # Initialise weight vector to train: 
  8. W_learned = tf.Variable(np.random.random([signal_length, 2 * signal_length]) - 0.5
  9.  
  10.  
  11. # Expected weights, for comparison: 
  12. W_expected = create_fourier_weights(signal_length) 
  13.  
  14.  
  15. losses = [] 
  16. rmses = [] 
  17.  
  18.  
  19. for i in range(1000): 
  20.     # Generate a random signal each iteration: 
  21.     x = np.random.random([1, signal_length]) - 0.5 
  22.      
  23.     # Compute the expected result using the FFT: 
  24.     fft = np.fft.fft(x) 
  25.     y_true = np.hstack([fft.real, fft.imag]) 
  26.      
  27.     with tf.GradientTape() as tape: 
  28.         y_pred = tf.matmul(x, W_learned) 
  29.         loss = tf.reduce_sum(tf.square(y_pred - y_true)) 
  30.      
  31.     # Train weights, via gradient descent: 
  32.     W_gradient = tape.gradient(loss, W_learned)     
  33.     W_learned = tf.Variable(W_learned - 0.1 * W_gradient) 
  34.  
  35.  
  36.     losses.append(loss) 
  37.     rmses.append(np.sqrt(np.mean((W_learned - W_expected)**2))) 
 
  1. Final loss value 1.6738563548424711e-09 
  2. Final weights' rmse value 3.1525832404710523e-06 
你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了
你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了

得出結(jié)果如上,這證實(shí)了神經(jīng)網(wǎng)絡(luò)確實(shí)能夠?qū)W習(xí)離散傅里葉變換。

訓(xùn)練網(wǎng)絡(luò)學(xué)習(xí)DFT

除了用快速傅里葉變化的方法,還可以通過網(wǎng)絡(luò)來重建輸入信號(hào)來學(xué)習(xí)DFT。(類似于autoencoders自編碼器)。

自編碼器(autoencoder, AE)是一類在半監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)中使用的人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks, ANNs),其功能是通過將輸入信息作為學(xué)習(xí)目標(biāo),對(duì)輸入信息進(jìn)行表征學(xué)習(xí)(representation learning)。

  1. W_learned = tf.Variable(np.random.random([signal_length, 2 * signal_length]) - 0.5
  2.  
  3.  
  4. tvals = np.arange(signal_length).reshape([-11]) 
  5. freqs = np.arange(signal_length).reshape([1, -1]) 
  6. arg_vals = 2 * np.pi * tvals * freqs / signal_length 
  7. cos_vals = tf.cos(arg_vals) / signal_length 
  8. sin_vals = tf.sin(arg_vals) / signal_length 
  9.  
  10.  
  11. losses = [] 
  12. rmses = [] 
  13.  
  14.  
  15. for i in range(10000): 
  16.     x = np.random.random([1, signal_length]) - 0.5 
  17.      
  18.     with tf.GradientTape() as tape: 
  19.         y_pred = tf.matmul(x, W_learned) 
  20.         y_real = y_pred[:, 0:signal_length] 
  21.         y_imag = y_pred[:, signal_length:] 
  22.         sinusoids = y_real * cos_vals - y_imag * sin_vals 
  23.         reconstructed_signal = tf.reduce_sum(sinusoids, axis=1
  24.         loss = tf.reduce_sum(tf.square(x - reconstructed_signal)) 
  25.  
  26.  
  27.     W_gradient = tape.gradient(loss, W_learned)     
  28.     W_learned = tf.Variable(W_learned - 0.5 * W_gradient) 
  29.  
  30.  
  31.     losses.append(loss) 
  32.     rmses.append(np.sqrt(np.mean((W_learned - W_expected)**2))) 
 
  1. Final loss value 4.161919455121241e-22 
  2. Final weights' rmse value 0.20243339269590094 
你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了
你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了
你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了

作者用這一模型進(jìn)行了很多測(cè)試,最后得到的權(quán)重不像上面的例子中那樣接近傅里葉權(quán)值,但是可以看到重建的信號(hào)是一致的。

換成輸入振幅和相位試試看呢。

  1. W_learned = tf.Variable(np.random.random([signal_length, 2 * signal_length]) - 0.5
  2.  
  3.  
  4. losses = [] 
  5. rmses = [] 
  6.  
  7.  
  8. for i in range(10000): 
  9.     x = np.random.random([1, signal_length]) - .5 
  10.      
  11.     with tf.GradientTape() as tape: 
  12.         y_pred = tf.matmul(x, W_learned) 
  13.         y_real = y_pred[:, 0:signal_length] 
  14.         y_imag = y_pred[:, signal_length:] 
  15.         amplitudes = tf.sqrt(y_real**2 + y_imag**2) / signal_length 
  16.         phases = tf.atan2(y_imag, y_real) 
  17.         sinusoids = amplitudes * tf.cos(arg_vals + phases) 
  18.         reconstructed_signal = tf.reduce_sum(sinusoids, axis=1
  19.         loss = tf.reduce_sum(tf.square(x - reconstructed_signal)) 
  20.  
  21.  
  22.     W_gradient = tape.gradient(loss, W_learned) 
  23.     W_learned = tf.Variable(W_learned - 0.5 * W_gradient) 
  24.  
  25.  
  26.     losses.append(loss) 
  27.     rmses.append(np.sqrt(np.mean((W_learned - W_expected)**2))) 
 
  1. Final loss value 2.2379359316633115e-21 
  2. Final weights' rmse value 0.2080118219691059 
你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了
你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了
你還弄不懂的傅里葉變換,神經(jīng)網(wǎng)絡(luò)只用了30多行代碼就學(xué)會(huì)了

可以看到,重建信號(hào)再次一致;

不過,和此前一樣,輸入振幅和相位最終得到的權(quán)值也不完全等同于傅里葉權(quán)值(但非常接近)。

由此可以得出結(jié)論,雖然最后得到的權(quán)重還不是最準(zhǔn)確的,但是也能夠獲得局部的最優(yōu)解

這樣一來,神經(jīng)網(wǎng)絡(luò)就學(xué)會(huì)了傅里葉變換!

  • 值得一提的是,這個(gè)方法目前還有疑問存在:

首先,它沒有解釋計(jì)算出的權(quán)值和真正的傅里葉權(quán)值相差多少;

而且,也沒有說明將傅里葉層放到模型中能帶來哪些益處。

 

 

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2025-04-08 00:33:00

數(shù)據(jù)校驗(yàn)Bean

2023-05-19 07:31:48

2021-11-05 08:29:13

數(shù)據(jù)校驗(yàn)Spring

2025-06-03 17:37:49

模型訓(xùn)練AI

2020-03-06 08:15:54

新人技術(shù)主管陳琦

2022-11-08 08:45:30

Prettier代碼格式化工具

2017-05-24 17:25:44

2017-09-18 08:08:33

JavaScript神經(jīng)網(wǎng)絡(luò)代碼

2017-09-15 13:35:11

JavaScript神經(jīng)網(wǎng)絡(luò)

2022-01-17 07:50:37

Go代碼規(guī)范

2022-11-30 09:54:57

網(wǎng)絡(luò)令牌身份驗(yàn)證

2022-09-22 12:03:14

網(wǎng)絡(luò)安全事件

2018-01-24 10:48:34

神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)前端

2021-12-23 11:10:38

稅收大數(shù)據(jù)大數(shù)據(jù)稅收

2022-07-08 09:27:48

CSSIFC模型

2015-05-18 09:23:04

JavaScript數(shù)組

2024-01-19 08:25:38

死鎖Java通信

2023-07-26 13:14:13

業(yè)務(wù)項(xiàng)目技術(shù)

2024-02-04 00:00:00

Effect數(shù)據(jù)組件

2023-07-26 13:11:21

ChatGPT平臺(tái)工具
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 日本在线视 | 精品欧美一区二区在线观看 | 欧美精品福利 | 天天干夜夜操视频 | 精品免费视频 | 美女毛片免费看 | 欧美日日 | 久综合| 视频在线观看一区 | 日本午夜一区二区三区 | 国产高清精品一区二区三区 | 国产精品久久久久久久久久东京 | 韩国欧洲一级毛片 | 亚洲精品一区二区冲田杏梨 | 精品亚洲视频在线 | 亚洲精品99 | 中文字幕日韩一区 | 亚洲伊人a| 国产91亚洲精品一区二区三区 | 久久精品国产亚洲一区二区 | 久久不卡日韩美女 | 国产在线高清 | 国产精品毛片无码 | 日韩在线欧美 | 欧美激情精品久久久久久变态 | 欧美一级黄视频 | 国产精品免费一区二区 | 在线中文字幕视频 | 黄色网址免费看 | 美女久久 | 91亚洲免费 | 亚洲www啪成人一区二区麻豆 | 九色 在线 | 色视频www在线播放国产人成 | 精品国产乱码久久久久久1区2区 | 国产电影一区二区在线观看 | 国产一级淫片a直接免费看 免费a网站 | 日韩视频在线一区 | 久久精品国产亚洲a | 国产精品久久久久久中文字 | 国产一区 |