成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

終于把神經網絡中的激活函數搞懂了!

人工智能
在神經網絡中,激活函數(Activation Function)是神經元計算的一部分,決定了一個神經元在接收到輸入信號后的輸出。

大家好,我是小寒。

今天給大家分享神經網絡中的一個重要知識點,激活函數

在神經網絡中,激活函數(Activation Function)是神經元計算的一部分,決定了一個神經元在接收到輸入信號后的輸出。

激活函數通過引入非線性特性,使神經網絡能夠學習復雜的模式和表示。

什么是激活函數

激活函數使神經網絡能夠學習和模擬輸入數據和目標變量之間復雜的非線性關系。

通過引入非線性特性,激活函數可以幫助網絡處理涉及復雜函數映射的任務,而這些任務僅靠線性函數無法解決。

圖片圖片

實際上,在神經網絡中,神經元的輸出是通過對輸入特征 X 及其相應權重 W 的乘積加上偏差 b 

然后,將該線性組合傳遞到激活函數 f(x),從而引入必要的非線性和輸出信號。

現在,這些信號成為后續層的輸入,使網絡能夠構建數據的分層表示。

該機制確保 ANN 能夠從多樣化和非線性的數據分布中進行概括和學習。

常見的激活函數

1.Sigmoid 激活函數

Sigmoid 函數的公式為:

圖片圖片

特點:

  • 輸出范圍在 (0, 1) 之間。
  • 常用于二分類問題的輸出層。
  • 有平滑、單調遞增的特性。
  • 存在梯度消失問題,尤其在深層網絡中會導致訓練緩慢。

Python實現

import numpy as np
import matplotlib.pyplot as plt
def sigmoid(x):
 return 1 / (1 + np.exp(-x))
x = np.linspace(-10, 10, 100)
y = sigmoid(x)
plt.plot(x, y)
plt.title("Sigmoid Activation Function")
plt.show()

2.Tanh

Tanh(雙曲正切)函數的公式為:

圖片圖片

特點:

  • 輸出范圍在 (-1, 1) 之間。
  • 比 Sigmoid 更適合深層網絡,因為其輸出均值為 0,使得數據更容易居中。
  • 同樣存在梯度消失問題,但比 Sigmoid 稍微好一些。

Python 實現

def tanh(x):
 return np.tanh(x)
y = tanh(x)
plt.plot(x, y)
plt.title("Tanh Activation Function")
plt.show()

3.ReLU

ReLU(Rectified Linear Unit)函數的公式為:

圖片圖片

特點:

  • 輸出范圍在 [0, ∞) 之間。
  • 計算簡單,收斂速度快,廣泛應用于各種神經網絡中。
  • 存在 “死亡 ReLU” 問題,當輸入值為負時,梯度為 0,可能導致神經元不會再被更新。

Python 實現

def relu(x):
 return np.maximum(0, x)
y = relu(x)
plt.plot(x, y)
plt.title("ReLU Activation Function")
plt.show()

4.Leaky ReLU

Leaky ReLU 是 ReLU 的變種,允許負值通過一個很小的斜率,公式為

圖片圖片

特點

  • 解決了 ReLU 函數中神經元“死亡”的問題。
  • 允許少量的負值梯度流過,從而保持神經元的更新。

python 實現

def leaky_relu(x, alpha=0.01):
 return np.where(x > 0, x, alpha * x)
y = leaky_relu(x)
plt.plot(x, y)
plt.title("Leaky ReLU Activation Function")
plt.show()

5.PReLU

其公式為

圖片圖片

特點

  • 是 Leaky ReLU 的推廣,其中  是一個可訓練的參數。
  • 更靈活,能適應不同的數據分布。

Python實現

def prelu(x, alpha):
 return np.where(x > 0, x, alpha * x)
alpha = 0.1 # This would be learned during training
y = prelu(x, alpha)
plt.plot(x, y)
plt.title("Parametric ReLU Activation Function")
plt.show()

6.ELU

其公式為

圖片圖片

特點

  • 當 x > 0 時,ELU 的行為與 ReLU 類似,輸出為 x 本身。
  • 當 x ≤ 0 時,ELU 輸出一個負值,形如 ,其中  是一個超參數。
  • 負值部分的平滑特性可以使得平均激活接近 0,從而加快收斂速度。
  • 相較于 ReLU,ELU 在負值部分具有更好的特性,可以減輕梯度消失問題,同時保留了 ReLU 的大部分優點。

Python 實現

def elu(x, alpha=1.0):
 return np.where(x > 0, x, alpha * (np.exp(x) - 1))
y = elu(x)
plt.plot(x, y)
plt.title("ELU Activation Function")
plt.show()

7.Softmax 函數

公式為

圖片圖片

特點

  • 常用于多分類問題的輸出層。
  • 輸出的是一個概率分布,所有輸出值的和為1。

python 實現

def softmax(x):
 exp_x = np.exp(x-np.max(x))
 return exp_x / exp_x.sum(axis=0)
y = softmax(x)
plt.plot(x, y)
plt.title("Softmax Activation Function")
plt.show()

責任編輯:武曉燕 來源: 程序員學長
相關推薦

2024-11-07 08:26:31

神經網絡激活函數信號

2024-09-12 08:28:32

2024-10-17 13:05:35

神經網絡算法機器學習深度學習

2024-10-28 00:38:10

2024-11-15 13:20:02

2024-09-20 07:36:12

2025-02-21 08:29:07

2024-12-12 00:29:03

2024-12-02 01:10:04

神經網絡自然語言DNN

2024-10-05 23:00:35

2024-09-26 07:39:46

2024-11-05 12:56:06

機器學習函數MSE

2024-07-17 09:32:19

2024-09-23 09:12:20

2024-10-16 07:58:48

2024-12-03 08:16:57

2024-08-01 08:41:08

2024-10-08 15:09:17

2024-10-08 10:16:22

2024-10-28 15:52:38

機器學習特征工程數據集
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产免费一二三区 | 国产高清视频在线播放 | 亚洲电影一区二区三区 | www.操com| 日韩av在线一区 | 成人国产精品久久久 | 黄a在线观看 | 成人午夜精品 | 日韩无| 久久在线| 国产一区二区三区免费 | 日本成人中文字幕 | 欧洲一区在线观看 | 欧美日韩不卡合集视频 | 国产亚洲一区二区三区 | 神马久久av | 精品国产乱码久久久久久影片 | 欧美一级在线观看 | 日韩国产黄色片 | 亚洲综合无码一区二区 | 久久99久久99久久 | 一级大黄色片 | 日韩在线观看中文字幕 | 亚洲精品电影网在线观看 | www.天天操| 天天天天天天天干 | 国产真实精品久久二三区 | 国产激情在线 | 日本久久久久久 | av影音资源 | 亚洲午夜精品久久久久久app | 操操日| 欧美久久国产 | 521av网站| 亚洲精彩免费视频 | 亚洲一区二区三区四区五区午夜 | 人人做人人澡人人爽欧美 | a免费在线 | 久久久久国产一区二区三区四区 | 日日草夜夜草 | 欧美日韩一区二区在线 |