15 深度学习与神经网络之前向传播与反向传播
在上一篇中,我们讨论了神经元模型与激活函数,它们是构建深度学习模型的基本单元。接下来,我们将深入探讨两个关键过程:前向传播
和反向传播
。这两者是神经网络训练的核心机制。
前向传播
在神经网络中,前向传播
是指输入数据通过网络进行处理的过程。这一过程涉及到每个神经元的计算,最终输出网络的预测结果。
1. 前向传播过程
假设我们有一个简单的全连接网络,包含输入层、一个隐藏层以及输出层。假设输入层的节点数为 ,隐藏层的节点数为 ,输出层的节点数为 。
步骤如下:
-
输入层传递输入向量: 输入向量可以表示为 。
-
计算隐藏层输出: 隐藏层到每个神经元的输入是前一层(输入层)的输出与相应的权重相乘并加上偏置:
其中, 是从输入层到隐藏层的权重矩阵, 是隐藏层的偏置向量。然后,经过激活函数激活:
其中, 是选择的激活函数,如ReLU、Sigmoid等。
-
计算输出层输出: 输出层的计算过程与隐藏层类似,设置 为输入:
激活得到输出:
在分类任务中,我们通常使用
softmax
函数作为输出层的激活函数,以获得各类别的概率分布。
2. 示例代码
下面是一个使用Python和NumPy库实现简单前向传播的示例代码:
import numpy as np
# 定义激活函数
def sigmoid(x):
return 1 / (1 + np.exp(-x))
# 前向传播示例
def forward_propagation(X, W1, b1, W2, b2):
# 隐藏层计算
Z1 = np.dot(W1, X) + b1
A1 = sigmoid(Z1)
# 输出层计算
Z2 = np.dot(W2, A1) + b2
A2 = np.exp(Z2) / np.sum(np.exp(Z2), axis=0) # softmax
return A1, A2
# 假设输入和参数
X = np.array([[0.1], [0.2]])
W1 = np.random.rand(3, 2) # 隐藏层权重
b1 = np.random.rand(3, 1) # 隐藏层偏置
W2 = np.random.rand(2, 3) # 输出层权重
b2 = np.random.rand(2, 1) # 输出层偏置
A1, A2 = forward_propagation(X, W1, b1, W2, b2)
print("隐藏层输出:", A1)
print("最终输出:", A2)
在这个例子中,我们定义了一个简单的前向传播过程,得到了隐藏层和输出层的结果。
反向传播
反向传播
是用来训练神经网络的过程,其目标是通过调整权重和偏置来减少网络的误差。反向传播的核心是应用链式法则计算损失函数关于各个参数的梯度。
1. 反向传播过程
-
计算输出误差: 输出层的误差为:
其中, 是实际标签。
-
计算输出层梯度: 输出层权重梯度为:
输出层偏置梯度为:
-
反向传播到隐藏层: 隐藏层的误差由输出层的误差通过权重传递回来的:
其中, 表示Hadamard乘积, 是激活函数的导数。
-
计算隐藏层梯度: 隐藏层权重梯度为:
隐藏层偏置梯度为:
2. 示例代码
下面是相应的反向传播的实现示例:
# 反向传播示例
def backward_propagation(X, Y, A1, A2, W2):
m = Y.shape[1] # 样本数
# 计算误差
delta2 = A2 - Y
dW2 = np.dot(delta2, A1.T) / m
db2 = np.sum(delta2, axis=1, keepdims=True) / m
# 传播到隐藏层
delta1 = np.dot(W2.T, delta2) * (A1 * (1 - A1)) # sigmoid的导数
dW1 = np.dot(delta1, X.T) / m
db1 = np.sum(delta1, axis=1, keepdims=True) / m
return dW1, db1, d