17 卷积神经网络(CNN)之卷积与池化操作

在上一篇文章中,我们介绍了深度学习与神经网络的基本概念,特别是梯度下降与优化算法。在这一篇中,我们将深入探讨卷积神经网络(CNN)的核心操作:卷积池化。这些操作是构建任何CNN的基础,了解它们的工作原理对于理解深度学习中的图像处理非常重要。

卷积操作

什么是卷积?

在CNN中,卷积(Convolution)是一种特殊的运算,用于提取输入数据的特征。卷积操作通过对特征图和卷积核(或滤波器)进行滑动相乘的方式,提取图像中的局部特征。

卷积的数学定义

我们可以将输入的图像视为一个二维矩阵,而卷积核也是一个二维矩阵。实际的卷积操作可以用下面的公式表示:

$$
S(i, j) = \sum_m \sum_n I(m, n) \cdot K(i - m, j - n)
$$

其中:

  • $S(i, j)$ 是输出特征图的像素值。
  • $I(m, n)$ 是输入图像的像素值。
  • $K(i, j)$ 是卷积核的像素值。

注意:卷积的输入和输出的尺寸一般是不同的,这取决于卷积核的大小,以及边界处理方式(如填充,或stride步幅)。

案例:卷积操作示例

假设我们有一个简单的 $5 \times 5$ 输入图像和一个 $3 \times 3$ 卷积核:

输入图像 $I$:

1
2
3
4
5
1 2 3 0 1
0 1 2 3 2
1 0 1 2 1
2 1 0 1 0
1 2 3 2 1

卷积核 $K$:

1
2
3
1 0 -1
1 0 -1
1 0 -1

我们可以通过应用卷积操作来计算特征图 $S$。在具体实现中,我们通常会使用边界填充和步幅:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
import numpy as np

# 定义输入图像和卷积核
I = np.array([[1, 2, 3, 0, 1],
[0, 1, 2, 3, 2],
[1, 0, 1, 2, 1],
[2, 1, 0, 1, 0],
[1, 2, 3, 2, 1]])

K = np.array([[1, 0, -1],
[1, 0, -1],
[1, 0, -1]])

# 定义卷积函数
def convolution2D(image, kernel):
kernel_height, kernel_width = kernel.shape
image_height, image_width = image.shape

# 输出特征图尺寸
output_height = image_height - kernel_height + 1
output_width = image_width - kernel_width + 1
output = np.zeros((output_height, output_width))

# 进行卷积操作
for i in range(output_height):
for j in range(output_width):
output[i, j] = np.sum(image[i:i + kernel_height, j:j + kernel_width] * kernel)

return output

S = convolution2D(I, K)
print(S)

卷积的好处

卷积操作有几个显著的优点:

  1. 参数共享:通过使用相同的卷积核来处理整个图像,减少了模型的参数数量。
  2. 局部连接:卷积操作专注于局部区域,使得模型能够有效地捕捉局部特征。
  3. 平移不变性:卷积神经网络具有一定的平移不变性,使得对象的识别不受位置变化的影响。

池化操作

什么是池化?

池化(Pooling)是一种下采样操作,用于减少特征图的尺寸,从而减少计算量和防止过拟合。池化操作通常会提取特征图中的最重要的信息。

池化的类型

常见的池化操作包括最大池化(Max Pooling)和平均池化(Average Pooling)。最大池化选择池化窗口内的最大值,而平均池化则计算池化窗口内的平均值。

最大池化的数学定义

最大池化的操作可以用下面的公式表达:

$$
P(i, j) = \max_{(m,n) \in W} S(m, n)
$$

其中,$P(i, j)$ 是池化后的特征图的像素值,而 $W$ 表示池化窗口的位置。

案例:最大池化示例

假设我们有以下特征图 $S$:

1
2
3
1 2 3
0 1 2
1 0 1

应用 $2 \times 2$ 的最大池化:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
# 定义最大池化函数
def max_pooling2D(image, size=(2, 2)):
pool_height, pool_width = size
image_height, image_width = image.shape

# 输出特征图尺寸
output_height = image_height // pool_height
output_width = image_width // pool_width
output = np.zeros((output_height, output_width))

# 进行池化操作
for i in range(0, image_height, pool_height):
for j in range(0, image_width, pool_width):
output[i // pool_height, j // pool_width] = np.max(image[i:i + pool_height, j:j + pool_width])

return output

S = np.array([[1, 2, 3],
[0, 1, 2],
[1, 0, 1]])

P = max_pooling2D(S)
print(P)

池化的好处

池化操作有以下好处:

  1. 减少特征图的尺寸:这减少了下一层的计算需求。
  2. 特征提取:保留最重要的特征,抑制不重要的信息。
  3. 增强模型的容错性:池化操作能够增强网络对于输入数据微小变化的鲁棒性。

总结

在本篇文章中,我们深入探讨了卷积神经网络中的卷积池化操作。卷积负责提取图像的特征

17 卷积神经网络(CNN)之卷积与池化操作

https://zglg.work/cv-network-tutorial/17/

作者

IT教程网(郭震)

发布于

2024-08-10

更新于

2024-08-11

许可协议

分享转发

交流

更多教程加公众号

更多教程加公众号

加入星球获取PDF

加入星球获取PDF

打卡评论