17 卷积神经网络(CNN)之卷积与池化操作
在上一篇文章中,我们介绍了深度学习与神经网络的基本概念,特别是梯度下降与优化算法。在这一篇中,我们将深入探讨卷积神经网络(CNN)的核心操作:卷积
和池化
。这些操作是构建任何CNN的基础,了解它们的工作原理对于理解深度学习中的图像处理非常重要。
卷积操作
什么是卷积?
在CNN中,卷积
(Convolution)是一种特殊的运算,用于提取输入数据的特征。卷积操作通过对特征图和卷积核(或滤波器)进行滑动相乘的方式,提取图像中的局部特征。
卷积的数学定义
我们可以将输入的图像视为一个二维矩阵,而卷积核也是一个二维矩阵。实际的卷积操作可以用下面的公式表示:
其中:
- 是输出特征图的像素值。
- 是输入图像的像素值。
- 是卷积核的像素值。
注意:卷积的输入和输出的尺寸一般是不同的,这取决于卷积核的大小,以及边界处理方式(如填充,或stride步幅)。
案例:卷积操作示例
假设我们有一个简单的 输入图像和一个 卷积核:
输入图像 :
1 2 3 0 1
0 1 2 3 2
1 0 1 2 1
2 1 0 1 0
1 2 3 2 1
卷积核 :
1 0 -1
1 0 -1
1 0 -1
我们可以通过应用卷积操作来计算特征图 。在具体实现中,我们通常会使用边界填充和步幅:
import numpy as np
# 定义输入图像和卷积核
I = np.array([[1, 2, 3, 0, 1],
[0, 1, 2, 3, 2],
[1, 0, 1, 2, 1],
[2, 1, 0, 1, 0],
[1, 2, 3, 2, 1]])
K = np.array([[1, 0, -1],
[1, 0, -1],
[1, 0, -1]])
# 定义卷积函数
def convolution2D(image, kernel):
kernel_height, kernel_width = kernel.shape
image_height, image_width = image.shape
# 输出特征图尺寸
output_height = image_height - kernel_height + 1
output_width = image_width - kernel_width + 1
output = np.zeros((output_height, output_width))
# 进行卷积操作
for i in range(output_height):
for j in range(output_width):
output[i, j] = np.sum(image[i:i + kernel_height, j:j + kernel_width] * kernel)
return output
S = convolution2D(I, K)
print(S)
卷积的好处
卷积
操作有几个显著的优点:
- 参数共享:通过使用相同的卷积核来处理整个图像,减少了模型的参数数量。
- 局部连接:卷积操作专注于局部区域,使得模型能够有效地捕捉局部特征。
- 平移不变性:卷积神经网络具有一定的平移不变性,使得对象的识别不受位置变化的影响。
池化操作
什么是池化?
池化
(Pooling)是一种下采样操作,用于减少特征图的尺寸,从而减少计算量和防止过拟合。池化操作通常会提取特征图中的最重要的信息。
池化的类型
常见的池化操作包括最大池化
(Max Pooling)和平均池化
(Average Pooling)。最大池化选择池化窗口内的最大值,而平均池化则计算池化窗口内的平均值。
最大池化的数学定义
最大池化的操作可以用下面的公式表达:
其中, 是池化后的特征图的像素值,而 表示池化窗口的位置。
案例:最大池化示例
假设我们有以下特征图 :
1 2 3
0 1 2
1 0 1
应用 的最大池化:
# 定义最大池化函数
def max_pooling2D(image, size=(2, 2)):
pool_height, pool_width = size
image_height, image_width = image.shape
# 输出特征图尺寸
output_height = image_height // pool_height
output_width = image_width // pool_width
output = np.zeros((output_height, output_width))
# 进行池化操作
for i in range(0, image_height, pool_height):
for j in range(0, image_width, pool_width):
output[i // pool_height, j // pool_width] = np.max(image[i:i + pool_height, j:j + pool_width])
return output
S = np.array([[1, 2, 3],
[0, 1, 2],
[1, 0, 1]])
P = max_pooling2D(S)
print(P)
池化的好处
池化
操作有以下好处:
- 减少特征图的尺寸:这减少了下一层的计算需求。
- 特征提取:保留最重要的特征,抑制不重要的信息。
- 增强模型的容错性:池化操作能够增强网络对于输入数据微小变化的鲁棒性。
总结
在本篇文章中,我们深入探讨了卷积神经网络中的卷积
和池化
操作。卷积
负责提取图像的特征