Jupyter AI

17 卷积神经网络(CNN)之卷积与池化操作

📅 发表日期: 2024年8月10日

分类: 🧠计算机视觉网络教程

👁️阅读: --

在上一篇文章中,我们介绍了深度学习与神经网络的基本概念,特别是梯度下降与优化算法。在这一篇中,我们将深入探讨卷积神经网络(CNN)的核心操作:卷积池化。这些操作是构建任何CNN的基础,了解它们的工作原理对于理解深度学习中的图像处理非常重要。

卷积操作

什么是卷积?

在CNN中,卷积(Convolution)是一种特殊的运算,用于提取输入数据的特征。卷积操作通过对特征图和卷积核(或滤波器)进行滑动相乘的方式,提取图像中的局部特征。

卷积的数学定义

我们可以将输入的图像视为一个二维矩阵,而卷积核也是一个二维矩阵。实际的卷积操作可以用下面的公式表示:

S(i,j)=mnI(m,n)K(im,jn)S(i, j) = \sum_m \sum_n I(m, n) \cdot K(i - m, j - n)

其中:

  • S(i,j)S(i, j) 是输出特征图的像素值。
  • I(m,n)I(m, n) 是输入图像的像素值。
  • K(i,j)K(i, j) 是卷积核的像素值。

注意:卷积的输入和输出的尺寸一般是不同的,这取决于卷积核的大小,以及边界处理方式(如填充,或stride步幅)。

案例:卷积操作示例

假设我们有一个简单的 5×55 \times 5 输入图像和一个 3×33 \times 3 卷积核:

输入图像 II

1 2 3 0 1
0 1 2 3 2
1 0 1 2 1
2 1 0 1 0
1 2 3 2 1

卷积核 KK

1 0 -1
1 0 -1
1 0 -1

我们可以通过应用卷积操作来计算特征图 SS。在具体实现中,我们通常会使用边界填充和步幅:

import numpy as np

# 定义输入图像和卷积核
I = np.array([[1, 2, 3, 0, 1],
              [0, 1, 2, 3, 2],
              [1, 0, 1, 2, 1],
              [2, 1, 0, 1, 0],
              [1, 2, 3, 2, 1]])

K = np.array([[1, 0, -1],
              [1, 0, -1],
              [1, 0, -1]])

# 定义卷积函数
def convolution2D(image, kernel):
    kernel_height, kernel_width = kernel.shape
    image_height, image_width = image.shape

    # 输出特征图尺寸
    output_height = image_height - kernel_height + 1
    output_width = image_width - kernel_width + 1
    output = np.zeros((output_height, output_width))

    # 进行卷积操作
    for i in range(output_height):
        for j in range(output_width):
            output[i, j] = np.sum(image[i:i + kernel_height, j:j + kernel_width] * kernel)
    
    return output

S = convolution2D(I, K)
print(S)

卷积的好处

卷积操作有几个显著的优点:

  1. 参数共享:通过使用相同的卷积核来处理整个图像,减少了模型的参数数量。
  2. 局部连接:卷积操作专注于局部区域,使得模型能够有效地捕捉局部特征。
  3. 平移不变性:卷积神经网络具有一定的平移不变性,使得对象的识别不受位置变化的影响。

池化操作

什么是池化?

池化(Pooling)是一种下采样操作,用于减少特征图的尺寸,从而减少计算量和防止过拟合。池化操作通常会提取特征图中的最重要的信息。

池化的类型

常见的池化操作包括最大池化(Max Pooling)和平均池化(Average Pooling)。最大池化选择池化窗口内的最大值,而平均池化则计算池化窗口内的平均值。

最大池化的数学定义

最大池化的操作可以用下面的公式表达:

P(i,j)=max(m,n)WS(m,n)P(i, j) = \max_{(m,n) \in W} S(m, n)

其中,P(i,j)P(i, j) 是池化后的特征图的像素值,而 WW 表示池化窗口的位置。

案例:最大池化示例

假设我们有以下特征图 SS

1 2 3
0 1 2
1 0 1

应用 2×22 \times 2 的最大池化:

# 定义最大池化函数
def max_pooling2D(image, size=(2, 2)):
    pool_height, pool_width = size
    image_height, image_width = image.shape

    # 输出特征图尺寸
    output_height = image_height // pool_height
    output_width = image_width // pool_width
    output = np.zeros((output_height, output_width))

    # 进行池化操作
    for i in range(0, image_height, pool_height):
        for j in range(0, image_width, pool_width):
            output[i // pool_height, j // pool_width] = np.max(image[i:i + pool_height, j:j + pool_width])
    
    return output

S = np.array([[1, 2, 3],
              [0, 1, 2],
              [1, 0, 1]])

P = max_pooling2D(S)
print(P)

池化的好处

池化操作有以下好处:

  1. 减少特征图的尺寸:这减少了下一层的计算需求。
  2. 特征提取:保留最重要的特征,抑制不重要的信息。
  3. 增强模型的容错性:池化操作能够增强网络对于输入数据微小变化的鲁棒性。

总结

在本篇文章中,我们深入探讨了卷积神经网络中的卷积池化操作。卷积负责提取图像的特征

🧠计算机视觉网络教程 (滚动鼠标查看)