17 交叉验证

在机器学习中,模型的性能评估是至关重要的一步。为了确保我们评估的公正性,特别是当数据相对较少时,交叉验证是一个非常有用的方法。本节将详细介绍交叉验证的概念、原理、不同的交叉验证方法以及如何在 Scikit-Learn 框架中实现交叉验证。

什么是交叉验证?

交叉验证是一种评估机器学习模型泛化能力的方法。它通过将数据集分成多个子集,以确保模型在未见过的数据上也能表现良好。最常用的交叉验证方法是 K 折交叉验证

K 折交叉验证 中,数据集会被分成 K 个相同的部分。然后进行 K 次训练和验证,每次使用其中一个部分作为验证集,其余的作为训练集。最后,对 K 次训练结果进行平均,以得到模型的最终性能估计。

交叉验证的步骤

  1. 将数据集分成 K 个折(fold)。
  2. 每次取一个折作为验证集,其余的折作为训练集。
  3. 训练模型并在验证集上评估性能。
  4. 重复以上步骤,直到每个折都被用作验证集一次。
  5. 计算所有验证的平均性能指标。

K 折交叉验证的实现

让我们通过一个简单的例子来演示如何在 Scikit-Learn 中实施 K 折交叉验证。我们将使用 Iris 数据集,这是一个常用的分类数据集。

示例代码

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
import numpy as np
from sklearn.datasets import load_iris
from sklearn.model_selection import cross_val_score
from sklearn.ensemble import RandomForestClassifier

# 加载 Iris 数据集
iris = load_iris()
X = iris.data
y = iris.target

# 定义模型
model = RandomForestClassifier(n_estimators=100, random_state=42)

# 进行 5 折交叉验证
scores = cross_val_score(model, X, y, cv=5)

# 输出结果
print("每折的准确率:", scores)
print("平均准确率:", np.mean(scores))

在这段代码中,我们首先加载了 Iris 数据集,然后定义了一个 随机森林分类器 作为我们的模型。随后,我们使用 cross_val_score 函数进行 5 折交叉验证,最后输出每一折的准确率和模型的平均准确率。

交叉验证的优点

  • 减少过拟合风险:通过在多个子集上验证模型,可以有效评估模型对未见数据的表现,降低过拟合的风险。
  • 更加稳健的性能估计:通过多次训练和验证,得出的性能指标会比单一训练/测试划分更加可靠。

其他交叉验证的方法

除了 K 折交叉验证,还有其它几种常用的交叉验证方法:

  1. 留一交叉验证(Leave-One-Out Cross-Validation, LOOCV):在这种方法中,每次将一个样本用作验证集,其余样本用作训练集。对于数据量较少的情况,这种方法可以提供较好的性能估计,但计算成本较高。

  2. 分层 K 折交叉验证(Stratified K-Folds):在任务中,如果目标变量的类别不平衡,可以使用这种方法,确保每个折中各类样本的比例与整个数据集中的比例相同。

  3. 时间序列交叉验证:在处理时间序列数据时,可以使用时间序列特有的交叉验证方法,如 TimeSeriesSplit,确保训练集总是早于验证集。

小结

在本节中,我们介绍了 交叉验证 的基本概念和实现方法。通过使用交叉验证,我们可以更好地评估模型性能,并降低过拟合的风险。在下一节中,我们将讨论 模型比较,探索如何在不同模型之间进行有效的比较与选择。

交叉验证在机器学习模型的开发和评估过程中是一个非常重要的工具,掌握它将使你在构建和评估模型时更加游刃有余。

作者

AI免费学习网(郭震)

发布于

2024-08-15

更新于

2024-08-16

许可协议

分享转发

学习下节

交流

更多教程加公众号

更多教程加公众号

加入星球获取PDF

加入星球获取PDF

打卡评论