Jupyter AI

14 大数法则的说明

📅 发表日期: 2024年8月10日

分类: 📊AI 概率必备

👁️阅读: --

在前一篇文章中,我们探讨了期望值、方差、协方差与相关性,这些都是概率论的重要概念。接下来的讨论将围绕大数法则展开,这是概率论中的一个基本定理。它不仅在理论上具有重要意义,也在实际应用中揭示了许多有趣的现象。

大数法则的概念

大数法则是指当进行大量独立同分布的随机试验时,样本平均数会趋近于总体的期望值。简单来说,随着样本量的增加,样本数据的平均值会越来越接近真实的期望值。

形式化的定义

设有一组独立同分布的随机变量 X1,X2,,XnX_1, X_2, \ldots, X_n,它们的期望值为 E(X)E(X)。根据大数法则,当样本量 nn \to \infty 时,样本平均数 Xˉn\bar{X}_n 会几乎确定地趋近于 E(X)E(X)。而具体的数学表达为:

Xˉn=1ni=1nXi几乎必然有limnXˉn=E(X)\bar{X}_n = \frac{1}{n} \sum_{i=1}^{n} X_i \quad \text{几乎必然有} \quad \lim_{n \to \infty} \bar{X}_n = E(X)

示例:掷骰子实验

考虑一个简单的例子:掷一个公平的六面骰子。每次实验的结果 XiX_i = 1, 2, 3, 4, 5, 6,各个结果的概率均为 16\frac{1}{6}。骰子的期望值为:

E(X)=1+2+3+4+5+66=3.5E(X) = \frac{1+2+3+4+5+6}{6} = 3.5

根据大数法则,我们进行多次掷骰子实验,计算样本平均值 Xˉn\bar{X}_n。随着掷骰子的次数越来越多,Xˉn\bar{X}_n 将趋近于 3.5。

实际代码示例

我们可以使用Python来模拟这个过程:

import numpy as np
import matplotlib.pyplot as plt

# 设置随机种子以便结果可复现
np.random.seed(42)

# 定义掷骰子次数
n = 1000
# 随机模拟的掷骰子结果
dice_rolls = np.random.randint(1, 7, size=n)

# 计算样本平均值
sample_means = np.cumsum(dice_rolls) / np.arange(1, n + 1)

# 绘制样本平均值的变化
plt.figure(figsize=(10, 5))
plt.plot(sample_means, label='Sample Mean')
plt.axhline(3.5, color='red', linestyle='--', label='Expected Value (3.5)')
plt.xlabel('Number of Trials')
plt.ylabel('Sample Mean')
plt.title('Convergence of Sample Mean to Expected Value')
plt.legend()
plt.grid()
plt.show()

在这个代码示例中,我们模拟了 1000 次掷骰子的实验,并计算了每一步的样本平均值。最终结果的图形展示了样本平均值如何随着实验次数的增加逐渐接近 3.5。

关键点总结

  • 大数法则揭示了在大量独立同分布随机变量下,样本均值趋近于总体期望值的现象。
  • 实际应用中,这一规律帮助我们理解数据的稳定性与普遍性,是基础统计学中至关重要的概念。

在接下来的文章中,我们将重点讨论中心极限定理,探讨其与大数法则的关系以及在实际中的应用,这将使我们对概率论的理解更加深刻。请继续关注!