Jupyter AI

6 贝叶斯定理基础之更新规则与例子

📅 发表日期: 2024年8月15日

分类: 📊贝叶斯学习入门

👁️阅读: --

在上一篇中,我们介绍了贝叶斯定理的基本概念,包括先验分布和后验分布。现在,我们将深入探讨贝叶斯定理中的更新规则,即如何通过观测数据来更新我们的信念(或模型参数)。

贝叶斯定理回顾

首先,我们简要回顾一下贝叶斯定理的形式。贝叶斯定理可以如下表示:

P(HD)=P(DH)P(H)P(D)P(H|D) = \frac{P(D|H) \cdot P(H)}{P(D)}

其中,

  • P(HD)P(H|D) 为后验概率,即我们在观察数据 DD 后,关于假设 HH 的更新信念。
  • P(DH)P(D|H) 为似然函数,表示在假设 HH 为真时观察到数据 DD 的概率。
  • P(H)P(H) 为先验概率,我们在观察数据之前对假设 HH 的信念。
  • P(D)P(D) 为边际概率,确保所有可能结果的概率总和为 1。

更新规则

通过上面的公式,我们可以看到,后验概率是如何依赖于先验概率和数据的。不同于经典统计方法,贝叶斯学习强调了利用先验知识的过程。一旦新的数据被观察到,我们可以利用贝叶斯公式对我们对某一假设的信念进行更新。

更新概率的过程

在实际应用中,假设我们在某个实验中,要判定一个硬币是否是公平的。我们的假设集可以是:

  • H1H_1: 硬币是公平的。
  • H2H_2: 硬币是不公平的。

假设先验概率

在没有任何数据之前,我们可能对这两个假设的先验概率做出如下评估:

  • P(H1)=0.5P(H_1) = 0.5
  • P(H2)=0.5P(H_2) = 0.5

收集数据

假设我们进行了一次实验,扔这枚硬币 10 次,结果为 7 次正面,3 次反面。我们需要计算出在观察到该结果后更新这两个假设的概率。

计算似然

接下来,我们计算在这两个假设下结果的似然性:

  • 若硬币是公平的,观察到 7 次正面和 3 次反面,似然为: P(DH1)=(107)(0.5)7(0.5)3=10!7!3!(0.5)10P(D|H_1) = \binom{10}{7} \cdot (0.5)^{7} \cdot (0.5)^{3} = \frac{10!}{7!3!} \cdot (0.5)^{10}

计算结果为 P(DH1)=0.1172P(D|H_1) = 0.1172

  • 若硬币是不公平的,假设它的正面概率为 0.8,似然为: P(DH2)=(107)(0.8)7(0.2)3=10!7!3!(0.8)7(0.2)3P(D|H_2) = \binom{10}{7} \cdot (0.8)^{7} \cdot (0.2)^{3} = \frac{10!}{7!3!} \cdot (0.8)^{7} \cdot (0.2)^{3}

计算结果为 P(DH2)=0.2013P(D|H_2) = 0.2013

更新后验概率

现在,我们可以应用贝叶斯定理更新后验概率:

  1. 首先计算边际概率 P(D)P(D)
P(D)=P(DH1)P(H1)+P(DH2)P(H2)=0.11720.5+0.20130.5=0.15825P(D) = P(D|H_1) \cdot P(H_1) + P(D|H_2) \cdot P(H_2) = 0.1172 \cdot 0.5 + 0.2013 \cdot 0.5 = 0.15825
  1. 然后计算后验概率:
  • 对于 H1H_1
P(H1D)=P(DH1)P(H1)P(D)=0.11720.50.158250.3704P(H_1|D) = \frac{P(D|H_1) \cdot P(H_1)}{P(D)} = \frac{0.1172 \cdot 0.5}{0.15825} \approx 0.3704
  • 对于 H2H_2
P(H2D)=P(DH2)P(H2)P(D)=0.20130.50.158250.6296P(H_2|D) = \frac{P(D|H_2) \cdot P(H_2)}{P(D)} = \frac{0.2013 \cdot 0.5}{0.15825} \approx 0.6296

最终,我们得到:

  • P(H1D)0.3704P(H_1|D) \approx 0.3704
  • P(H2D)0.6296P(H_2|D) \approx 0.6296

从这些计算可以看出,经过观察数据,我们对硬币不公平的假设的信念有所增强。

结论

通过上述示例,我们看到如何应用贝叶斯定理进行概率更新。这个过程允许我们整合新的数据并动态调整对假设的信念。在实际中,贝叶斯学习的强大之处在于它允许利用先前的知识,同时使我们能够在不断变化的环境中进行自我修正。

在下一篇文章中,我们将讨论最大后验估计 (MAP),继续深入贝叶斯统计推断的世界,具备实用的参数估计方法。希望大家继续关注。