4 AI必备概率论小白教程系列:随机变量与分布之随机变量的定义
在上一篇文章中,我们讨论了概率论的基础概念,包括条件概率与独立性。这些概念是理解随机事件之间关系的基础。在本篇文章中,我们将深入探讨一个非常重要的主题——随机变量。
随机变量的定义
在概率论中,随机变量是一个从随机实验中获得结果的函数。更准确地说,给定一个样本空间 (即所有可能的实验结果的集合),一个随机变量 是一个到实数集 的可测函数,即
例子
假设我们进行一个掷骰子的实验,样本空间可以表示为:
我们可以定义一个随机变量 ,表示掷得的点数。这时, 的定义如下:
- 如果结果是 1,则
- 如果结果是 2,则
- 如果结果是 3,则
- 如果结果是 4,则
- 如果结果是 5,则
- 如果结果是 6,则
在这个例子中,随机变量 映射了所有可能的骰子结果到具体的点数,这使得我们能够对其进行更进一步的分析。
随机变量的分类
随机变量一般可以分为两类:离散随机变量和连续随机变量。在本篇文章中,我们主要集中在 随机变量的定义 上,因此我们将简单介绍这两种类型,并在下一篇文章中深入探讨。
-
离散随机变量:其取值是有限或可数无限的。例如,掷骰子得出的点数 ,只可能是 1 到 6 中的某一个值。
-
连续随机变量:其取值是一个区间内的所有实数。例如,测量一个人的身高 ,可以为任何在该区间内的实数值。
反思随机变量的实际应用
假设我们正在开发一个AI系统来预测用户的购买行为,我们可能会将用户过去的购买次数作为一个随机变量 。在这里, 可以是一个离散随机变量,取值可能为 0、1、2、……,表示用户在过去一段时间内的购买次数。
我们还可以考虑另一个随机变量 ,它表示用户在网上购物的总花费,这个变量可能是一个连续随机变量,因为用户的花费可以是任意的实数值。
随机变量与分布的关系
随机变量不仅仅是概率模型中的一个简单映射,它们与概率分布密切相关。每个随机变量都有其对应的概率分布,该分布描述了随机变量取值的可能性。
概率分布的定义
概率分布定义了随机变量在每一个可能取值上的概率。对于离散随机变量 ,其概率分布可以用概率质量函数(PMF)来表示,记为 ,其值为:
而对于连续随机变量 ,我们使用概率密度函数(PDF)来描述,记为 ,满足:
案例演示
让我们通过一个简单的 Python 代码示例来计算一个离散随机变量的概率分布。例如,我们再次考虑掷骰子的随机变量 ,其所有可能的值为 1 到 6。
import numpy as np
import matplotlib.pyplot as plt
# 定义随机变量 X 的值
values = np.array([1, 2, 3, 4, 5, 6])
# 计算每个值出现的概率
probabilities = np.array([1/6] * 6) # 每个值的概率都是 1/6
# 可视化概率分布
plt.bar(values, probabilities)
plt.xlabel('点数')
plt.ylabel('概率')
plt.title('掷骰子的概率分布')
plt.xticks(values)
plt.ylim(0, 1)
plt.show()
在这个例子中,我们为离散随机变量 计算了概率分布,并通过条形图展示了每个点数的概率。
小结
在本篇文章中,我们定义了随机变量的概念,并阐述了随机变量与概率分布之间的关系。我们探讨了随机变量的分类,并通过案例展示了如何应用这些概念。在下一篇文章中,我们将更深入地研究离散随机变量与连续随机变量的具体性质及其应用。
请继续关注我们的系列教程,以进一步提高您在AI领域的概率论基础知识!