👏🏻 你好!欢迎访问IT教程网,0门教程,教程全部原创,计算机教程大全,全免费!

🔥 新增教程

《黑神话 悟空》游戏开发教程,共40节,完全免费,点击学习

《AI副业教程》,完全原创教程,点击学习

1 概率的定义

在学习概率论之前,我们首先要弄清楚什么是“概率”。概率是用来表示某个事件发生的可能性,是数学中描述不确定性的一种方式。接下来,我们将探讨概率的基本定义及其在实际中的应用。

概率的基本定义

概率的定义通常基于以下几个关键要素:

  1. 样本空间(Sample Space)

    • 样本空间是指一个随机试验中所有可能结果的集合。我们通常用字母 $S$ 表示样本空间。
    • 例如,掷一枚公平的六面骰子,样本空间可以表示为 $S = {1, 2, 3, 4, 5, 6}$。
  2. 事件(Event)

    • 事件是样本空间中的一个子集。也就是说,事件是由样本空间中的一个或多个结果组成的。
    • 例如,掷骰子得到偶数的事件可以表示为 $E = {2, 4, 6}$。
  3. 概率的数学定义

    • 对于一个简单事件 $E$,其概率 $P(E)$ 定义为事件发生的方式数与样本空间中所有可能结果的方式数之比。具体计算公式如下:
      $$
      P(E) = \frac{\text{事件 E 发生的方式数}}{\text{样本空间中可能的方式数}} = \frac{|E|}{|S|}
      $$
    • 其中,$|E|$ 表示事件 $E$ 中结果的数目,$|S|$ 表示样本空间中结果的数目。

概率的取值范围

概率的取值范围是 $[0, 1]$,其中:

  • $P(E) = 0$ 表示事件 $E$ 不可能发生。
  • $P(E) = 1$ 表示事件 $E$ 必然发生。

例如:

  • 若我们从一个完整的标准牌组(52张牌)中抽取一张红色牌的概率 $P(E)$ 可以计算如下:
    • 事件 $E$ 是抽到红色牌,$|E| = 26$(红桃和方块各13张),样本空间 $|S| = 52$。
    • 因此,$P(E) = \frac{26}{52} = 0.5$,表示抽到红色牌的可能性为 50%。

概率的性质

在理解概率的定义后,我们还需要掌握以下一些重要性质:

  1. 互补事件:

    • 事件 $E$ 的互补事件 $E^c$ 表示事件 $E$ 不发生的情况。
    • 互补事件的概率关系为:$P(E) + P(E^c) = 1$。
  2. 独立事件:

    • 两个事件 $A$ 和 $B$ 是独立的,意味着事件 $A$ 的发生不影响事件 $B$ 的发生,其概率满足:
      $$
      P(A \cap B) = P(A) \times P(B)
      $$
  3. 相互排斥事件:

    • 如果事件 $A$ 和事件 $B$ 不能同时发生,即 $P(A \cap B) = 0$,那么我们称这两个事件为相互排斥事件。
    • 其概率和为:
      $$
      P(A \cup B) = P(A) + P(B)
      $$

实际案例

让我们通过一个简单的案例来加深对概率定义的理解:

假设我们有一个袋子,里面有 3 个红球和 2 个蓝球。我们从中随机抽取一个球。这个情况下的样本空间和事件可以定义如下:

  • 样本空间 $S = {\text{红球1, 红球2, 红球3, 蓝球1, 蓝球2}}$,因此 $|S| = 5$。
  • 事件 $E$ 为抽到红球,$E = {\text{红球1, 红球2, 红球3}}$,因此 $|E| = 3$。

根据概率定义,我们可以计算概率:
$$
P(E) = \frac{|E|}{|S|} = \frac{3}{5} = 0.6
$$
这意味着抽取一个红球的概率是 60%。

使用Python计算概率

下面是一个简单的 Python 代码示例,用于计算不同颜色球的概率。

1
2
3
4
5
6
7
8
9
# 定义球的数量
red_balls = 3
blue_balls = 2

# 计算总球的数量和红球的概率
total_balls = red_balls + blue_balls
red_probability = red_balls / total_balls

print(f"抽到红球的概率: {red_probability:.2f}")

运行这段代码将输出:

1
抽到红球的概率: 0.60

小结

在这篇文章中,我们探讨了概率的基本定义、性质及其在实际中的应用。理解概率的这些基础概念对接下来的内容至关重要,特别是事件与样本空间的概念,它们是建立在概率定义之上的根基。

在下一篇文章中,我们将深入讨论事件与样本空间的关系,以帮助大家更好地理解概率论的基础构架。希望你能在这里学习到如何将概率概念应用到实际问题中,同时为后续学习打下良好的基础。

分享转发

2 概率论基础概念之事件与样本空间

在了解了概率的定义之后,我们需要进一步掌握概率论中的重要概念:事件与样本空间。这一节将帮助你理解这些基础概念,为后续学习条件概率与独立性打下坚实的基础。

1. 样本空间

样本空间是概率论中一个核心的概念,它是指在一次试验中所有可能的结果的集合。通常用字母 $S$ 来表示样本空间。

举例说明

假设我们有一个简单的实验:投掷一枚公平的六面骰子。那么,这个实验的样本空间可以表示为:

$$
S = {1, 2, 3, 4, 5, 6}
$$

这里的每一个元素都是一个可能的结果。

其他例子

  • 抛硬币实验:在抛一枚硬币的实验中,样本空间为 $S = {\text{正面}, \text{反面}}$。
  • 抽取扑克牌:从一副标准的52张扑克牌中随机抽取一张,样本空间为 $S$ 的所有51张牌组成。

2. 事件

事件是样本空间中的一个子集。我们可以把事件看作是我们感兴趣的结果的集合。用字母 $A$ 表示事件。

类型

事件可以分为以下几类:

  • 基本事件:样本空间中的单个结果,例如骰子投出”3”,用 $A = {3}$ 表示。
  • 复合事件:包含多个基本事件的集合,例如投出一个偶数,用 $A = {2, 4, 6}$ 表示。
  • 不可能事件:样本空间中不存在的事件,例如从一副52张扑克牌中抽到一张”Wild Card”。

举例说明

在抛硬币的实验中,事件“抛出正面”可以表示为:

$$
A = {\text{正面}}
$$

而事件“抛出反面或正面”则可以表示为整个样本空间:

$$
A = S
$$

3. 事件的运算

我们常常需要对事件进行一些运算,常见的包括:并、交、补。

3.1 事件的并

事件 $A$ 和 $B$ 的并记作 $A \cup B$,表示 $A$ 或 $B$ 发生的情形。

举例

假设在投掷骰子的实验中,事件 $A = {2, 4, 6}$(投出偶数)和事件 $B = {1, 2, 3}$(投出1、2或3),则:

$$
A \cup B = {1, 2, 3, 4, 6}
$$

3.2 事件的交

事件 $A$ 和 $B$ 的交记作 $A \cap B$,表示 $A$ 和 $B$ 同时发生的情形。

举例

继续以上的骰子实验,事件 $A = {2, 4, 6}$(投出偶数)和事件 $B = {1, 2, 3}$(投出1、2或3),则:

$$
A \cap B = {2}
$$

3.3 事件的补

事件 $A$ 的补记作 $A^c$,表示不发生 $A$ 的情况。

举例

在骰子实验中,如果事件 $A = {2, 4, 6}$,其补事件为:

$$
A^c = {1, 3, 5}
$$

4. 代码示例

下面是一个简单的 Python 代码示例,演示如何生成样本空间、定义事件,并进行并、交、补运算。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
# 定义样本空间
S = {1, 2, 3, 4, 5, 6}

# 定义事件A和B
A = {2, 4, 6}
B = {1, 2, 3}

# 事件的并
A_union_B = A.union(B)
print("A ∪ B:", A_union_B)

# 事件的交
A_intersection_B = A.intersection(B)
print("A ∩ B:", A_intersection_B)

# 事件的补
A_complement = S - A
print("A的补:", A_complement)

输出结果

运行上述代码将输出:

1
2
3
A ∪ B: {1, 2, 3, 4, 6}
A ∩ B: {2}
A的补: {1, 3, 5}

总结

在这一节中,我们讲解了样本空间与事件的基本概念,包括样本空间的定义、事件的分类及其运算。理解这些基础概念对学习接下来的条件概率与独立性等内容至关重要。希望通过案例与代码示例,能帮助你更好地掌握这一部分的内容!如有任何疑问,请随时提问。

分享转发

3 概率论基础概念之条件概率与独立性

在了解了事件与样本空间的基础上,我们进一步探讨概率论中的重要概念:条件概率与独立性。这些概念在机器学习和数据科学中扮演着至关重要的角色,因此掌握它们是进行深入研究的必要基础。

条件概率

定义

条件概率是给定某一事件发生的情况下另一个事件发生的概率。用数学符号表示,如果我们有事件 $A$ 和事件 $B$,条件概率 $P(A|B)$ 表示在事件 $B$ 已经发生的条件下事件 $A$ 发生的概率。

公式

条件概率的计算公式为:

$$
P(A|B) = \frac{P(A \cap B)}{P(B)}
$$

其中,$P(A \cap B)$ 是事件 $A$ 和事件 $B$ 同时发生的概率,而 $P(B)$ 是事件 $B$ 发生的概率。

示例

考虑一个简单的例子:从一副52张的扑克牌中抽取一张牌。假设我们希望计算抽到红色牌(事件 $A$)的条件概率,前提是我们已知抽到的牌是心形牌(事件 $B$)。

  1. 事件 $A$:抽到红色牌。
  2. 事件 $B$:抽到心形牌。

在一副扑克牌中,红色牌包括心形(13张)和方块(13张),而心形牌本身是红色的,所以有 $P(A \cap B) = P(\text{抽到心形牌}) = \frac{13}{52}$,且 $P(B) = \frac{13}{52}$。因此:

$$
P(A|B) = \frac{P(A \cap B)}{P(B)} = \frac{13/52}{13/52} = 1
$$

这表明:在已知抽到的牌是心形牌的情况下,抽到红色牌的概率为1。

代码示例

我们可以使用 Python 来模拟这个例子:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
import numpy as np

# 播种以便复现
np.random.seed(42)

# 创建一副扑克牌
cards = ['♠', '♣', '♦', '♥']
total_cards = 52
red_cards = ['♦', '♥']

# 抽取一张牌
drawn_card = np.random.choice(cards, p=[1/4]*4)
is_red = 1 if drawn_card in red_cards else 0

print(f"抽到的牌: {drawn_card}, 是否为红色: {bool(is_red)}")

独立性

定义

事件的独立性意味着一个事件的发生与另一个事件的发生没有任何影响。具体来说,事件 $A$ 和事件 $B$ 是独立的,如果满足以下关系:

$$
P(A \cap B) = P(A) \cdot P(B)
$$

示例

假设我们有两个完全独立的事件:

  1. 投一枚硬币,事件 $A$ 是“得到正面”。
  2. 投一个色子,事件 $B$ 是“得到4”。

我们知道:

  • 硬币投正面的概率 $P(A) = \frac{1}{2}$。
  • 色子投到4的概率 $P(B) = \frac{1}{6}$。

我们求 $P(A \cap B)$,即同时得到正面和4:

$$
P(A \cap B) = P(A) \cdot P(B) = \frac{1}{2} \cdot \frac{1}{6} = \frac{1}{12}
$$

代码示例

影响独立性理解的一个简单 Python 模拟代码如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
import numpy as np

# 硬币和色子的抽样函数
def flip_coin():
return np.random.choice(['正面', '反面'], p=[0.5, 0.5])

def roll_die():
return np.random.randint(1, 7) # 从1到6

# 执行多次试验
trials = 10000
independent_events = [(flip_coin(), roll_die()) for _ in range(trials)]

# 统计
count = sum(1 for outcome in independent_events if outcome[0] == '正面' and outcome[1] == 4)
probability = count / trials

print(f"经过{trials}次实验,'正面'和'4'同时发生的概率约为: {probability:.4f}")

总结

在练习了条件概率和独立性的相关概念和计算方法后,您应该能够更深入地理解这些概率论核心概念。它们不仅在理论上极为重要,在数据科学和人工智能的实际应用中也常常出现。接下来,我们将更加深入地探讨随机变量及其分布的定义。

分享转发

4 随机变量与分布之随机变量的定义

在上一篇文章中,我们讨论了概率论的基础概念,包括条件概率与独立性。这些概念是理解随机事件之间关系的基础。在本篇文章中,我们将深入探讨一个非常重要的主题——随机变量

随机变量的定义

在概率论中,随机变量是一个从随机实验中获得结果的函数。更准确地说,给定一个样本空间 $\Omega$(即所有可能的实验结果的集合),一个随机变量 $X$ 是一个到实数集 $\mathbb{R}$ 的可测函数,即

$$
X: \Omega \longrightarrow \mathbb{R}
$$

例子

假设我们进行一个掷骰子的实验,样本空间可以表示为:

$$
\Omega = {1, 2, 3, 4, 5, 6}
$$

我们可以定义一个随机变量 $X$,表示掷得的点数。这时,$X$ 的定义如下:

  • 如果结果是 1,则 $X = 1$
  • 如果结果是 2,则 $X = 2$
  • 如果结果是 3,则 $X = 3$
  • 如果结果是 4,则 $X = 4$
  • 如果结果是 5,则 $X = 5$
  • 如果结果是 6,则 $X = 6$

在这个例子中,随机变量 $X$ 映射了所有可能的骰子结果到具体的点数,这使得我们能够对其进行更进一步的分析。

随机变量的分类

随机变量一般可以分为两类:离散随机变量连续随机变量。在本篇文章中,我们主要集中在 随机变量的定义 上,因此我们将简单介绍这两种类型,并在下一篇文章中深入探讨。

  • 离散随机变量:其取值是有限或可数无限的。例如,掷骰子得出的点数 $X$,只可能是 1 到 6 中的某一个值。

  • 连续随机变量:其取值是一个区间内的所有实数。例如,测量一个人的身高 $Y$,可以为任何在该区间内的实数值。

反思随机变量的实际应用

假设我们正在开发一个AI系统来预测用户的购买行为,我们可能会将用户过去的购买次数作为一个随机变量 $X$。在这里,$X$ 可以是一个离散随机变量,取值可能为 0、1、2、……,表示用户在过去一段时间内的购买次数。

我们还可以考虑另一个随机变量 $Y$,它表示用户在网上购物的总花费,这个变量可能是一个连续随机变量,因为用户的花费可以是任意的实数值。

随机变量与分布的关系

随机变量不仅仅是概率模型中的一个简单映射,它们与概率分布密切相关。每个随机变量都有其对应的概率分布,该分布描述了随机变量取值的可能性。

概率分布的定义

概率分布定义了随机变量在每一个可能取值上的概率。对于离散随机变量 $X$,其概率分布可以用概率质量函数(PMF)来表示,记为 $P(X=x)$,其值为:

$$
P(X=x) = P({ \omega \in \Omega : X(\omega) = x })
$$

而对于连续随机变量 $Y$,我们使用概率密度函数(PDF)来描述,记为 $f_Y(y)$,满足:

$$
P(Y \in [a, b]) = \int_a^b f_Y(y) , dy
$$

案例演示

让我们通过一个简单的 Python 代码示例来计算一个离散随机变量的概率分布。例如,我们再次考虑掷骰子的随机变量 $X$,其所有可能的值为 1 到 6。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
import numpy as np
import matplotlib.pyplot as plt

# 定义随机变量 X 的值
values = np.array([1, 2, 3, 4, 5, 6])

# 计算每个值出现的概率
probabilities = np.array([1/6] * 6) # 每个值的概率都是 1/6

# 可视化概率分布
plt.bar(values, probabilities)
plt.xlabel('点数')
plt.ylabel('概率')
plt.title('掷骰子的概率分布')
plt.xticks(values)
plt.ylim(0, 1)
plt.show()

在这个例子中,我们为离散随机变量 $X$计算了概率分布,并通过条形图展示了每个点数的概率。

小结

在本篇文章中,我们定义了随机变量的概念,并阐述了随机变量与概率分布之间的关系。我们探讨了随机变量的分类,并通过案例展示了如何应用这些概念。在下一篇文章中,我们将更深入地研究离散随机变量与连续随机变量的具体性质及其应用。

请继续关注我们的系列教程,以进一步提高您在AI领域的概率论基础知识!

分享转发

5 生成随机变量与分布之离散随机变量与连续随机变量

在上一讲中,我们探讨了随机变量的定义。随机变量是从某个随机试验中获取的一种量化结果。现在,我们将讨论的主题是离散随机变量连续随机变量,这两者是理解概率分布和随机过程的重要基础。

离散随机变量

定义

离散随机变量是指其取值为可数(有限或无限可数)的随机变量。也就是说,离散随机变量的可能取值可以列表列出。例如,掷一枚公平的六面骰子时,随机变量 $X$ 表示骰子上显示的点数,$X$ 的可能取值为 {1, 2, 3, 4, 5, 6}。

概率分布

离散随机变量的概率分布常用概率质量函数(PMF)来描述。对于离散随机变量 $X$,其概率质量函数定义为:

$$
P(X = x) = p(x)
$$

其中,$p(x)$ 表示 $X$ 取值为 $x$ 的概率。

案例:掷骰子

假设我们进行一次掷骰子实验,定义随机变量 $X$ 为掷出的点数。我们有:

  • $P(X = 1) = \frac{1}{6}$
  • $P(X = 2) = \frac{1}{6}$
  • $P(X = 3) = \frac{1}{6}$
  • $P(X = 4) = \frac{1}{6}$
  • $P(X = 5) = \frac{1}{6}$
  • $P(X = 6) = \frac{1}{6}$

这些概率满足 $0 \leq p(x) \leq 1$,并且所有可能的概率之和等于1,即:

$$
\sum_{x=1}^{6} p(x) = 1
$$

代码示例

下面的代码使用Python中的numpy库模拟掷骰子的过程,并生成对应的概率分布。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
import numpy as np
import matplotlib.pyplot as plt

# 模拟掷骰子1000次
np.random.seed(0)
dice_rolls = np.random.randint(1, 7, size=1000)

# 计算概率分布
values, counts = np.unique(dice_rolls, return_counts=True)
probabilities = counts / len(dice_rolls)

# 绘图
plt.bar(values, probabilities)
plt.xticks(values)
plt.xlabel('点数')
plt.ylabel('概率')
plt.title('掷骰子的概率分布')
plt.show()

连续随机变量

定义

连续随机变量是指其取值为所有实数的随机变量。由于连续随机变量可以取无限多个值,因此其概率用概率密度函数(PDF)来描述,而不是简单的概率值。

概率密度函数

对于连续随机变量 $Y$,其概率密度函数 $f(y)$ 定义为:

$$
P(a < Y < b) = \int_a^b f(y) , dy
$$

这里,$P(a < Y < b)$ 表示随机变量 $Y$ 取值在区间 $(a, b)$ 内的概率。

案例:正态分布

考虑一个典型的连续随机变量——正态分布(也称为高斯分布)。它的概率密度函数形式为:

$$
f(y) = \frac{1}{\sigma \sqrt{2\pi}} e^{-\frac{(y - \mu)^2}{2\sigma^2}}
$$

其中,$\mu$ 是均值,$\sigma$ 是标准差。

代码示例

下面的代码展示了如何绘制正态分布的概率密度函数。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
import numpy as np
import matplotlib.pyplot as plt
from scipy.stats import norm

# 均值和标准差
mu, sigma = 0, 1

# x值范围
x = np.linspace(-5, 5, 1000)

# 计算概率密度
y = norm.pdf(x, mu, sigma)

# 绘图
plt.plot(x, y)
plt.title('标准正态分布的概率密度函数')
plt.xlabel('x')
plt.ylabel('f(x)')
plt.grid()
plt.show()

总结

在今天的教程中,我们了解了离散随机变量连续随机变量的定义、特点及它们各自的概率分布形式。在下一篇中,我们将进一步讨论累积分布函数(CDF)与概率密度函数(PDF)之间的联系与区别。这将帮助我们更好地理解随机变量的性质及其在实际问题中的应用。

希望这一讲能帮助你在概率论的学习中更进一步!

分享转发

6 随机变量与分布之累积分布函数与概率密度函数

在上一篇文章中,我们讨论了随机变量的基本概念及其分类,即离散随机变量和连续随机变量。在本篇中,我们将深入了解与这些随机变量相关的重要工具:累积分布函数(CDF)概率密度函数(PDF)。这些概念为我们进一步探讨概率分布打下了基础,这是我们下篇讨论常见概率分布(如二项分布)的前提。

1. 累积分布函数(Cumulative Distribution Function, CDF)

累积分布函数用于描述一个随机变量取值的概率,表示随机变量 $X$ 小于或等于某个特定值 $x$ 的概率。换句话说,CDF 是随机变量 $X$ 的值不超过 $x$ 的概率。

对于离散随机变量 $X$,其CDF定义为:

$$
F_X(x) = P(X \leq x) = \sum_{x_i \leq x} P(X = x_i)
$$

对于连续随机变量 $X$,CDF定义为:

$$
F_X(x) = P(X \leq x) = \int_{-\infty}^x f_X(t) dt
$$

其中,$f_X(t)$ 为随机变量 $X$ 的概率密度函数(PDF)。

1.1 示例:离散随机变量的CDF

考虑一个简单的例子,一个掷骰子的实验。我们定义随机变量 $X$ 为掷出的点数。$X$ 的可能取值为 ${1, 2, 3, 4, 5, 6}$,对应的概率为 $P(X = x) = \frac{1}{6}$。我们可以计算 $F_X(3)$:

$$
F_X(3) = P(X \leq 3) = P(X = 1) + P(X = 2) + P(X = 3) = \frac{1}{6} + \frac{1}{6} + \frac{1}{6} = \frac{1}{2}
$$

1.2 示例:连续随机变量的CDF

设 $X$ 是一个连续随机变量,具有均匀分布 $U(0, 1)$。其概率密度函数 $f_X(x)$ 为:

$$
f_X(x) =
\begin{cases}
1 & 0 \leq x \leq 1 \
0 & \text{otherwise}
\end{cases}
$$

则CDF为:

$$
F_X(x) = \int_{0}^{x} 1 , dt = x \quad (0 \leq x \leq 1)
$$

2. 概率密度函数(Probability Density Function, PDF)

概率密度函数是用于描述连续随机变量在各个取值处概率分布的函数。对于离散随机变量,我们使用概率质量函数(PMF),而对于连续随机变量,我们使用PDF。

2.1 PDF的定义

对于随机变量 $X$,如果 $X$ 的概率密度函数为 $f_X(x)$,则对于任意区间 $[a, b]$,$X$ 落在该区间内的概率为:

$$
P(a < X \leq b) = \int_{a}^{b} f_X(x) , dx
$$

PDF 具有以下性质:

  1. $f_X(x) \geq 0$ 对于所有 $x$。
  2. 整个定义域上的积分为1:

$$
\int_{-\infty}^{+\infty} f_X(x) , dx = 1
$$

2.2 示例:均匀分布的PDF

延续前面讨论的均匀分布 $U(0, 1)$,其 PDF 为:

$$
f_X(x) =
\begin{cases}
1 & 0 \leq x \leq 1 \
0 & \text{otherwise}
\end{cases}
$$

这表示在区间 $[0, 1]$ 内每个值出现的概率是均等的。

3. CDF与PDF之间的关系

对于连续随机变量,CDF和PDF之间存在密切的关系。实际上,PDF是CDF的导数:

$$
f_X(x) = \frac{d}{dx} F_X(x)
$$

反之,如果已知PDF,可以通过积分求得CDF:

$$
F_X(x) = \int_{-\infty}^x f_X(t) dt
$$

3.1 示例:从PDF到CDF

考虑上面的均匀分布,我们知道其 PDF 为 $f_X(x)$。那么,CDF为:

$$
F_X(x) =
\begin{cases}
0 & x < 0 \
x & 0 \leq x \leq 1 \
1 & x > 1
\end{cases}
$$

这种 分段函数 表达了均匀分布的特性。

3.2 Python 实例:计算CDF和PDF

下面是一个简单的Python示例,使用scipy库来计算均匀分布的CDF和PDF。

import numpy as np
import matplotlib.pyplot as plt
from scipy.stats import uniform

# 设置参数
a, b = 0, 1  # 均匀分布的区间

# 生成 x 值
x = np.linspace(-0.5, 1.5, 100)

# 计算 PDF 和 CDF
pdf = uniform.pdf(x, loc=a, scale=b)
cdf = uniform.cdf(x, loc=a, scale=b)

# 绘图
plt.figure(figsize=(10, 5))

# 绘制 PDF
plt.subplot(1, 2, 1)
plt.title('Probability Density Function (PDF)')
plt.plot(x, pdf, label='PDF', color='blue')
plt.fill_between(x, pdf, alpha=0.2)
plt.xlim(-0.5, 1.5)
plt.xlabel('x')
plt.ylabel('Density')
plt.axhline(0, color='black', lw=1)
plt.axvline(0, color='black', lw=1)

# 绘制 CDF
plt.subplot(1, 2, 2)
plt.title('Cumulative Distribution Function (CDF)')
plt.plot(x, cdf, label='CDF', color='orange')
plt.axhline(1, color='black', lw=1)
plt.axvline(1, color='black', lw=1)
plt.xlim(-0.5, 1.5)
plt.xlabel('x')
plt.ylabel('Probability')
plt.axhline(0, color='black

分享转发

7 二项分布详解

在上一篇的教程中,我们讨论了随机变量以及对应的累积分布函数与概率密度函数。本篇将深入到常见的概率分布之一——二项分布。理解二项分布不仅对基础统计学的重要性不言而喻,也对我们在数据科学与人工智能领域中的应用至关重要。

什么是二项分布?

二项分布是指在进行一系列独立的伯努利实验(即每次实验只有两个可能的结果,例如“成功”与“失败”)后,成功次数的分布。其核心思想是通过多个相同实验结果的重复,来分析成功事件的概率。

二项分布的参数

二项分布由两个参数决定:

  • $n$:实验的总次数。
  • $p$:每次实验成功的概率。

我们用随机变量 $X$ 来表示在 $n$ 次实验中成功的次数。$X$ 服从参数为 $n$ 和 $p$ 的二项分布,记作 $X \sim B(n, p)$。

二项分布的概率质量函数

二项分布的概率质量函数(PMF)定义为:

$$
P(X = k) = \binom{n}{k} p^k (1-p)^{n-k}
$$

这里,$\binom{n}{k}$ 是组合数,表示从 $n$ 次实验中选择 $k$ 次成功的方式。

期望和方差

对于二项分布,期望和方差的公式为:

  • 期望:$E(X) = n \cdot p$
  • 方差:$Var(X) = n \cdot p \cdot (1 - p)$

实际案例

我们以一个简单的抛硬币为例来说明二项分布的应用。假设我们抛一枚均匀的硬币 10 次,每次出现正面的概率为 $p = 0.5$。

  • 实验设置:$n = 10$,$p = 0.5$
  • 我们想知道:在 10 次抛掷中,得到正面(成功)次数为 3 的概率。

根据二项分布的概率质量函数,我们可以计算:

$$
P(X = 3) = \binom{10}{3} (0.5)^3 (0.5)^{10-3} = \binom{10}{3} (0.5)^{10}
$$

计算组合数:

$$
\binom{10}{3} = \frac{10!}{3! \cdot 7!} = \frac{10 \cdot 9 \cdot 8}{3 \cdot 2 \cdot 1} = 120
$$

所以,

$$
P(X = 3) = 120 \cdot (0.5)^{10} = 120 \cdot \frac{1}{1024} \approx 0.1172
$$

这个结果表明,在 10 次抛掷中得到 3 次正面的概率为约 11.72%。

代码示例

我们可以用 Python 来计算不同成功次数的概率:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
import scipy.stats as stats
import matplotlib.pyplot as plt
import numpy as np

n = 10 # 实验次数
p = 0.5 # 成功概率

# 可视化二项分布的概率质量函数
x = np.arange(0, n+1)
pmf = stats.binom.pmf(x, n, p)

plt.bar(x, pmf, color='blue', alpha=0.7)
plt.title(f'Binomial Distribution PMF (n={n}, p={p})')
plt.xlabel('Number of Successes')
plt.ylabel('Probability')
plt.xticks(x)
plt.show()

运行上面的代码可以生成一个条形图,展示在 $n=10$ 次实验中获得不同成功次数的概率分布情况。

小结

在本篇中,我们详细探讨了二项分布的定义、公式以及如何通过实际案例来计算概率。下一篇教程我们将讨论正态分布,这是概率与统计中一个更为复杂且重要的概念。在深入了解正态分布之前,确保对本篇的内容理解透彻,这是非常关键的基础知识。

分享转发

8 常见概率分布之正态分布

在概率论和统计学中,正态分布是一种极其重要的概率分布,其重要性部分来源于中央极限定理。本文将带您深入理解正态分布的性质、公式以及它在实际中的应用。

什么是正态分布?

正态分布,又称为高斯分布,是一种连续概率分布,其概率密度函数(PDF)呈钟形曲线。正态分布的公式为:

$$
f(x; \mu, \sigma) = \frac{1}{\sigma \sqrt{2\pi}} e^{-\frac{(x - \mu)^2}{2\sigma^2}}
$$

  • 其中,$ \mu $ 是均值(期望值)。
  • $ \sigma $ 是标准差,表示数据的离散程度。

正态分布的性质

  1. 对称性:正态分布关于均值$ \mu $对称。

  2. 68-95-99.7法则

    • 约68%的数据落在均值+/-1个标准差范围内。
    • 约95%的数据落在均值+/-2个标准差范围内。
    • 约99.7%的数据落在均值+/-3个标准差范围内。
  3. 线性组合的正态性:如果$ X_1, X_2, …, X_n $是独立同分布的正态随机变量,则它们的线性组合也是正态分布。

正态分布的案例

假设我们对某个城市的居民身高进行研究,已知身高服从正态分布,均值为$ \mu = 175 \text{ cm} $,标准差为$ \sigma = 10 \text{ cm} $。我们可以计算出在该城市中身高范围内的一些概率。

计算身高在165到185 cm之间的概率

首先,我们需要计算标准化值(Z值):

$$
Z_1 = \frac{165 - 175}{10} = -1
$$
$$
Z_2 = \frac{185 - 175}{10} = 1
$$

我们可以使用Z表查找对应的概率,或者使用Python代码进行计算:

1
2
3
4
5
6
7
8
9
import scipy.stats as stats

# 设置均值和标准差
mu = 175
sigma = 10

# 计算概率
prob = stats.norm.cdf(185, mu, sigma) - stats.norm.cdf(165, mu, sigma)
print(f"身高在165到185 cm之间的概率是: {prob:.4f}")

运行结果:

1
身高在165到185 cm之间的概率是: 0.6827

这意味着,在这个城镇中,约68.27%的人身高在165到185 cm之间,验证了68-95-99.7法则。

正态分布的应用

正态分布在多个领域都有广泛的应用,包括:

  • 自然和社会科学:许多自然现象和社会数据(如身高、体重、智商等)都近似服从正态分布。
  • 质量控制:在制造业中,产品的特性(如长度、重量)常常会被假设为正态分布,以便进行质量控制。
  • 其他统计分析:正态分布是许多统计分析的基础,例如t检验、ANOVA分析等。

小结

本文简要介绍了正态分布的基本概念、性质以及实际应用,并通过一个实际案例进行了演示。正态分布是概率论中的重要组成部分,理解和掌握正态分布对于进行更复杂的统计分析至关重要。

在下篇文章中,我们将继续探讨泊松分布,一种用于描述事件在固定时间间隔内发生次数的离散概率分布。请继续关注!

分享转发

9 常见概率分布之泊松分布

在前一篇中,我们学习了正态分布,它在自然界和社会科学中广泛存在,尤其适合描述大量独立随机变量的和。而在本篇中,我们将探讨泊松分布,这是一种离散概率分布,尤其适用于描述单位时间内某事件的发生次数。

泊松分布的定义

泊松分布主要用来描述在固定的时间段或空间区域内,某个事件发生的次数。设定一个固定的时间间隔或区域,若在其内某个事件发生的平均次数为 $\lambda$,那么该事件在给定的时间段内发生次数 $k$ 的概率由以下公式给出:

$$
P(X = k) = \frac{\lambda^k e^{-\lambda}}{k!}
$$

其中,$e$ 是自然对数的底数,约等于 2.71828,$k!$ 是 $k$ 的阶乘。

泊松分布的特性

  1. 参数:泊松分布仅由一个参数 $\lambda$ 描述,代表单位时间或单位面积内事件发生的平均次数。
  2. 无记忆性:泊松过程具有无记忆性,表示未来发生的事件只与当前状态有关,与过去事件无关。
  3. 事件独立性:在泊松分布中,事件的发生是独立的,即一个事件的发生不影响另一个事件的发生。

应用场景

泊松分布广泛应用于各个领域,例如:

  • 电话呼入:一家呼叫中心在一小时内接到电话的频率。
  • 事故发生:车辆在某个路口的事故发生次数。
  • 顾客到达:超市在一段时间内进入的顾客数量。

案例分析:电话呼入

假设一家呼叫中心在高峰期一小时内,平均接到电话的次数为 $\lambda = 30$。我们想知道在这一小时内,恰好接到 25 通电话的概率。

根据泊松分布公式,我们可以计算:

$$
P(X = 25) = \frac{30^{25} e^{-30}}{25!}
$$

在 Python 代码中,我们可以用 scipy 库来计算这个概率:

1
2
3
4
5
6
7
8
import scipy.stats as stats

lambda_value = 30
k_value = 25

# 计算泊松概率
probability = stats.poisson.pmf(k_value, lambda_value)
print(f"接到恰好 {k_value} 通电话的概率: {probability:.4f}")

运行结果

运行上述代码将输出接到恰好 25 通电话的概率,帮助决策者更好地理解在高峰时期的参与情况。

总结

在本篇中,我们介绍了泊松分布的定义、特性及其应用场景,尤其是通过案例说明其实际价值。泊松分布是处理离散事件时非常有用的工具,能够帮助我们应对实际问题中的随机性。

在接下来的篇幅中,我们将深入探讨几何分布,继续扩展我们的概率论知识,敬请期待!

分享转发

10 常见概率分布之几何分布

几何分布是离散概率分布的一种,主要用来描述在一系列独立的伯努利试验中,直到第一次成功所需的试验次数。换句话说,几何分布关注的是“在第几次试验中首次获得成功”。这种分布非常适合用于建模“等待时间”类型的问题。

几何分布的定义

如果一个随机变量 $X$ 表示在独立重复实验中第一次成功所需的实验次数,并且每次实验成功的概率为 $p$,那么 $X$ 服从参数为 $p$ 的几何分布,记作 $X \sim \text{Geom}(p)$。

概率质量函数

几何分布的概率质量函数(PMF)可以表示为:

$$
P(X = k) = (1-p)^{k-1} p \quad (k = 1, 2, 3, \ldots)
$$

其中,$P(X = k)$ 表示第一次成功发生在第 $k$ 次试验的概率。

累积分布函数

几何分布的累积分布函数(CDF)表示为:

$$
P(X \leq k) = 1 - (1-p)^k \quad (k = 1, 2, 3, \ldots)
$$

几何分布的性质

几何分布有几个重要的性质,它们对理解和实际应用很有帮助:

  1. 期望值

    • 几何分布的期望值 $E(X)$ 为 $\frac{1}{p}$。
  2. 方差

    • 几何分布的方差 $Var(X)$ 为 $\frac{1-p}{p^2}$。

这些性质使得几何分布在一些实际问题中非常有用,比如:

  • 求解在多次投掷一枚硬币后,第一次出现“正面”的次数。
  • 在顾客到达服务台的场景中,计算首次服务成功的顾客数量。

应用案例

投掷硬币的例子

假设你在投掷一枚公平的硬币,正面朝上的概率 $p = 0.5$。你想知道在多次投掷中,第一次出现“正面”的次数。根据几何分布的定义,我们知道这个随机变量 $X \sim \text{Geom}(0.5)$。

计算概率

我们可以计算第一次出现“正面”在第 $k$ 次投掷的概率:

比如 $k = 1$:

$$
P(X = 1) = (1-0.5)^{1-1} \cdot 0.5 = 1 \cdot 0.5 = 0.5
$$

再看 $k = 3$:

$$
P(X = 3) = (1-0.5)^{3-1} \cdot 0.5 = (0.5)^2 \cdot 0.5 = 0.25 \cdot 0.5 = 0.125
$$

这些计算结果表明,第一次成功可能在第一次或第三次尝试中发生的概率。

方差与期望计算

  • 对于投掷硬币的场景,期望值为:

$$
E(X) = \frac{1}{p} = \frac{1}{0.5} = 2
$$

这意味着,在无限多次投掷中,我们平均需要投掷 2 次才能首次达到“正面”。

  • 方差计算为:

$$
Var(X) = \frac{1-p}{p^2} = \frac{0.5}{(0.5)^2} = 2
$$

这意味着,实际的投掷次数将围绕着期望次数 2 波动,波动量为 2。

Python 示例

下面是一个简单的 Python 示例,展示了如何使用概率质量函数计算几何分布的概率:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
import numpy as np
import matplotlib.pyplot as plt

# 设定参数
p = 0.5
k = np.arange(1, 21) # 试验次数

# 计算几何分布的概率
pmf = (1 - p) ** (k - 1) * p

# 绘图展示
plt.bar(k, pmf)
plt.xlabel('试验次数 (k)')
plt.ylabel('概率 P(X=k)')
plt.title('几何分布 (p=0.5)')
plt.xticks(k)
plt.show()

在这段代码中,我们设定了概率 $p=0.5$,然后计算出了前 20 次试验中首次成功的概率,并通过条形图展示出来。

总结

几何分布是一个非常重要的概率分布,用于建模等待时间的情形,实际应用广泛。在了解了几何分布的定义、性质以及实际案例后,我们可以更好地运用其来解决实际问题。

在下一个部分,我们将深入探讨如何计算随机变量的期望值,并进一步理解它与方差的关系。这将有助于我们更全面地掌握概率论的基础知识,特别是在实际问题中的应用。

分享转发

11 计算期望值与方差之期望值

在上一篇中,我们探讨了几何分布及其应用。现在,我们将进一步深入了解在不同情境下如何计算期望值和方差,特别是方差的期望值。这一部分的内容对于理解随机变量行为及其随时间变化的特性至关重要。

期望值的定义

在概率论中,期望值(或称为均值)表示一个随机变量在多次试验中取值的加权平均。对于离散随机变量,其期望值的计算公式如下:

$$
E[X] = \sum_{i} x_i P(X = x_i)
$$

对于连续随机变量,期望值的计算则为:

$$
E[X] = \int_{-\infty}^{\infty} x f(x) dx$$

其中,$f(x)$为概率密度函数。

方差与期望值的关系

方差用于衡量随机变量取值的分散程度。其定义为:

$$
Var(X) = E[(X - E[X])^2] = E[X^2] - (E[X])^2
$$

根据上述公式可以看出,方差与期望值紧密相关。

计算期望值与方差

1. 示例:掷骰子

假设我们有一个公平的六面骰子,期望值和方差的计算如下:

  • 随机变量$X$表示骰子上显示的点数,其可能取值为$1, 2, 3, 4, 5, 6$,每个发生的概率为$\frac{1}{6}$。

期望值计算

使用期望值的公式:

$$
E[X] = \sum_{i=1}^{6} i \cdot P(X = i) = 1 \cdot \frac{1}{6} + 2 \cdot \frac{1}{6} + 3 \cdot \frac{1}{6} + 4 \cdot \frac{1}{6} + 5 \cdot \frac{1}{6} + 6 \cdot \frac{1}{6}
$$

经过计算,得到:

$$
E[X] = \frac{1 + 2 + 3 + 4 + 5 + 6}{6} = \frac{21}{6} = 3.5
$$

方差计算

接着,我们计算方差:

  1. 首先计算$E[X^2]$:

$$
E[X^2] = \sum_{i=1}^{6} i^2 \cdot P(X = i) = \frac{1}{6} (1^2 + 2^2 + 3^2 + 4^2 + 5^2 + 6^2) = \frac{1}{6} (1 + 4 + 9 + 16 + 25 + 36) = \frac{91}{6}
$$

  1. 然后根据方差的公式计算:

$$
Var(X) = E[X^2] - (E[X])^2 = \frac{91}{6} - (3.5)^2 = \frac{91}{6} - \frac{49}{4} = \frac{364 - 294}{24} = \frac{70}{24} \approx 2.917
$$

2. 期望值的期望值

期望值的期望值问题中,我们通常关注的是如何在不同的条件下计算期望值。例如,设$Y = E[X \mid Z]$代表在随机变量$Z$的条件下$X$的期望值。我们也可以通过下面的公式来处理该问题:

$$
E[E[X \mid Z]] = E[X]
$$

这种计算对于具有条件依赖关系的随机变量极其重要,也常用于贝叶斯统计中。

示例代码:Python计算

我们可以使用Python进行以上计算,代码如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
import numpy as np

# 投掷骰子的点数
point_values = np.array([1, 2, 3, 4, 5, 6])
probabilities = np.array([1/6] * 6)

# 计算期望值
E_X = np.sum(point_values * probabilities)
print(f"期望值 E[X]: {E_X}")

# 计算 E[X^2]
E_X2 = np.sum(point_values**2 * probabilities)

# 计算方差
Var_X = E_X2 - E_X**2
print(f"方差 Var(X): {Var_X}")

结论

在这一部分中,我们了解了如何计算随机变量的期望值及方差,特别是如何利用期望值来推导方差的性质。通过不断探索和计算不同案例,我们能够更好地理解随机变量的分布特性和行为。下一篇我们将深入探讨方差的性质,期待与你继续探索概率论的奥秘!

分享转发

12 方差的性质

在上一篇中,我们讨论了期望值与方差之期望值的计算,这为我们理解随机变量的分布特性奠定了基础。在本篇教程中,我们将聚焦于方差的性质,以及如何利用这些性质来分析随机变量的行为。方差作为衡量随机变量分散程度的一个重要参数,其本身的性质是理解更复杂统计概念的基础。

1. 方差的定义

方差(Variance)是度量随机变量取值的离散程度的一项统计量。对于一个随机变量 $X$,其方差定义为:

$$
\text{Var}(X) = E[(X - E[X])^2]
$$

这里,$E[X]$ 是随机变量 $X$ 的期望值(均值)。

2. 方差的基本性质

方差有一些重要的性质,我们将逐一介绍。

2.1 非负性

方差总是非负的,即:

$$
\text{Var}(X) \geq 0
$$

这意味着随机变量的取值总是围绕其期望值波动,波动的大小不会为负。这是因为方差是平方的形式,任何数的平方都是非负的。

2.2 方差与常数的关系

如果对随机变量 $X$ 加一个常数 $c$,则新随机变量 $Y = X + c$ 的方差与 $X$ 的方差相同,即:

$$
\text{Var}(Y) = \text{Var}(X)
$$

这个性质指出,加常数不会改变随机变量的离散程度。

案例

假设一个随机变量 $X$,其取值为 {1, 2, 3},期望值 $E[X] = 2$。如果我们令 $Y = X + 1$,则 $Y$ 的取值为 {2, 3, 4},其期望 $E[Y] = 3$。计算方差:

  • 对于 $X$:

    • $\text{Var}(X) = E[(X - 2)^2] = \frac{1}{3}[(1-2)^2 + (2-2)^2 + (3-2)^2] = \frac{1}{3}(1 + 0 + 1) = \frac{2}{3}$
  • 对于 $Y$:

    • $\text{Var}(Y) = E[(Y - 3)^2] = \frac{1}{3}[(2-3)^2 + (3-3)^2 + (4-3)^2] = \frac{1}{3}(1 + 0 + 1) = \frac{2}{3}$

可以看出,$\text{Var}(Y) = \text{Var}(X)$。

2.3 方差的加法性质

对于两个独立随机变量 $X$ 和 $Y$,它们的方差的和为其和的方差,即:

$$
\text{Var}(X + Y) = \text{Var}(X) + \text{Var}(Y)
$$

这意味着如果我们有多个独立的随机变量,求和之后的方差等于各方差的简单相加。

案例

设 $X$ 和 $Y$ 为两独立的随机变量,其中:

  • $\text{Var}(X) = 1$
  • $\text{Var}(Y) = 4$

那么,计算 $Z = X + Y$ 的方差:

$$
\text{Var}(Z) = \text{Var}(X) + \text{Var}(Y) = 1 + 4 = 5
$$

2.4 方差与线性变换的关系

对于一个随机变量 $X$ 和常数 $a, b$,存在线性变换 $Y = aX + b$ 带来的方差变化:

$$
\text{Var}(Y) = a^2 \cdot \text{Var}(X)
$$

这意味着在进行线性变换时,方差会被放大或缩小,但常数 $b$ 不会对方差产生影响。

示例代码

下面是一个使用Python的示例,演示方差与线性变换的关系:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
import numpy as np

# 定义随机变量X
X = np.array([1, 2, 3])
mu_X = np.mean(X)
var_X = np.var(X)

# 进行线性变换Y = 2X + 3
a = 2
b = 3
Y = a * X + b
var_Y = np.var(Y)

print(f"X的方差: {var_X:.2f}")
print(f"经过线性变换后的Y的方差: {var_Y:.2f} (应为 {a**2} * {var_X:.2f})")

2.5 方差的平方根:标准差

标准差(Standard Deviation)是方差的平方根,通常用符号 $\sigma$ 表示,它直观地表示数据的离散程度:

$$
\sigma = \sqrt{\text{Var}(X)}
$$

标准差与方差之间的关系使得我们能够更易于理解随机变量的行为,因为它与原始单位相同。

3. 小结

在这一篇中,我们详细探讨了方差的特性,包括非负性、与常数的关系、加法性质、线性变换下的行为以及与标准差的关系。这些性质在随机变量的分析与应用中提供了基础。在下篇文章中,我们将探讨方差的另一个重要相关性——协方差与相关性,帮助我们更深入理解多维随机变量之间的关系。希望你在后续学习中能将这些方差的性质运用自如!

分享转发