1. 概率基础与随机变量

概率 是衡量事件发生可能性大小的数值。随机变量 是一个其数值由随机事件决定的变量。期望 (E) 是随机变量所有可能取值的加权平均,而方差 (Var) 衡量的是随机变量取值的分散程度。

动手试试:

模拟投掷一枚六面骰子,观察多次投掷后各个点数出现的频率,并计算样本的期望和方差。

import numpy as np # 模拟投掷100次骰子 rolls = np.random.randint(1, 7, size=100) # 计算期望和方差 expected_value = np.mean(rolls) variance = np.var(rolls) print(f"投掷100次的结果 (前10个): {rolls[:10]}") print(f"期望: {expected_value:.2f}") print(f"方差: {variance:.2f}")
模拟结果:

2. 条件概率与贝叶斯定理

条件概率 P(A|B) 是在事件 B 已经发生的条件下,事件 A 发生的概率。贝叶斯定理 描述了在已知相关证据或背景的情况下,一个假设的后验概率。

动手试试:

假设有一种疾病,人群中的患病率为 1%。一种检测方法的准确率为 99%(即真阳性率和真阴性率均为99%)。如果一个人检测结果为阳性,他真正患病的概率是多少?调整参数看看结果如何变化。

# P(A): 先验概率 (患病率) p_a = 0.01 # P(B|A): 灵敏度 (真阳性率) p_b_given_a = 0.99 # P(B|~A): 假阳性率 (1 - 特异度) p_b_given_not_a = 0.01 # P(B) = P(B|A)*P(A) + P(B|~A)*P(~A) p_b = p_b_given_a * p_a + p_b_given_not_a * (1 - p_a) # P(A|B) = (P(B|A) * P(A)) / P(B) p_a_given_b = (p_b_given_a * p_a) / p_b print(f"后验概率 P(A|B): {p_a_given_b:.2%}")
检测为阳性后,实际患病的概率:

3. 常见概率分布

不同的随机现象遵循不同的概率分布。正态分布(高斯分布)和泊松分布是最常见的两种。

交互式图表: