AI学习路线图:概率论
概率论是研究随机现象数量规律的数学分支。在人工智能领域,它为处理不确定性、进行预测和构建学习模型提供了理论基础。
1. 概率基础与随机变量
概率 是衡量事件发生可能性大小的数值。随机变量 是一个其数值由随机事件决定的变量。期望 (E) 是随机变量所有可能取值的加权平均,而方差 (Var) 衡量的是随机变量取值的分散程度。
动手试试:
模拟投掷一枚六面骰子,观察多次投掷后各个点数出现的频率,并计算样本的期望和方差。
import numpy as np
# 模拟投掷100次骰子
rolls = np.random.randint(1, 7, size=100)
# 计算期望和方差
expected_value = np.mean(rolls)
variance = np.var(rolls)
print(f"投掷100次的结果 (前10个): {rolls[:10]}")
print(f"期望: {expected_value:.2f}")
print(f"方差: {variance:.2f}")
模拟结果:
2. 条件概率与贝叶斯定理
条件概率 P(A|B) 是在事件 B 已经发生的条件下,事件 A 发生的概率。贝叶斯定理 描述了在已知相关证据或背景的情况下,一个假设的后验概率。
动手试试:
假设有一种疾病,人群中的患病率为 1%。一种检测方法的准确率为 99%(即真阳性率和真阴性率均为99%)。如果一个人检测结果为阳性,他真正患病的概率是多少?调整参数看看结果如何变化。
# P(A): 先验概率 (患病率)
p_a = 0.01
# P(B|A): 灵敏度 (真阳性率)
p_b_given_a = 0.99
# P(B|~A): 假阳性率 (1 - 特异度)
p_b_given_not_a = 0.01
# P(B) = P(B|A)*P(A) + P(B|~A)*P(~A)
p_b = p_b_given_a * p_a + p_b_given_not_a * (1 - p_a)
# P(A|B) = (P(B|A) * P(A)) / P(B)
p_a_given_b = (p_b_given_a * p_a) / p_b
print(f"后验概率 P(A|B): {p_a_given_b:.2%}")
检测为阳性后,实际患病的概率:
3. 常见概率分布
不同的随机现象遵循不同的概率分布。正态分布(高斯分布)和泊松分布是最常见的两种。
交互式图表: