神经元模型:权重 (Weights) 与偏置 (Bias)

一个感知机接收多个输入信号 (x₁, x₂, ...),每个信号都有一个对应的权重 (w₁, w₂, ...)。权重代表了该输入信号的重要性。所有加权后的信号会与一个偏置 (b) 相加,然后通过一个激活函数(在经典感知机中是一个简单的阶跃函数)来得到最终的输出(通常是 0 或 1)。

权重 (Weights)

比喻:决定是否去看电影时,你对“天气好”这个因素有多看重。如果权重高,天气好坏会对你的决策产生巨大影响。

偏置 (Bias)

比喻:在考虑任何外部因素之前,你本身有多想去看电影。如果偏置很高,即使天气不好,你也可能去看。

动手试试:

下图中有两类数据点。调整权重 `w1`, `w2` 和偏置 `b`,观察决策边界(直线 `w1*x + w2*y + b = 0`)如何变化,以及黄色星星(新样本点)的分类结果如何被影响。

# 输入: x1, x2 # 权重: w1, w2 # 偏置: b # 计算加权和 z = w1*x1 + w2*x2 + b # 激活函数 (阶跃函数) if z >= 0: prediction = 1 # 类别 B (红) else: prediction = 0 # 类别 A (蓝)
新样本点 (6, 6) 的计算过程: