正则化回归 (Regularization)
核心思想
当特征之间存在多重共线性或特征数量接近/超过样本数时,最小二乘解不稳定且易过拟合。正则化通过在损失函数中添加惩罚项来约束参数大小,从而提高模型的泛化能力。
Ridge 回归 (L2 正则化)
目标函数
闭式解推导
贝叶斯解释
Ridge 等价于对
Lasso 回归 (L1 正则化)
目标函数
稀疏性
L1 罚项在原点不可微,产生的约束区域为"菱形"。当等高线(椭圆)与菱形的顶点相切时,部分
次梯度
L1 正则项的次梯度为:
Lasso 没有闭式解,通常使用坐标下降法求解。
贝叶斯解释
Lasso 等价于对
ElasticNet (弹性网)
组合 L1 和 L2 罚项:
等价形式(使用混合比
:退化为 Lasso :退化为 Ridge
ElasticNet 在相关特征分组时优于 Lasso(Lasso 只倾向于选出同组中的一个)。
L1 vs L2 对比
| 特性 | Ridge (L2) | Lasso (L1) |
|---|---|---|
| 惩罚项 | ||
| 参数趋势 | 收缩但不为零 | 可精确为零 |
| 特征选择 | ❌ 不具备 | ✅ 自动选择 |
| 闭式解 | ✅ 有 | ❌ 无 |
| 贝叶斯先验 | 高斯分布 | 拉普拉斯分布 |
| 多重共线性 | 效果好 | 不稳定 |
代码对应
bash
python -m pipelines.regression.regularization