Skip to content

线性回归 (Linear Regression)

核心思想

线性回归假设目标变量 y 与特征 x 之间存在线性关系,通过最小化预测误差的平方和来拟合参数。

模型定义

y^=wTx+b=w1x1+w2x2++wdxd+b

引入扩展向量 x~=(1,x1,,xd)Tw~=(b,w1,,wd)T

y^=w~Tx~

最小二乘法 (OLS)

损失函数

N 个样本,残差平方和 (RSS) 为:

L(w)=i=1N(yiwTxi)2=(yXw)T(yXw)

其中 XRN×(d+1) 是设计矩阵,yRN 是目标向量。

矩阵求导推导

展开损失函数:

L=yTy2wTXTy+wTXTXw

w 求导(利用矩阵微分恒等式 aTww=awTAww=2Aw):

Lw=2XTy+2XTXw

令其为零,得到正规方程 (Normal Equation):

XTXw=XTyw=(XTX)1XTy

条件

XTX 必须可逆。当特征间存在多重共线性(XTX 近似奇异)时,正规方程数值不稳定 — 这正是正则化的动机。

极大似然估计视角

假设 yi=wTxi+ϵiϵiN(0,σ2),则:

P(yixi,w)=12πσexp((yiwTxi)22σ2)

对数似然:

lnL=N2ln(2πσ2)12σ2i=1N(yiwTxi)2

最大化对数似然等价于最小化 RSS,因此 OLS 等价于高斯噪声下的 MLE

评估指标

指标公式
MSE1N(yiy^i)2
RMSEMSE
MAE1N|yiy^i|
R21(yiy^i)2(yiy¯)2

代码对应

bash
python -m pipelines.regression.linear_regression