决策树回归 (Decision Tree Regression)
核心思想
决策树回归通过递归地将特征空间划分为若干矩形区域,每个区域内以常数(均值)作为预测值。分割准则为最小化平方误差。
详细的树构建原理、信息度量、剪枝策略请参阅 决策树分类 页面。本页聚焦回归特有的数学细节。
分割准则
平方误差最小化
对于特征
选择最优
其中
高效搜索
对每个特征
正则化
- 最大深度:限制树生长层数
- 最小叶节点样本数:避免过分细化
- 后剪枝:同分类决策树的代价复杂度剪枝
代码对应
bash
python -m pipelines.regression.decision_tree