Skip to content

Commit 9a824e9

Browse files
authored
Update 3.2 GBDT
1 parent 35a1ce5 commit 9a824e9

File tree

1 file changed

+3
-3
lines changed

1 file changed

+3
-3
lines changed

Machine Learning/3.2 GBDT/3.2 GBDT.md

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -81,7 +81,7 @@ GBDT的原理很简单,就是所有弱分类器的结果相加等于预测值
8181

8282
1. 预测阶段的计算速度快,树与树之间可并行化计算。
8383
2. 在分布稠密的数据集上,泛化能力和表达能力都很好,这使得GBDT在Kaggle的众多竞赛中,经常名列榜首。
84-
3. 采用决策树作为弱分类器使得GBDT模型具有较好的解释性和鲁棒性,能够自动发现特征间的高阶关系,并且也不需要对数据进行特殊的预处理如归一化等
84+
3. 采用决策树作为弱分类器使得GBDT模型具有较好的解释性和鲁棒性,能够自动发现特征间的高阶关系。
8585

8686
### 3.2 局限性
8787

@@ -93,11 +93,11 @@ GBDT的原理很简单,就是所有弱分类器的结果相加等于预测值
9393

9494
**相同点**
9595

96-
都是由多棵树组成,最终的结果都是由多棵树一起决定。
96+
- 都是由多棵树组成,最终的结果都是由多棵树一起决定。
97+
- RF和GBDT在使用CART树时,可以是分类树或者回归树。
9798

9899
**不同点**
99100

100-
- 组成随机森林的树可以分类树也可以是回归树,而GBDT只由回归树组成
101101
- 组成随机森林的树可以并行生成,而GBDT是串行生成
102102
- 随机森林的结果是多数表决表决的,而GBDT则是多棵树累加之和
103103
- 随机森林对异常值不敏感,而GBDT对异常值比较敏感

0 commit comments

Comments
 (0)