We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
There was an error while loading. Please reload this page.
1 parent 35a1ce5 commit 9a824e9Copy full SHA for 9a824e9
Machine Learning/3.2 GBDT/3.2 GBDT.md
@@ -81,7 +81,7 @@ GBDT的原理很简单,就是所有弱分类器的结果相加等于预测值
81
82
1. 预测阶段的计算速度快,树与树之间可并行化计算。
83
2. 在分布稠密的数据集上,泛化能力和表达能力都很好,这使得GBDT在Kaggle的众多竞赛中,经常名列榜首。
84
-3. 采用决策树作为弱分类器使得GBDT模型具有较好的解释性和鲁棒性,能够自动发现特征间的高阶关系,并且也不需要对数据进行特殊的预处理如归一化等。
+3. 采用决策树作为弱分类器使得GBDT模型具有较好的解释性和鲁棒性,能够自动发现特征间的高阶关系。
85
86
### 3.2 局限性
87
@@ -93,11 +93,11 @@ GBDT的原理很简单,就是所有弱分类器的结果相加等于预测值
93
94
**相同点**:
95
96
-都是由多棵树组成,最终的结果都是由多棵树一起决定。
+- 都是由多棵树组成,最终的结果都是由多棵树一起决定。
97
+- RF和GBDT在使用CART树时,可以是分类树或者回归树。
98
99
**不同点**:
100
-- 组成随机森林的树可以分类树也可以是回归树,而GBDT只由回归树组成
101
- 组成随机森林的树可以并行生成,而GBDT是串行生成
102
- 随机森林的结果是多数表决表决的,而GBDT则是多棵树累加之和
103
- 随机森林对异常值不敏感,而GBDT对异常值比较敏感
0 commit comments