始于spss 发表于 2018-8-26 22:06
但是在决策树里面的重要程度却很高,该怎样解释?
<span style=\"font-size:1.00em;\">决策树是一种分而治之(Divide and Conquer)的决策过程。一个困难的预测问题, 通过树的分支节点, 被划分成两个或多个较为简单的子集,从结构上划分为不同的子问题。将依规则分割数据集的过程不断递归下去(Recursive Partitioning)。随着树的深度不断增加,分支节点的子集越来越小,所需要提的问题数也逐渐简化。当分支节点的深度或者问题的简单程度满足一定的停止规则(Stopping Rule)时, 该分支节点会停止劈分,此为自上而下的停止阈值(Cutoff Threshold)法;有些决策树也使用自下而上的剪枝(Pruning)法。历史上,因为预测结果方差大而且容易过拟合, 决策树曾经一度被学术界冷落。</span>
逻辑回归也根据不同的回归迭代方式选择不同以及参数设定不同,跟决策树结果迥异,这是常有的现象。最后不管什么方法,相对最优选择还是要模型比较,比如说AIC, 误判率等等。