我们都知道,决策树是通过一系列属性进行排序,从而达到分类的目的。现在想和大家讨论几个问题:1)如何判断一个决策树的优劣?
首先,我们比较决策树分类的可分性,比如说节点分成两个叶子节点,比较两个叶子节点的坏人的比例是否有显著的差别;
其次,我们比较实验集和验证集的一致性,比如说在同一个叶子上如果实验集和验证集的坏人比例比较接近,则表明模型相对稳定。
以上两点是我个人的一些看法,请问还有没有其他的一些准则?
2) 如果决策树在信用分类模型中运用,我们运用决策树来对客户的信用好坏进行分类,经过一系列的准则可以得到某些群体具有较大概率的坏人,某些群体具有较小的坏人比例。但是通常情况坏人比例并不是很高,比如说信用卡审批模型,比如说坏人比例为20%,那么我们使用决策树分类会有什么意义?
我的个人理解决策树只是最大程度上帮助我们发现哪些属性对于我们的响应有着很明显的区分度,但是至于决策分类其实帮不上什么忙。求教!!!!!