1.如果你的结果是判断某人是否会离职,那就是分类树(classification tree)那你用rpart做决策默认使用的是基尼指数(gini index),当然也可以使用交叉熵(cross entropy),这两个无论选哪个都是在你所有的变量里面按照顺序选择“最重要”的变量(根据吉尼指数)。
2.没看懂你想问什么,如果根据猜测的话,你图上的那个树如果没有剪枝(pruning)的话,可以算是最后的树了。
建议你去仔细读一下决策树的原理和实现,就可以基本上可以解答你本身的疑问。
|
楼主: 番茄奏鸣曲
|
4341
2
[问答] 决策树rpart()问题 |
|
硕士生 60%
-
|
40论坛币
最佳答案 | |
|
|
| ||
加好友,备注cda京ICP备16021002号-2 京B2-20170662号
京公网安备 11010802022788号
论坛法律顾问:王进律师
知识产权保护声明
免责及隐私声明


