楼主: 夏夜风暖
4712 7

[经济] 关于决策树的几个问题 [推广有奖]

  • 5关注
  • 1粉丝

硕士生

33%

还不是VIP/贵宾

-

威望
0
论坛币
1 个
通用积分
0
学术水平
1 点
热心指数
1 点
信用等级
0 点
经验
1789 点
帖子
84
精华
0
在线时间
207 小时
注册时间
2013-1-1
最后登录
2024-7-23

楼主
夏夜风暖 发表于 2013-1-24 17:04:49 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
阅读《数据挖掘算法与clementine实践》的决策树部分有些地方不太清楚:
1)决策树的交叉验证。是将训练数据平均分成k份,然后建立k个决策树,对任意一个决策树,验证另外k-1份数据,得到k-1个误差,然后求和,比较k颗树的误差,取最小的那个树么?
2)标准验证技术 和 交叉验证的区别是什么?标准验证是交叉验证的过程中的一部分,还是独立于交叉验证的修剪方法呢?
3)代价复杂度=分类损失+elf*叶节点数量;不明白,等式右边的两项类别不同,相加的意义何在?是经验公式么?elf的一般取值是多少呢?
坐等高手解答……
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:决策树 clementine clementin Clement 数据挖掘算法 技术

沙发
牛x牌生发灵 发表于 2013-2-22 02:08:01
1)从k个数据中抛出一个数据
用剩下的k-1个数据训练模型,用得到的模型拟合扔出去的那一个数据,得到其预测误差
重复k次,直到所有的k个数据都这样被扔出去一次,将每次所得的预测误差加总即为CV值
3)加上lamda*叶节点数是为了防止过度拟合所加的penalty,因为一般节点越多,训练误差越小甚至可能为0
2)尝试不同的lamda之进行建模,使(1)中cv值最小的就是我们lamda的取值
已有 1 人评分学术水平 热心指数 信用等级 收起 理由
夏夜风暖 + 1 + 1 + 1 观点有启发

总评分: 学术水平 + 1  热心指数 + 1  信用等级 + 1   查看全部评分

藤椅
xiaoshiyue 发表于 2013-1-24 17:20:33

板凳
gyshengyuan 发表于 2013-1-25 15:56:12
进来看看答案。

报纸
chybrh 发表于 2013-2-21 12:40:28

地板
hejinzhong 发表于 2013-2-21 14:08:34
礼貌回帖!

7
夏夜风暖 发表于 2013-2-25 22:46:10
牛x牌生发灵 发表于 2013-2-22 02:08
1)从k个数据中抛出一个数据
用剩下的k-1个数据训练模型,用得到的模型拟合扔出去的那一个数据,得到其预测 ...
容我三思

8
zcjdkl0703 发表于 2014-11-4 23:17:16
学习中

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2025-12-9 08:39