楼主: Hsail6
2198 3

《机器学习实战》读书笔记:利用Python 3进行逐步回归实验 [推广有奖]

  • 0关注
  • 0粉丝

等待验证会员

小学生

57%

还不是VIP/贵宾

-

威望
0
论坛币
178 个
通用积分
8.9663
学术水平
3 点
热心指数
3 点
信用等级
3 点
经验
50 点
帖子
6
精华
0
在线时间
0 小时
注册时间
2018-11-9
最后登录
2019-9-2

相似文件 换一批

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
很多时候,我们会觉得Lasso算法原理本身太过抽象,⽽且建模结果不好解读。因此,在进⾏
⾃变量相对重要性的判别过程中,我们其实可以考虑采⽤向前逐步回归的⽅法,作为Lasso的替代解
决⽅案。相⽐于Lasso,向前逐步回归⽅法原理更加简洁易懂,其建模思路也与机器学习算法⼀致,
更重要的是向前逐步回归从本质上来说是采⽤了梯度下降的⽅法来求得最优解,可伸缩性强,最终所
得结果与Lasso较为⼀致,且在⽬标函数为凸函数的时候,最终结果和最⼩⼆乘法求得结果⼀致。因
此,我们接下来简单讨论向前逐步回归⽅法的⼀般建模过程,然后⼿动构建⼀个向前逐步回归法,并
测试其回归效能。
总的来说,向前逐步回归也属于贪⼼算法,⾸先预设每个⾃变量系数均为0,然后执⾏循环,每次循
环过程中都对其中某个变量进⾏相同步⻓的增加或者减少,同时对⽐改变之后⽬标函数的下降速度,
并选取⽬标函数下降速度最快的更改⽅案,然后对系数进⾏永久性质的更改,接着执⾏下⼀次迭代,
直⾄抵达收敛条件为⽌,其基本执⾏过程如下伪代码所示。
向前回归法伪代码如下:
若有必要,⾸先将数据进⾏归⼀化处理;
设置迭代收敛条件,然后进⾏迭代:
设置当前最⼩误差lowestError为正⽆穷
对于每个特征:
按步⻓增⼤或缩⼩:
改变⼀个系数得到⼀个新的w
计算新w下的误差
若误差Error⼩⾬当前最⼩误差lowestError:设置wbest为当前的w
将w设置为新的wbest
然后,根据上述伪代码,即可编写向前逐步回归执⾏函数,同时,为了加快收敛速度,此处统⼀对数
据集进⾏归⼀化处理,因此⾸先定义针对矩阵的归⼀化函数
代码内容参加附录

向前逐步回归实验.pdf (156.46 KB, 需要: 1 个论坛币)


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:向前逐步回归法 逐步回归法 相对重要性 逐步回归 下降速度

已有 1 人评分论坛币 学术水平 热心指数 信用等级 收起 理由
经管之家编辑部 + 100 + 3 + 3 + 3 精彩帖子

总评分: 论坛币 + 100  学术水平 + 3  热心指数 + 3  信用等级 + 3   查看全部评分

本帖被以下文库推荐

沙发
hifinecon 发表于 2019-4-22 06:56:29 |只看作者 |坛友微信交流群

使用道具

为您点赞!

使用道具

板凳
充实每一天 发表于 2019-4-22 10:38:50 来自手机 |只看作者 |坛友微信交流群
谢谢分享

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加JingGuanBbs
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-5-5 10:32