楼主: 梁程晴
1133 1

[学习笔记] 【学习笔记】打卡 Ridge的特点 1. 惩罚越大,所有的参数都是趋近于0 2. 所有的 ... [推广有奖]

  • 0关注
  • 3粉丝

博士生

37%

还不是VIP/贵宾

-

威望
0
论坛币
2218 个
通用积分
160.5665
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
1165 点
帖子
230
精华
0
在线时间
10 小时
注册时间
2020-4-15
最后登录
2023-11-16

楼主
梁程晴 发表于 2020-9-1 23:23:52 来自手机 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
打卡
Ridge的特点
1. 惩罚越大,所有的参数都是趋近于0
2. 所有的参数都是**趋近**于0,很难等于0
3. 可以大致观测数据集里的共线性问题,查看这个图当中,是否有喇叭口。
4. 如果出喇叭口的话,可以大致确定,有共线性的存。但是不能确定具体哪些特征之间有共线性。
5. Ridge可以尝试消弱这种共线性问题,但是大多数情况下,效率不是特别的高。
Lasso的特点
1. 惩罚越大,w值越小。
2. 惩罚力度比Ridge大的多!!!
3. 一个很小的惩罚就可以直接将很多不重要的特征的系数值,变成0!而不是像Ridge一样趋近于0!
4. 线性模型Lasso回归算法当中,越不重要参数,在惩罚增大的情况下,值越容易受影响,越重要的参数,在惩罚增大的情况下,相对来说,越不容易受影响,所以,会发现,这些不重要的特征,不能很好的非常的反应X和Y直接的关系的特征,越容易被压缩成0。
5. 将系数值变成0的话,这个系数所对应的特征,在$Y = w_{0} + w_{1}x_{1} + \\dots + w_{p}x_{p}$回归当中,不参与回归的计算,从而达到类似于特征筛选的效果
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Ridge 学习笔记 习笔记 IDG DGE

沙发
512661101 发表于 2020-9-1 23:44:29 来自手机

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-1 23:31