楼主: 雪凤夏洛
1347 0

[学习分享] L1 与 L2 正则化,Lasso和Ridge [推广有奖]

  • 0关注
  • 2粉丝

已卖:85份资源

硕士生

48%

还不是VIP/贵宾

-

威望
0
论坛币
185 个
通用积分
44.1495
学术水平
6 点
热心指数
12 点
信用等级
6 点
经验
2842 点
帖子
85
精华
0
在线时间
145 小时
注册时间
2017-6-26
最后登录
2020-8-13

楼主
雪凤夏洛 发表于 2020-8-13 12:03:16 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
我们知道,正则化的目的是限制参数过多或者过大,避免模型更加复杂。例如,使用多项式模型,如果使用 10 阶多项式,模型可能过于复杂,容易发生过拟合。所以,为了防止过拟合,我们可以将其高阶部分的权重 w 限制为 0,这样,就相当于从高阶的形式转换为低阶。

为了达到这一目的,最直观的方法就是限制 w 的个数,但是这类条件属于 NP-hard 问题,求解非常困难。所以,一般的做法是寻找更宽松的限定条件:对 w 的平方和做数值上界限定,即所有w 的平方和不超过参数 C。这时候,我们的目标就转换为:最小化训练样本误差 Ein,但是要遵循 w 平方和小于 C 的条件。

正则化是结构风险最小化的一种策略实现,能够有效降低过拟合。损失函数实际上包含了两个方面:一个是训练样本误差。一个是正则化项。其中,参数 λ 起到了权衡的作用。


https://blog.csdn.net/weixin_34121304/article/details/88022016?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.channel_param&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.channel_param

https://blog.csdn.net/qq_36523839/article/details/82931559



二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:LASSO Ridge DGE IDG 正则化

已有 2 人评分经验 论坛币 收起 理由
dxystata + 100 鼓励积极发帖讨论
cheetahfly + 10 观点有启发

总评分: 经验 + 100  论坛币 + 10   查看全部评分

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群
GMT+8, 2025-12-30 04:09