楼主: 我是小趴菜
313 0

[数据挖掘新闻] 线性回归的各参数代表什么 [推广有奖]

  • 0关注
  • 4粉丝

教授

35%

还不是VIP/贵宾

-

威望
0
论坛币
29650 个
通用积分
380.5350
学术水平
1 点
热心指数
1 点
信用等级
0 点
经验
7150 点
帖子
670
精华
0
在线时间
37 小时
注册时间
2022-8-30
最后登录
2023-4-4

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币

线性回归是一种非常常见的统计方法,它允许我们从给定的连续数据集中学习函数或关系。例如,我们给出了一些数据点x和相应的数据点,y我们需要学习它们之间的关系,称为假设

在线性回归的情况下,假设是一条直线,即,



w是一个名为Weights的向量,b是一个名为Bias的标量。权重和偏差称为模型的参数

我们需要做的就是从给定的数据集中估计w和b的值,以便得到的假设产生最小的成本J,该成本由以下成本函数定义,



其中m是给定数据集中的数据点的数量。此成本函数也称为均方误差


为了找到J最小参数的优化值,我们将使用一种常用的优化算法Gradient Descent。以下是Gradient Descent的伪代码:

Repeat untill Convergence {
    w = w - α * δJ/δw
    b = b - α * δJ/δb
}


α是称为学习率超参数


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:线性回归 Convergence gradient converge weights

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-5-13 06:57