楼主: casey_c
739 0

Scikit-learn应用指南:监督学习第2部分 -- 回归分析丨数析学院 [推广有奖]

  • 0关注
  • 10粉丝

博士生

92%

还不是VIP/贵宾

-

威望
0
论坛币
96 个
通用积分
2.0091
学术水平
2 点
热心指数
15 点
信用等级
2 点
经验
11502 点
帖子
278
精华
0
在线时间
94 小时
注册时间
2016-11-22
最后登录
2022-5-2

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
以下内容转自 数析学院,只节选了部分,有需要的同学可以直接查看原文。百度搜索数析学院课程简介

回归学习算法和分类学习算法都属于监督学习,两者的区别在于输出变量的类型,回归是定量输出(或者说是连续变量预测),分类是定性输出(或者说是离散变量预测)。回归学习算法应用十分广泛,比如预测房价、未来的天气情况等。本节将介绍如何用回归学习算法来预测一个连续值,以及如何进行评估等。

学习目标
  • 了解回归学习算法的工作原理
  • 了解线性回归与k近邻回归
  • 了解回归与分类的区别





在回归中,我们尝试预测一个连续的输出变量 -- 与之前分类例子中所预测的定类变量相反。

以具有一个特征维度(解释变量)和一个目标变量的简单案例开始。我们先创建一个带有一些噪音的正弦曲线的数据集:










1.线性回归

将要介绍的第一个模型就是所谓的简单线性回归模型。在这里,我们想要通过这些数据来拟合出一条直线,这是因为:

最简单的模型之一就是线性模型,它只是简单地试图预测这些数据为一条线。找到这样的一条线的一种方法是线性回归(也称为[普通最小二乘法(OLS)]回归(https://en.wikipedia.org/wiki/Ordinary_least_squares)。线性回归的接口和之前的分类器完全一样,只是这个y现在包含浮点值,而不是类别。

正如我们知道的,scikit-learn 的 API 需要我们提供一维数组形式的目标变量(y);希望样本(X)表示成一个二维数组 -- 即使它可能只包含1个特征。因此,我们将一维xNumPy数组转换为一个具有2个轴的X数组:




以上内容转自 数析学院,只节选了部分,有需要的同学可以直接查看原文。百度搜索数析学院






二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:scikit-learn Learn 应用指南 Earn 回归分析

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-4-30 17:25