楼主: 我是小趴菜
824 1

[数据挖掘] 简述支持向量(分类)模型算法 [推广有奖]

  • 0关注
  • 4粉丝

教授

35%

还不是VIP/贵宾

-

威望
0
论坛币
29650 个
通用积分
380.5350
学术水平
1 点
热心指数
1 点
信用等级
0 点
经验
7150 点
帖子
670
精华
0
在线时间
37 小时
注册时间
2022-8-30
最后登录
2023-4-4

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币

最初的支持向量机是由 Vladimir N. Vapnik和Alexey Ya. Chervonenkis在1963年发明的。支持向量机是有监督的机器学习,被广泛应用于处理分类问题或者回归问题,SVC是Support vector classification和SVR是Support vector regression。分类问题如处理离散标签的分类,连续问题如房价预测。

支持向量机以分类而闻名,以下简要介绍支持向量机的分类模型。

首先需要知道的概念是决策边界,即超平面。支持向量机的目标是找到最佳超平面,将数据集分为两个类别或者组。

根据投入的特征个数,决策边界可能是一条直线,或者是一个超平面。你可以这样想:一个有n维特征的标签,在n维空间中都有一个位置,而它的超平面就是在n-1维的空间中。 超平面的数学公式如下:






支持向量:

支持向量就是离超平面最近的点。这些点会改变分离超平面(separating hyperplane)的位置。因此,支持向量是很重要的点,用于定义最佳超平面。

硬边距: 有很多线可以用于区分类别,但是哪一条线是最好的? 超平面和最近点间的距离为支持向量机边际。目标是选取最大的支持向量机边际。支持向量机算法通过最大化支持向量机边际最大化,来选择最佳超平面。

综上所述,支持向量机通过挑选不同类别间的支持向量距离最大化的距离,来选择决策边界。如果决策边界和支持向量离的很近,那么决策边界会对噪音敏感。


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:regression Separating regressio Vladimir Support

沙发
三重虫 发表于 2023-2-16 20:12:30 |只看作者 |坛友微信交流群

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-4-28 08:14