楼主: hairong_cui
2029 4

求助SVM!!! [推广有奖]

  • 0关注
  • 2粉丝

本科生

59%

还不是VIP/贵宾

-

威望
0
论坛币
5 个
通用积分
0
学术水平
1 点
热心指数
1 点
信用等级
1 点
经验
1006 点
帖子
70
精华
0
在线时间
98 小时
注册时间
2008-12-13
最后登录
2020-2-19

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
使用SVM工具箱总是给出一个百分比表示支持向量个数,请问这个百分比是越大越好,还是越小越好,谢谢了!!!
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:SVM 越小越好 百分比 工具箱 求助 SVM

hr
沙发
chnfyn 发表于 2009-12-25 13:31:53 |只看作者 |坛友微信交流群
使用SVM方法进行模型训练的时候,以平面线性二分类问题为例:

·在二维平面中,支持向量即是所有参与训练的样本点中距离分类器分划面最近的那些样本点,假设训练数据中仅有两个样本点(一正一负),则这两个样本均是支持向量,根据这两个点可以构造一个分划面;
·现在把上述问题中的训练样本点增加一些,如果增加的那些参与训练的样本点,距离分划面的距离都大于上述两点距离分划面的距离,则这些点均非支持向量;
·如果增加的那些训练样本点距离分划面的距离等于上述两点距离分划面的距离,则这些点均为支持向量;
·如果增加的那些训练样本点距离分划面的距离小于上述两点距离分划面的距离,原先的两个点应该在训练时就不会成为支持向量了;

上述描述在多维空间中,或是在核支持向量机训练时道理是一样的,只不过是在一个超平面空间中完成的。

道理是这样的,最后回答楼主的问题,这个百分比的大小和模型训练的好坏是没有直接关系的,它只是向你描述在这次分类器训练的过程中,采用当前的样本数据和参数,有多少个样本点决定了最终分类器的系数。如果有一个标示可以标出哪些点是支持向量,哪些不是支持向量的话,那么仅用支持向量作为训练样本点再进行一次训练得到的分类器是完全一样的。

使用道具

藤椅
hairong_cui 发表于 2009-12-27 17:14:01 |只看作者 |坛友微信交流群
感谢您的回答,但是我用支持向量是做回归的,不是分类,对于支持向量回归机来说,是不是支持向量越多,说明回归的结果越好呢?
hr

使用道具

板凳
doog9527 发表于 2009-12-29 16:56:58 |只看作者 |坛友微信交流群
我告訴你一個直接的答案:越少越好


關於具體的理論就不多敘述了
上善若水

使用道具

报纸
likeac 发表于 2009-12-31 13:33:00 |只看作者 |坛友微信交流群
支持向量越少越好,计算速度快。
但回归效果好坏,取决于最终的预测效果。和支持向量个数没什么直接关系。

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-6-4 11:14