楼主: 人工智能-AI
477 0

支持向量机理论与基于规划的神经网络学习算法 [推广有奖]

  • 0关注
  • 10粉丝

会员

学术权威

71%

还不是VIP/贵宾

-

威望
0
论坛币
25 个
通用积分
0.0584
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
37770 点
帖子
3776
精华
0
在线时间
853 小时
注册时间
2017-9-5
最后登录
2018-4-11

楼主
人工智能-AI 在职认证  发表于 2018-1-27 21:40:00 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
摘要:近年来支持向量机(SVM)理论得到国外学者高度的重视,普遍认为这是神经网络学习的新研究方向, 近来也开始得到国内学者的注意.该文将研究SVM理论与神经网络的规划算法的关系, 首先指出,Vapnik的基于SVM的算法与该文作者1994年提出的神经网络的基于规划的算法是等价的,即在样本集是线性可分的情况下,二者求到的均是最大边缘(maximal margin)解.不同的是,前者(通常用拉格郎日乘子法)求解的复杂性将随规模呈指数增长, 而后者的复杂性是规模的多项式函数.其次, 作者将规划算法化为求一点到某一凸集上的投影,利用这个几何的直观, 给出一个构造性的迭代求解算法——“单纯形迭代算法”. 新算法有很强的几何直观性, 这个直观性将加深对神经网络(线性可分情况下)学习的理解,并由此导出一个样本集是线性可分的充分必要条件. 另外, 新算法对知识扩充问题, 给出一个非常方便的增量学习算法.最后指出,“将一些必须满足的条件, 化成问题的约束条件, 将网络的某一性能, 作为目标函数, 将网络的学习问题化为某种规划问题来求解”的原则,将是研究神经网络学习问题的一个十分有效的办法.http://www.cqvip.com//QK/90818X/200102/4839880.html

送人玫瑰,手留余香~如您已下载到该资源,可在回帖当中上传与大家共享,欢迎来CDA社区交流学习。(仅供学术交流用。)

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:神经网络学习 支持向量机 神经网络 学习算法 向量机 支持向量机 神经网络 学习算法 单纯形迭代算法

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-1-18 03:36