楼主: 非凸科技
591 1

[交易策略] 机器学习之“监督学习” [推广有奖]

  • 0关注
  • 0粉丝

等待验证会员

本科生

61%

还不是VIP/贵宾

-

威望
0
论坛币
0 个
通用积分
5.1556
学术水平
5 点
热心指数
5 点
信用等级
5 点
经验
696 点
帖子
47
精华
0
在线时间
35 小时
注册时间
2022-6-20
最后登录
2024-2-8

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币


1936 年 Fisher 提出线性判别分析(Linear Discriminant Analysis),是一种有监督的数据降维与分类算法。

1950 年左右,朴素贝叶斯分类器(NaiveBayes Classifier),基于最基本的贝叶斯理论,假设特征相互独立,根据贝叶斯公式利用先验信息去计算样本被分类到每一个类别的概率。

1958 年感知机(Perceptron),神经网络的前身,结合了当时对脑细胞的研究以及机器学习的成果,首次被提出并用于图像识别。

同年,逻辑回归(Logistic Regression),用广义线性模型去预测样本被分类到每个类别的概率。

1967 年 K 近邻算法(KNN),本质上根据现有的带标签的数据集,去确定最优的 K 值,使得新样本的类别由与它最近的 K 个样本的类别所决定。

1986 年反向传播算法(Backpropagation),一种数值计算方法论,通过链式法则来计算损失函数对于模型中参数的偏导数。

1995 年AdaBoost ,增强学习(Boosting)的一个重要算法,一种自适应的增强分类器,逐步选择分类效果好的弱分类器并计算权重,同时调整各数据的权重使无法被弱分类器分类的数据权重更大。

同年,支持向量机(SVM)算法。SVM 希望在线性可分的数据集上寻找最优的超平面使得距离两个类别最近的样本(支持向量)与超平面的距离之和最大,通过凸优化的方法求解最优超平面。

2001年,将集成学习的Bagging 与决策树相结合而诞生的随机森林(Random Forest),增强了决策树的分类效果。

2009 年距离度量学习出现,例如去学习距离度量而非直接使用欧式距离,在 KNN 中这种方法提升了模型的准确度。



二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:机器学习 discriminant Propagation Discriminan regression 机器学习 量化投资 监督学习

沙发
三江鸿 发表于 2022-9-28 17:57:32 来自手机 |只看作者 |坛友微信交流群
点赞支持 感谢分享

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注jr
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-4-19 14:13