请选择 进入手机版 | 继续访问电脑版
楼主: _wallstreetcat_
1240 1

[程序化交易] 量化研究每周精选-20170822 [推广有奖]

  • 0关注
  • 36粉丝

讲师

9%

还不是VIP/贵宾

-

威望
0
论坛币
98 个
通用积分
40.6554
学术水平
14 点
热心指数
13 点
信用等级
13 点
经验
6402 点
帖子
257
精华
0
在线时间
234 小时
注册时间
2017-3-16
最后登录
2023-11-21

_wallstreetcat_ 企业认证  发表于 2017-8-23 10:09:25 |显示全部楼层 |坛友微信交流群

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
导语:本周精选了5篇关于机器学习在量化投资领域的应用文章。随着近年来人工智能的发展,越来越多的人投入到研究的队伍中。希望读完这些报告的你能对其中的研究有自己的理解。BigQuant拥有海量的数据和主流开源AI框架,赋能每一位爱好机器学习/深度学习和量化交易的人。
  • 《AI和机器学习对交易与投资领域的影响》
原文:《Impact Of Artificial Intelligence And Machine Learning on Trading And Investing》

关键词:人工智能、机器学习、交易

本文主要论述人工智能与机器学习将在金融市场上取代交易员的地位,成为投资者的首选的市场趋势。机器学习应用于交易领域将会提高市场有效性,降低波动性。利用机器学习制定量化AI策略,能够排除研究员的主观想法,未来将在期货和外汇市场获得更加确定的利润。此外,作者重点谈到,量化策略制定的重点在于提取特征或因子而不是算法模型本身,只有拥有稳健策略的的交易者才能不被市场淘汰。作者最后预测,传统技术分析将逐渐过时,未来交易将是处理信息、实时开发和验证模型。机器学习将改变交易市场状况,取代投资顾问的位置,95%的交易员将被淘汰。

  • 《神经网络算法交易之超参优化》
原文:《Neural Networks for Algorithmic Trading》

关键词:神经网络、超参优化

机器学习模型特别是深度学习神经网络模型需要设定许多超参,一般超参选择主要有三种方法,Grid Search、 Random Search和Bayesian Search。 本文使用最后一种方法,重点介绍其实际操作与结果分析。本文基于比特币历史数据构建多层神经网络来进行不同超参设置结果的比较,寻找最优超参包括:神经元数量、激励函数类型、学习速率、优化准则、时间窗口等,以预测比特币价格在未来10分钟内的变化。作者对比不同类型和不同超参设置的神经网络计算结果发现,设置最优超参的多层神经网络计算结果最为接近实际值。

  • 《50行Python代码预测股价》
原文:《Predicting Stock Prices in 50 lines of Python》

关键词:机器学习、股价预测

虽然股价随机变化且不可预测,但基于历史数据,机器学习可以将股价预测转换为一个数据预测问题。本文使用scikit-learn库,构建三种预测模型的支持向量机回归模型:线性,RBF和多项式,以预测苹果(AAPL)股价。作者详细介绍了代码使用的Python包,获取历史数据的方式与处理方法,使用支持向量机做回归分析并画图对比分析结果,最终发现RBF模型拟合结果最优。

  • 《利用机器学习预测Airbnb民宿价格》
原文:《Using Machine Learning to Predict Value of Homes On Airbnb》

关键词:机器学习、客户终身价值

预测客户终身价值将有助于Airbnb为民宿定价,Airbnb通过机器学习预测客户终身价值并为此建立工作架构。机器学习工作流程包括特征工程,模型训练,模型选择与验证,模型生成。Airbnb开发名为“ML Automator”的工作架构,帮助缺少数据特征工程经验,但非常熟悉原型模型的数据科学家们建立模型。通过架构的搭建,Airbnb减少了模型开发的成本,降低使用的门槛并影响更多人使其愿意使用机器学习。

  • 《过拟合详解:监督学习中不准确的“常识”》
原文:《 Understanding Overfitting an Inaccurate Meme in Supervised Learning》

关键词:监督学习、模型验证、过度训练 、过度拟合

大家所熟知的常识中有些理论其实是不准确的,站不住脚的,本文围绕过度拟合讨论一些错误“常识”。传统说法认为,交叉验证可以杜绝过度拟合,或者对于实验数据以外的数据,没有泛化误差就表明没有过度拟合,这个说法是错误的。本文澄清了监督学习中的这一错误说法,指出在监督学习中,使用的模型需要满足两个条件:1.模型验证:普适性,不能只适用于训练集;2.模型选择:模型应具有最小的复杂度,应遵循奥卡姆剃刀原理。作者以RMSD为判断准则,选择三次和五次多项式对同一数据集进行训练。结果显示,当训练集数据超过某一最佳数值,分别为总数据集的40%和30%后,模型的拟合性能下降,RMSD值增大,这被称为过度训练。过度拟合的判断需要比较两个以上的模型,原则是相同拟合性能下,复杂度更高的模型被称为“过度拟合”。选择模型时,需要选择性能相当,复杂度更小的模型。



《量化研究每周精选》每周一期,为大家提精选研报、前沿研究、热门文章等优质内容。
查看所有 量化研究每周精选,
请访问:https://community.bigquant.com/tags/%E9%87%8F%E5%8C%96%E7%A0%94%E7%A9%B6%E6%AF%8F%E5%91%A8%E7%B2%BE%E9%80%89?type=weekly0822%EF%BC%9Frenda0822
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:量化研究 scikit-learn Intelligence Algorithmic Artificial 机器学习 神经网络

bestxwl0 发表于 2017-8-31 13:45:42 |显示全部楼层 |坛友微信交流群
好东西,厉害了!

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注jr
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-3-29 04:27