楼主: mingdashike22
1023 26

[量化金融] 对波动率预测的深度序列模型进行基准测试 [推广有奖]

21
nandehutu2022 在职认证  发表于 2022-6-11 03:12:21
此外,SKIPRN和QRNN的表现略差于其他两种,但在整个测试子集上表现非常相似,而S-RNN在波动率建模和预测方面表现最差。在对随机选择的10个股票时间序列数据建模时,这些基线表现不同。TCN在预测股票1、股票2、股票5和股票6方面取得了四个“第一”的位置,而DigitalDRNN在预测两个股票系列数据方面优于其他模型。为了更有效地比较最好的四种神经模型,我们选择了股票1、股票3、股票4和股票8,这四种模型分别实现了最小的损失。附录中的图1说明了所选四个股票系列上基准线的表现。结论深度学习在自然语言和语音等序列数据建模方面取得了进展。本文的重点是建立最近关于波动率预测的深度学习模型。实验结果表明,包括扩张CNN和扩张DRNN在内的扩张神经网络具有更好的性能,优于其他模型。因此,我们将波动率与扩张的架构一起建模。免责声明这不是AIG的工作成果,本文仅以个人身份表达作者的观点,而非美国国际集团(股份有限公司)或其附属实体的观点。参考Torben G Andersen和Tim Bollerslev。回答怀疑者:是的,标准波动率模型能够提供准确的预测。《国际经济评论》,第885-9051998页。马可·阿维拉内达和安东尼奥·帕拉茨。管理衍生证券投资组合的波动风险:拉格朗日不确定波动模型。应用数学金融,3(1):21–521996。Lei Jimmy Ba、Ryan Kiros和Geoffrey E.Hinton。图层规范化。更正,abs/1607.064502016。编辑Francis R.Bach和David M.Blei。

22
mingdashike22 在职认证  发表于 2022-6-11 03:12:25
2015年7月6日至11日在法国里尔举行的第32届国际机器学习会议记录,2015年ICML,JMLR研讨会和会议记录第37卷。JMLR。org,2015年。Dzmitry Bahdanau、Kyunghyun Cho和Yoshua Bengio。通过联合学习对齐和翻译的神经机器翻译。更正,abs/1409.04732014。白绍杰、J.Zico Kolter和Vladlen Koltun。序列建模通用卷积和递归网络的经验评估。更正,abs/1803.012712018。大卫·巴尔杜齐和穆罕默德·吉法里。强型递归神经网络。2016年,国际机器学习会议,第1292–1300页。Tim Bollerslev、Robert F Engle和Daniel B Nelson。拱形模型。《计量经济学手册》,4:2959–30381994。蒂姆·博勒斯列夫。广义自回归条件异方差。《计量经济学杂志》,31(3):307-3271986。詹姆斯·布拉德伯里、斯蒂芬·梅里、蔡明雄和理查德·索彻。准递归神经网络。更正,abs/1611.015761016。Victor Campos、Brendan Jou、Xavier Gir\'o i Nieto、Jordi Torres和Shih Fu Chang。跳过RNN:学习在递归神经网络中跳过状态更新。更正,abs/1708.068342017。张世玉、张扬、韩伟、莫言、郭晓晓、谭伟、崔晓东、迈克尔·维特布鲁克、马克·长谷川·约翰逊和托马斯·S·黄。扩张的递归神经网络。《神经信息处理系统的进展》,第76–86页,2017年。邱京贤、巴特·范梅里恩博尔、C,aglar G¨ulc,ehre、Dzmitry Bahdanau、Fethi Bougares、Holger Schwenk和Yoshua Bengio。使用RNN编码器-解码器学习短语表示,用于统计机器翻译。

23
可人4 在职认证  发表于 2022-6-11 03:12:28
在Alessandro Moschitti、Bo Pang和Walter Daelemans的《2014年自然语言处理经验方法会议记录》,EMNLP 2014,2014年10月25日至29日,卡塔尔多哈,ACL特别利益集团SIGDAT会议,第1724-1734页。ACL,2014年。Jan Chorowski、Dzmitry Bahdanau、Dmitry Serdyuk、Kyunghyun Cho和Yoshua Bengio。基于注意力的语音识别模型。Cortes et al.Cortes et al.(2015),第577-585页。Junyoung Chung、Kyle Kastner、Laurent Dinh、Kratarth Goel、Aaron C.Courville和Yoshua Bengio。序列数据的递归潜变量模型。Cortes et al.Cortes et al.(2015),第2980–2988页。Junyoung Chung、Sungjin Ahn和Yoshua Bengio。分层多尺度递归神经网络。更正,abs/1609.017042016。蒂姆·库伊曼斯、尼古拉斯·巴拉斯、塞萨尔·劳伦特和亚伦·C·库维尔。经常性批量规范化。更正,abs/1603.090252016。编辑科琳娜·科尔特斯、尼尔·D·劳伦斯、丹尼尔·D·李、杉山正树和罗曼·加内特。神经信息处理系统进展28:2015年神经信息处理系统年度会议,2015年12月7日至12日,加拿大魁北克省蒙特利尔。Robert F Engle和Kenneth F Kroner。多元同时广义arch。计量经济学理论,11(01):122-1501995。Robert F Engle和Andrew J Patton。波动率模型有什么好处。定量金融,1(2):237–2452001年。罗伯特·芬格尔。自回归条件异方差和统一王国的方差估计。计量经济学:计量经济学学会杂志,第987-10071982页。Marco Fraccaro、Soren Kaae Sonderby、Ulrich Paquet和Ole Winther。具有随机层的顺序神经模型。在Daniel D。

24
何人来此 在职认证  发表于 2022-6-11 03:12:31
Lee、Masashi Sugiyama、Ulrike von Luxburg、Isabelle Guyon和Roman Garnett,《神经信息处理系统进展29:2016年神经信息处理系统年度会议》,2016年12月5日至10日,西班牙巴塞罗那,第2199-2207页。Yarin Gal和Zoubin Ghahramani。在递归神经网络中,一个有理论基础的应用。《神经信息处理系统的进展》,第1019–10272016页。亚历克斯·格雷夫斯。使用递归神经网络生成序列。更正,abs/1308.08502013。卡罗尔·格雷戈、伊沃·丹尼尔卡、亚历克斯·格雷夫斯、丹尼洛·希门内斯·雷岑德和达恩·维尔斯特拉。DRAW:用于图像生成的递归神经网络。巴赫和布莱巴赫和布莱(2015),第1462-1471页。何开明、张向玉、任少清、孙健。用于图像识别的深度残差学习。2016年IEEE计算机视觉和模式识别会议,2016年CVPR,美国内华达州拉斯维加斯,2016年6月27-30日,第770-778页。IEEE计算机学会,2016年。史蒂文·赫斯顿。随机波动率期权的闭式解,应用于债券和货币期权。《金融研究回顾》,6(2):327–3431993年。塞普·霍克雷特(Sepp Hochreiter)和于尔根·施密杜伯(J¨urgen Schmidhuber)。长期短期记忆。神经计算,9(8):1735-17801997。约翰·赫尔和艾伦·怀特。具有随机波动性资产的期权定价。《金融杂志》,42(2):281-3001987年。约翰·C·赫尔。期权、期货和其他衍生品。培生教育(印度),2006年。Eric Jacquier、Nicholas G Polson和Peter E Rossi。随机波动模型的贝叶斯分析。《商业与经济统计杂志》,20(1):69–87,2002年。Gregor Kastner和Sylvia Fr–uhwirth Schnatter。辅助效率交织策略(ASIS),用于提高随机波动率模型的MCMC估计。

25
大多数88 在职认证  发表于 2022-6-11 03:12:34
《计算统计与数据分析》,76:408–4232014。Sangjoon Kim、Neil Shephard和Siddhartha Chib。随机波动率:似然推断和与arch模型的比较。《经济研究评论》,65(3):361–3931998年。Diederik P.Kingma和Max Welling。自动编码变分贝叶斯。更正,abs/1312.61142013。Alex Krizhevsky、Ilya Sutskever和Geoffrey E.Hinton。使用深度卷积神经网络进行Imagenet分类。Peter L.Bartlett、Fernando C.N.Pereira、Christopher J.C.Burges、Leon Bottou和Kilian Q.Weinberger编著,《神经信息处理系统进展25:2012年第26届神经信息处理系统年会》。2012年12月3日至6日在美国内华达州太浩湖举行的会议的议程。,第1106–11142012页。David Krueger、Tegan Maharaj、J’anos Kram’ar、Mohammad Pezeshki、Nicolas Ballas、Nan Rosemary Ke、Anirudh Goyal、Yoshua Bengio、Hugo Larochelle、Aaron C.Courville和Chris Pal.Zoneout:通过随机保存隐藏激活来规范RNN。更正,abs/1606.013052016。Yann LeCun、Yoshua Bengio和Geoffrey E.Hinton。深度学习。《自然》,521(7553):436–4442015。李帅、李万清、克里斯·库克、朱策和高燕波。独立递归神经网络(indrnn):构建更长、更深的RNN。更正,abs/1803.048312018。罗睿、张伟南、徐晓军和王军。神经随机波动率模型。InSheila A.McIlraith和Kilian Q.Weinberger,《美国艺术情报协会第三十二届会议论文集》,美国路易斯安那州新奥尔良,2018年2月2日至7日。AAAIPress,2018年。Thang Luong、Hieu Pham和Christopher D.Manning。基于注意的神经机器翻译的有效方法。

26
nandehutu2022 在职认证  发表于 2022-6-11 03:12:37
Chris Callison Burch、Jian Su、Daniele Pighin和Yuval Marton编著了《2015年自然语言处理经验方法会议记录》,EMNLP 2015,葡萄牙里斯本,2015年9月17日至21日,第1412-1421页。计算语言学协会,2015年。Asier Mujika、Florian Meier和Angelika Steger。快-慢递归神经网络。《先进的神经信息处理系统》,第5917–5926页,2017年。Razvan Pascanu、Tomas Mikolov和Yoshua Bengio。关于训练复发性神经网络的困难。《国际机器学习会议》,第1310–1318页,2013年。Adam Paszke、Sam Gross、Soumith Chintala、Gregory Chanan、Edward Yang、Zachary DeVito、Zeming Lin、Alban Desmaison、Luca Antiga和Adam Leer。自动区分InputTorch。2017.Ser-Huang Poon和Clive WJ Granger。金融市场波动预测:综述。《经济文献杂志》,41(2):478–5392003。丹尼洛·希门内斯·雷森德、夏奇尔·穆罕默德和达恩·维尔斯特拉。深层生成模型中的随机反向传播和近似推理。2014年6月21日至26日,中国北京,第31届国际机器学习会议记录,JMLRWorkshop和会议记录第32卷,第1278-1286页。JMLR。org,2014年。Tim Salimans和Diederik P Kingma。权重归一化:一种简单的重新参数化,以加速深层神经网络的训练。《神经信息处理系统的进展》,第901-9092016页。杰尔根·施密杜伯。神经网络深度学习:概述。神经网络,61:85–1172015。迈克·舒斯特和库尔迪普·帕利瓦尔。双向递归神经网络。IEEE Trans。

27
能者818 在职认证  发表于 2022-6-11 03:12:40
信号处理,45(11):2673–26811997。Nitish Srivastava、Geoffrey Hinton、Alex Krizhevsky、Ilya Sutskever和Ruslan Salakhutdinov。辍学:一种防止神经网络过度拟合的简单方法。《机器学习研究杂志》,15(1):1929-19582014。Rupesh Kumar Srivastava、Klaus Greff和J¨urgen Schmidhuber。公路网。更正,abs/1505.003872015。Aaron Van Oord、Nal Kalchbrenner和Koray Kavukcuoglu。像素递归神经网络。2016年,国际机器学习会议,第1747–1756页。吴越、何塞·米格尔·埃尔南德斯·洛巴托和邹宾·加拉马尼。高斯过程波动模型。在Zoubin Ghahramani、Max Welling、Corinna Cortes、Neil D.Lawrence和Kilian Q.Weinberger的《神经信息处理系统的进展27:神经信息处理系统年度会议2014》,2014年12月8日至13日,加拿大魁北克省蒙特利尔,第1044-1052页。Kelvin Xu、Jimmy Ba、Ryan Kiros、Kyunghyun Cho、Aaron C.Courville、Ruslan Salakhutdinov、Richard S.Zemel和Yoshua Bengio。展示、参与和讲述:神经图像字幕生成与视觉注意。巴赫和布莱巴赫和布莱(2015),第2048-2057页。Wojciech Zaremba、Ilya Sutskever和Oriol Vinyals。递归神经网络正则化。更正,abs/1409.23292014。朱利安·乔治·齐利、鲁佩什·库马尔·斯利瓦斯塔瓦、扬·库特纳克和杰尔根·施密杜伯。重现高速公路网络。2017年,国际机器学习会议,第4189–4198页。附录图1:波动率预测案例研究

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-5 09:55