楼主: 何人来此
917 9

[量化金融] 持续学习强化投资决策 [推广有奖]

  • 0关注
  • 4粉丝

会员

学术权威

78%

还不是VIP/贵宾

-

威望
10
论坛币
10 个
通用积分
64.8012
学术水平
1 点
热心指数
6 点
信用等级
0 点
经验
24593 点
帖子
4128
精华
0
在线时间
0 小时
注册时间
2022-2-24
最后登录
2022-4-15

楼主
何人来此 在职认证  发表于 2022-6-11 05:58:35 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
英文标题:
《Continual Learning Augmented Investment Decisions》
---
作者:
Daniel Philps, Tillman Weyde, Artur d\'Avila Garcez, Roy Batchelor
---
最新提交年份:
2019
---
英文摘要:
  Investment decisions can benefit from incorporating an accumulated knowledge of the past to drive future decision making. We introduce Continual Learning Augmentation (CLA) which is based on an explicit memory structure and a feed forward neural network (FFNN) base model and used to drive long term financial investment decisions. We demonstrate that our approach improves accuracy in investment decision making while memory is addressed in an explainable way. Our approach introduces novel remember cues, consisting of empirically learned change points in the absolute error series of the FFNN. Memory recall is also novel, with contextual similarity assessed over time by sampling distances using dynamic time warping (DTW). We demonstrate the benefits of our approach by using it in an expected return forecasting task to drive investment decisions. In an investment simulation in a broad international equity universe between 2003-2017, our approach significantly outperforms FFNN base models. We also illustrate how CLA\'s memory addressing works in practice, using a worked example to demonstrate the explainability of our approach.
---
中文摘要:
投资决策可以受益于结合过去积累的知识来推动未来的决策。我们引入了基于显式记忆结构和前馈神经网络(FFNN)基础模型的连续学习增强(CLA),用于驱动长期金融投资决策。我们证明,我们的方法提高了投资决策的准确性,同时以一种可解释的方式解决了内存问题。我们的方法引入了新的记忆线索,由FFNN绝对误差序列中经验学习到的变化点组成。记忆回忆也很新颖,通过使用动态时间扭曲(DTW)的采样距离来评估随时间变化的上下文相似性。我们通过在预期回报预测任务中使用该方法来推动投资决策,从而证明了该方法的好处。在2003-2017年广泛的国际股权领域的投资模拟中,我们的方法明显优于FFNN基础模型。我们还说明了CLA的内存寻址在实践中是如何工作的,并使用一个工作示例演示了我们的方法的可解释性。
---
分类信息:

一级分类:Computer Science        计算机科学
二级分类:Machine Learning        机器学习
分类描述:Papers on all aspects of machine learning research (supervised, unsupervised, reinforcement learning, bandit problems, and so on) including also robustness, explanation, fairness, and methodology. cs.LG is also an appropriate primary category for applications of machine learning methods.
关于机器学习研究的所有方面的论文(有监督的,无监督的,强化学习,强盗问题,等等),包括健壮性,解释性,公平性和方法论。对于机器学习方法的应用,CS.LG也是一个合适的主要类别。
--
一级分类:Computer Science        计算机科学
二级分类:Artificial Intelligence        人工智能
分类描述:Covers all areas of AI except Vision, Robotics, Machine Learning, Multiagent Systems, and Computation and Language (Natural Language Processing), which have separate subject areas. In particular, includes Expert Systems, Theorem Proving (although this may overlap with Logic in Computer Science), Knowledge Representation, Planning, and Uncertainty in AI. Roughly includes material in ACM Subject Classes I.2.0, I.2.1, I.2.3, I.2.4, I.2.8, and I.2.11.
涵盖了人工智能的所有领域,除了视觉、机器人、机器学习、多智能体系统以及计算和语言(自然语言处理),这些领域有独立的学科领域。特别地,包括专家系统,定理证明(尽管这可能与计算机科学中的逻辑重叠),知识表示,规划,和人工智能中的不确定性。大致包括ACM学科类I.2.0、I.2.1、I.2.3、I.2.4、I.2.8和I.2.11中的材料。
--
一级分类:Quantitative Finance        数量金融学
二级分类:Computational Finance        计算金融学
分类描述:Computational methods, including Monte Carlo, PDE, lattice and other numerical methods with applications to financial modeling
计算方法,包括蒙特卡罗,偏微分方程,格子和其他数值方法,并应用于金融建模
--
一级分类:Quantitative Finance        数量金融学
二级分类:Portfolio Management        项目组合管理
分类描述:Security selection and optimization, capital allocation, investment strategies and performance measurement
证券选择与优化、资本配置、投资策略与绩效评价
--
一级分类:Quantitative Finance        数量金融学
二级分类:Trading and Market Microstructure        交易与市场微观结构
分类描述:Market microstructure, liquidity, exchange and auction design, automated trading, agent-based modeling and market-making
市场微观结构,流动性,交易和拍卖设计,自动化交易,基于代理的建模和做市
--
一级分类:Statistics        统计学
二级分类:Machine Learning        机器学习
分类描述:Covers machine learning papers (supervised, unsupervised, semi-supervised learning, graphical models, reinforcement learning, bandits, high dimensional inference, etc.) with a statistical or theoretical grounding
覆盖机器学习论文(监督,无监督,半监督学习,图形模型,强化学习,强盗,高维推理等)与统计或理论基础
--

---
PDF下载:
--> Continual_Learning_Augmented_Investment_Decisions.pdf (799.54 KB)
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:投资决策 Quantitative Applications Augmentation Intelligence

沙发
mingdashike22 在职认证  发表于 2022-6-11 05:58:40
持续学习增强投资决策Daniel PhilpsRothko投资策略伦敦大学计算机科学城(University of Londondaniel)分部。philps@city.ac.ukTillman朗顿大学韦德计算机科学系。eweyde@city.ac.ukArtur达维拉·加塞兹,隆多纳大学计算机科学系。garcez@city.ac.ukRoy伦敦大学BatchelorCass商学院城。一batchelor@city.ac.ukAbstractAugmentation(CLA)基于显式记忆结构和前馈神经网络(FFNN)基础模型,用于推动长期财务。我们的方法引入了新的记忆线索,包括经验学习的小说,通过在预期收益预测任务中使用它来推动投资决策,通过采样距离随时间评估上下文相似度。在2003-2017年期间广泛的国际股权领域的投资模拟中,证明了我们方法的可解释性。关键词跨越。1简介学习金融时间序列问题将非常有益。然而,现有的方法很复杂,可以说,这使得它们不太适合金融领域需要的大规模决策。我们引入了持续学习增强(CLA),一种基于时间序列的状态近似重复出现。我们在国际股票神经网络(FFNN)基础模型中应用CLA驱动投资决策。(在进一步的研究中,我们发现CLA也优于更传统的线性模型)。我们还展示了一个关于CLA的内存寻址DDS可解释性的工作示例。第32届神经信息处理系统会议(NeurIPS 2018),加拿大蒙特塞拉。arXiv:1812.02340v4【cs.LG】2019年1月25日识别和记忆,以及如何回忆和应用过去状态的模型,以及如何忘记无嚎叫的相关模型。

藤椅
可人4 在职认证  发表于 2022-6-11 05:58:43
在第四节中,我们根据对过去状态的引用报告了前馈神经能解释的实验。最后,我们提出了我们的结论和未来工作的方向。2为持续学习开发的相关工作方法已应用于许多领域,并采用了原型寻址[]、权重适应[]等方法。在解决了灾难性遗忘[]之后,最近的研究转向了解决二阶问题,例如过度复杂[]。虽然有许多记忆方法适用于顺序记忆任务,但通常在金融中发现的是一个简单、非平稳的时间序列。2.1金融制度作为记忆概念改变时间序列中的状态,其主要缺点是制度之间的变化点(或序列中单个或已知数量的变化点,不太适用于先验变化点或多变量序列[15])。2.2记忆模型存储机制(存储和调用记忆的一种方式)。虽然已经制定了一些缓解措施(参见[39]),但内存寻址通常是可行的。3持续学习增强持续学习增强(CLA)是一种回归方法,用作滑动窗口步长mφθBXKT^yt+1jMmtMtgmodel内存预测。图1显示了记忆和回忆模型记忆的功能步骤。图1:持续学习增强体系结构。(a) 回归基础模型φ,参数化θB构造为一列,包含模型参数θB和上下文引用Xt。最初,基本模型正常运行,使用输入数据Xtto forecast(^yB,t+1)完成向前传递。y当前输入的BJMXTG,Xt-1使用每个内存的上下文引用Xm,对每列的输出加权,得到y(t+1))。3.1内存管理不同的过去状态。

板凳
nandehutu2022 在职认证  发表于 2022-6-11 05:58:46
然后,如果θmXm(Xm,θm)作为滑动窗口进入一个新的时间段,CLA通过xtxm调用一个或多个模型内存,则可以应用在给定过去状态下训练的模型参数θm。更类似于当前输入序列的训练数据将具有更高的权重^ym,t+1(^yt+1)。3.2记住Bproach在时间中前进。假设这些更改与向后传递的statejjθbxtfunctionjj中的更改相关,这将导致追加一个新的内存列toM:M=(X,θ),(Xm,θm)(1) 覆盖θB。理论上,对于一个公平的状态模型,B大约是I。i、 d.平均值为零。超过一定的置信区间,进而意味着状态发生变化。JCrit代表一个关键Bobserved绝对误差系列,B、 峰值高于临界水平,JCrit:算法1记忆函数jRequire:初始化内存结构mrrequire:初始化JCrit#逐步通过时间,逐段,从最早的日期开始,对于所有时间步骤t in t doB、 t型← 基础模型φ(Xt,θB)向前传递后的误差,如果|B、 t |≥ JCritthenappend model memory(Xt,θB)来修复#因变量变得可观察θB← 列车基地模型和覆盖(Xt,θB)JCrit← 学习并更新JCritend-forJCritis超参数,该参数在每个时间步都进行了优化,以在研究期限内对rememMCLA方法产生一定程度的敏感性,直到时间T:JCrit=argminjCrit∈jgridf(Xt,jCrit)(2),其中,FIS是表示为输入序列和jCrit函数的CLA方法,产生B、 t(thetjgridand最大值B、 3.3重新调用当前基本模型和模型存储器的预测(t+1)。^y(t+1)=g(Xt,Mt)(3)Xt,上下文引用XM存储在每个单独的内存中。更多的内存还使用基于采样的实现来进一步降低开销。

报纸
能者818 在职认证  发表于 2022-6-11 05:58:50
DTW仅应用于xmandxt中随机抽样的一个子实例,对行进行抽样,每个行代表数据集中的不同证券:^D(Xm,Xt)=1/NNXi=0DT W(Xm,r(D),Xt,r(D))(4)gbestgSimW显示八个中间总回报结果。TR是年化总回报,SD是年化标准差,TR/SD是夏普比率。增强效益显示了CLA在信息比率方面的表现。Sharpe和信息比率t-stats的P值表明,对于最佳和相似性加权测试,CLA在1%的水平上显示出统计显著的命中率。其中,^Dis是预期距离,Nis是要采集的样本数,r(D)是1到D之间的随机整数。平均采样距离用于确定当前上下文和每个内存的上下文之间的相似性。3.4平衡距离(Balancingdistance)模型存储器:^yt+1=gBest(Xt,Mmt)(5),其中gBest是一个输出函数,用于选择与所有模型存储器的当前argminm^D(Xm,Xt)^yt+1插入码最相似的模型存储器,gSimW八(Xt,M):^yt+1=MXm=1φ(Xt,θM)·1.-^D(Xm,Xt)PMm=1^D(Xm,Xt)(6) 完全重复,用于平衡模型记忆的连续函数比选择最好的单一模型(事实确实如此)更容易泛化。4模拟投资决策,用于推动股票投资模拟。股票水平特征用作输入数据集,对每个时期的所有股票批量训练FFNN,预测每个股票12个月的总回报。

地板
何人来此 在职认证  发表于 2022-6-11 05:58:53
当预测值处于顶部(底部)十分位时,它被解释为买入(卖出)信号。ri,t=αi,t+βMKT,i,txMKT,t+βV AL,i,txV AL,i,t+i、 t,其中ri是股票在txmkt,txV AL期间的超额收益,t除美国以外的所有国家的世界价值股票指数的相对收益。XTX以75/5/25的比例交叉验证和测试集。多头/空头模型投资组合包括多头头寸(买入)和空头头寸(卖出)。该模拟涵盖了4500只国际股票,涵盖了发达市场和新兴市场的30多个国家,与2001-2017年间除美国以外的所有国家的全球股票指数相对应。(请注意,前24个月被用作培训期,而测试从2003年开始,完全没有样本,没有已知的数据捕捉偏差)。为了说明所使用的DTW抽样方法,进行了多次测试。为此,每次测试进行50次模拟。最佳和单独相似性与最佳和相似性加权平衡方法相比,正总回报较弱,表明CLA表现出的不仅仅是整体效应5模拟结果5.1准确性:投资决策长期/短期模拟的SCLA结果显示,与FFNN基础模型相比,具有显著的回报效益。确定未来回报不佳的股票。除了产生良好性能的相对基础模型误差增加外,增强效益也增加,表明当基础模型误差较高时,增强效益更强,反之亦然。此属性已在所有测试中显示。5.2可解释性:由CLA和基础模型分别驱动的投资策略中的可解释记忆。

7
可人4 在职认证  发表于 2022-6-11 05:58:56
图3b)显示了CLA的内存结构,其中理论上可以在模拟中的每一步前追加一个新内存,尽管在本例中只记住了四个内存。两次Quant地震的记忆,直到2008年金融危机最严重的时候雷曼兄弟倒闭之后。其次,2011年至2014年年中期间,即受欧元区危机和随后复苏影响的时期,CLA使用了2009年12月结束期间形成的记忆。2016年末,CLA也使用了该方法,尽管效果要小得多。图3:可解释记忆:回忆记忆如何影响模拟性能。a)中的图表使用单个模拟,并使用CLA驱动的策略或基础模型显示2003年1美元投资的增长。b) 显示CLA内存结构的表示,其中展开三角形中的每一行表示一个潜在内存。这个外部存储器结构可以在这个模拟中被记住。三角形图形中的顶行表示基础模型。突出显示每个时段中权重最高的内存。6结论随着时间的推移而呈现,并能够将此知识应用于未来可能再次出现的状态。OurJCritbroad股票选择问题。6.1结果的准确性与基础模型相比,在统计上具有显著的增加效益。模型记忆的相似性加权比简单地选择最佳模型记忆产生更强的结果。如果CLA返回。6.2记忆使用的可解释性CLA的记忆结构可以根据过去状态与预测发生状态相关的方面来解释,也可以更好地理解类似过去状态背景下当前状态的特征。

8
nandehutu2022 在职认证  发表于 2022-6-11 05:58:59
这些信息可以为用户提供深刻的见解,以指导决策。6.3金融领域内外的未来工作静态时间序列。虽然我们的方法直接适用于模型选择,但绝对误差分布的变化可以用来更好地识别变化的状态,更好地学习更合适的模型。我们感受到我们的方法的好处,即线索、记忆模型和最终行动。参考文献【1】1975。[2] Chunyoung Chung、aglar G¨ulc¨ehre、KyungHyun Cho和Yoshua Bengio。门控递归神经网络序列建模的经验评估。更正,abs/1412.35552014。[3] Dan C.Ciresan、Ueli Meier和Jurgen Schmidhuber。用于图像分类的多列深度神经网络。更正,abs/1202.27452012。[4] Picard D.测试和估计时间序列中的变化点。应用概率进展,1985年。[5] 《措施》,第1卷,第1542-1552页。第2版,2008年8月。[6] 第E页:参数在未知点发生变化的问题。Biometrika,44(1/2):248-2521957。[7]81(4):553–574, 1999.[8] 战略。Frank J.Fabozzi系列。Wiley,2010年。[9] 债券。《金融经济学杂志》,33:3–561993年。[10] 托马斯·菲舍尔和克里斯托弗·克劳斯。利用长-短期记忆网络进行深度学习萨兰德大学厄兰根纽伦堡经济研究所,2017年。[11]4:128–135, 1999.[12] 亚历克斯·格雷夫斯、圣地亚哥·费尔南德斯、福斯蒂诺·戈麦斯和尤根·施密杜伯。连接论时间分类:使用递归神经网络标记未分段的序列数据。369–376,美国纽约州纽约市,2006年。ACM。[13] 亚历克斯·格雷夫斯、格雷格·韦恩和伊沃·丹尼尔卡。神经图灵机。更正,abs/1410.54012014。[14] 538(7626):471–4761016年10月。[15] 《时间序列分析杂志》,28(1):72–912007。[16] 杰弗里·辛顿、奥利奥·维亚尔斯和杰弗里·迪恩。

9
大多数88 在职认证  发表于 2022-6-11 05:59:02
在神经网络中提取知识。2015年NIPS深度学习和表征学习研讨会。[17] Schmidhuber J Hochreiter S.长-短期记忆。神经计算,9(8):1735–17801997。[18] Bai J.关于自回归和移动平均模型中残差的部分和。《时间序列分析杂志》,14(3),1991年。[19] V.K.Jandhyala和I.B.MacNeill。应用于检测未知时间参数变化的回归模型的剩余部分和极限过程。随机过程及其应用,33(2):309–3231989。[20] MacNeill I Jandhyala诉变化点问题:应用审查。《水科学的发展》,27:381–3871986。【21】M.W.Kadous、Mohammed Waleed Kadous和主管Claude Sammut。时间类别2002。【22】CoRR,abs/1703.03129,2017年。【23】调查与实证。数据最小已知值。Discov。,7(4):349–371, 2003.[24]詹姆斯·柯克帕特里克、拉兹万·帕斯卡努、尼尔·C·拉比诺维茨、乔尔·维斯、纪尧姆·德斯贾丁斯、安德烈·A·鲁苏、基兰·米兰、约翰·全、蒂亚戈·拉马略、阿格涅斯卡·格拉布斯卡·巴温斯卡、神经网络中的排雷目标。更正,abs/1612.007962016。[25]使用LSTM递归神经网络进行诊断。更正,abs/1511.036772015。【26】伊恩·B·麦克尼尔。检测未知干预并应用于水文数据预测。《美国水资源协会JAWRA杂志》,21(5):785–7961985。【27】增强神经网络。更正,abs/1711.037122017。亚历克斯·格雷夫斯和蒂莫西·P·利利克雷普。具有稀疏读写的缩放记忆增强神经网络。更正,abs/1610.090272016。【29】Chib S.多个变化点模型的估计和比较。《计量经济学杂志》,86(2):221–2411998。【30】H Sakoe和S Chiba。口语记录的动态规划算法优化26(1):43–491978。【31】用于人类活动识别的动态时间扭曲模板选择。

10
nandehutu2022 在职认证  发表于 2022-6-11 05:59:05
更正,abs/1512.067472015。【32】分析,32(2-14):43–462013。【33】更正,abs/1703.051752017。[34]“dom”enech Badia、Benigno Uria、Oriol Vinyals、Demis Hassabis、Razvan Pascanu和CharlesBlundell。基于内存的参数自适应。更正,abs/1802.105422018。【35】模拟与计算,23:287–3221994。【36】奥利奥·维亚尔斯(Oriol Vinyals)、查尔斯·布伦德尔(Charles Blundell)、蒂莫西·P·利利克拉普(Timothy P.Lillicrap)、科雷·卡武科库奥卢(Koray Kavukcuoglu)和达恩·维尔斯特拉(Daan Wierstra)。为一次性学习匹配网络。更正,abs/1606.040802016。【37】杰森·韦斯顿、苏米特·乔普拉和安托万·博尔德斯。内存网络。更正,abs/1410.39162014。[38]Wojciech Zaremba和Ilya Sutskever。强化学习神经图灵机。更正,abs/1505.005212015。【39】科佩蒂。有限扭曲路径长度下的动态时间扭曲。信息科学。,393(C):91–1072017年7月。【40】Ji Hanlee Zhang N,Siegmund D和Li J.检测多个序列中的同时变化点。Biometrika,97:631–6462010。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-10 21:16