楼主: 可人4
1415 31

[量化金融] 基于新闻的交易策略 [推广有奖]

11
可人4 在职认证  发表于 2022-6-10 07:21:25
为了对新闻情绪信号做出反应,我们的决策支持系统需要不断扫描新闻流,并在发布新的财务信息后计算情绪。当与本次新闻发布相关的新闻情绪要么极其积极,要么极其消极时,这意味着随后股市很可能会朝着同样的方向作出反应。如果在价格调整前不久触发自动交易,我们将从股市反应中获益。为了实现这一目标,我们指定了所谓的简单新闻交易策略(在线附录中给出的伪代码)。每当即将发布的公告的新闻情绪指标的绝对值超过某个正阈值或负阈值时,它就会触发买入和卖空决策。这个判定是作为一个条件给出的,即如果S(a)小于负的thresholdθ-Sor大于正θ+S。我们为两个θ选择合适的阈值-第5.4.3节是我们评估的一部分。将策略与新闻和动量交易相结合后续交易策略通过利用新闻情绪和动量形式的历史价格,将上述方法相结合。我们围绕着这样一个想法制定了这种交易策略,即我们希望投资inassets,同时(1)具有高度极性的新闻披露和(2)在同一方向上的先前势头。只有当新闻稿和历史价格都给出了朝着同一方向发展的迹象时,该策略才会触发相应的交易决策(参见伪代码的在线附录)。4.4. 基于策略学习规则的算法缺乏适应任意模式的灵活性。作为补救措施,监督学习具有这样的适应性,因为它可以从数据中学习模式,并将其结合起来以提高其预测性能。

12
能者818 在职认证  发表于 2022-6-10 07:21:28
此外,机器学习算法通常可以将非线性处理为另一个好处。与规则相比,它们可以通过数学手段自动校准,通常比上述规则有更多的自由度,因此可能更好地适应特定任务。作为机器学习的默认方法,我们使用随机林,因为它们的性能非常好。由于这些有利的特性,我们决定使用随机森林,但我们注意到,它们可以被任何其他有监督的学习策略所取代。事实上,我们的目标是展示机器学习本身的优势。此外,我们观察到一个潜在的困境:每一个交易决定都会影响下一个交易决定;i、 e.购买特定股票后,下一个决定是出售还是持有取决于交易历史。作为补救措施,我们建议使用强化学习,它允许通过试错经验直接学习合适的交易序列【36】。为了存储当前知识,强化学习方法引入了所谓的状态动作函数Q(st,at),该函数定义了每个状态st中每个可能动作的期望值。如果Q(st,at)已知,则最优策略π*(st,at)由给定状态st的Q(st,at)最大化的动作at给出。在这里,我们使用所谓的Q-Learningmethod【36】。对于所有状态和动作,我们将动作值函数Q(s,a)初始化为零。随后,代理从历史数据集中连续观察一系列的起伏。在下文中,我们将详细介绍学习的具体内容。在随机森林的情况下,我们使用基于每个新闻披露的预计算的最优决策作为训练数据集。这些是持有现有股票以及投资新股或指数的一个类别变量。

13
可人4 在职认证  发表于 2022-6-10 07:21:31
随机森林的输入变量是情绪的连续值、股票的变化率、指数的变化率、指数的历史表现和平均股票虚拟值,所有这些都是针对当前和以前的新闻披露。在强化学习的情况下,我们使用两种状态代表当前,因此我们将随机森林视为一种通用预测模型,在实际应用中可能会得到改进(或改变)。以及之前的披露。每个都对二进制变量的组合进行编码,注意情绪的符号、变化率、指数的变化率和指数的历史表现。5、评估上述各节介绍了一些不同于运营方式的交易策略;本节根据这些交易策略所取得的绩效对其进行评估。我们首先关注我们的基准战略,然后分析其绩效。5.1. 基准:股票市场指数和动量交易作为我们的第一个基准,我们选择所谓的CDAX,这是一种由德意志银行计算的德国股票市场指数。该指数是法兰克福证券交易所所有股票的综合指数,这些股票在通用标准或基本标准细分市场上市。2004年至2011年年中,该指数增长了50.99%,折合成年率计算为5.65%。正回报的天数比负回报的天数多1092到864天。简单动量交易是我们的第二个基准。除了历史股价外,此策略不需要任何数据输入。当历史价格继续保持其趋势时,我们可以投资特定股票以促进这一发展。

14
nandehutu2022 在职认证  发表于 2022-6-10 07:21:34
此外,投资组合交易将多只股票的momentumtrading集合起来,以降低风险成分,但这也将平均每日回报率降低至0.0220%。当查看图2中的Historogramof回报时,我们发现CDAX的波动性较小。CDAX指数的日收益波动率为0.013,而投资组合交易的日收益波动率为0.020,动量交易的日收益波动率为0.045。0100200300-4日收益率(in%)CDAX股票指数050100015200-20-10日收益率(in%)FrequencyMomentum Trading0200400-10-5日收益率(in%)CDAX指数(左)、动量交易(中)和组合交易(右)的非零收益直方图,其中竖线表示相应的平均值。5.2. 新闻交易本节从简单的交易策略开始,评估新闻交易的不同变体。无论何时披露任何正面或负面新闻,这种策略都会触发交易。因此,目标是演示如何将基于新闻的数据合并到投资决策模型中。到目前为止,我们基于新闻的交易策略执行购买决策的阈值θSabove的值仍然没有答案。为了找到最佳参数,图3比较了阈值θ+砂θ-Sagainst平均回报率。为了简单起见,我们根据新闻情绪分布的分位数来测量这些阈值。我们看到,在高每日回报的集群中,出现了大约10%的阈值,并产生了良好的结果。因此,我们决定设置θ-Sto情感值S(A)的10%分位数(θ+Sto为90%分位数),以使该变量外部给定。

15
nandehutu2022 在职认证  发表于 2022-6-10 07:21:37
然而,重要的是要强调,绩效有很大的差异,这取决于此处,我们仅考虑每天的第一次新闻发布,仅在工作日,给出了1892份披露的总语料库。门槛利用历史数据对上述策略进行评估后发现:将阈值设置为10%分位数,我们在波动率为0.078的情况下获得的平均每日回报率为0.4722%。此外,我们还结合了新闻和动量交易。该策略导致业绩较低,平均每日异常回报率为0.0335%。然而,这一策略同时揭示了波动性较小的风险降低部分,即0.028。下面的图表进一步评估了这两种策略,即简单新闻交易和组合版本。图4描述了前500个工作日内累积回报的发展情况。换言之,该图显示了当以一个货币单位开始时,投资组合的价值是如何随时间演变的。在经历了一段高度波动的创业期(估值也为负值)后,这两个投资组合的价值在大约一年后都大幅增长。与组合策略相比,简单新闻交易的涨幅更大。类似地,图5比较了每日收益的分布。我们注意到,简单新闻交易的波动性明显更高,这最终与更高的风险有关。这两种策略学习方法都比其他新闻交易策略执行更多的交易,即每秒钟到第三个工作日进行一次交易。尽管如此,这两家公司都实现了最高的平均回报。虽然回溯更适合作为监督学习方法的随机森林,但强化学习的风险较低。

16
mingdashike22 在职认证  发表于 2022-6-10 07:21:40
我们还注意到,基于规则的新闻交易的特点是有更多的交易日,尽管这些交易不一定会转化为财务收益。显然,strategylearning能够识别那些回报率较高的日子,如图6.10203040500.0 0.2 0.4 0.6中的直方图所示,平均每日回报率(in%)阈值为情绪分位数(in%)。图3:阈值θ的比较-S(和θ+S:=100%- θ-Sagainst日均回报率。阈值是以语料库中平均新闻情绪两端的分位数来衡量的。5.3. 比较模拟范围从2004年1月开始,然后总共跨越1956个工作日。表1提供了我们交易模拟的所有结果。在这里,我们评估每个战略的投资决策与市场反馈的一致性。我们主要关注平均每日回报,因为累积回报可能会产生误导。理由如下:一次错误的交易可能导致业绩暴跌,而高平均日回报率表明持续受益。此外,我们希望将注意力转向波动性列。这些值可以作为与每个策略相关的风险水平的指标。尽管简单的新闻交易可以获得更高的回报,但它与更高的波动性和更高的风险有关。因此,对于从业者来说,遵循一种能带来较小回报的策略,同时也能降低相关风险,可能是有益的。此外,我们还报告了异常回报率,该异常回报率可纠正同期市场回报率(参见相应计算的在线附录)。

17
可人4 在职认证  发表于 2022-6-10 07:21:43
Median0501001502004-01 2004-07 2005-01 2005-07 2006-01累计回报率(单位%)合并新闻和动量交易新闻交易图4:前500个营业日的新闻交易以及新闻和动量交易组合的累计回报率比较。由于流动性问题或中等正常回报情况下指数交易的高比率,某些股票的价格可能不会每天变化,因此回报率似乎为0%。现在,我们将我们的基准与新闻交易进行比较,以展示如何将基于新闻的数据纳入投资决策模型。基准的特点是,CDAX的平均回报率为0.0298%,动量交易的平均回报率为0.0464%。相比之下,新闻交易达到0100200300-15-10-5 0 5 10 15日收益率(In%)新闻交易0100200300-15-10-5 0 5 10 15日收益率(In%)组合交易图5:比较简单新闻交易(左)和新闻与动量组合交易策略(右)的非零收益直方图,其中竖条表示相应的平均值。0255075100-10-5 0 5 10每日回报(in%)频率监督学习。0255075100125-10-5 0 5 10每日回报率(in%)频率强化学习。图6:随机森林(左)和强化学习(右)形式的监督学习的非零回报直方图,其中竖线表示相应的平均值(从2006年开始评估,2004年和2005年进行培训)。简单策略为0.4722%,监督案例为1.1807%。这是一个明显的增长,但与相当高的波动性有关。有趣的是,我们可以通过查看特定行业(如汽车或化学品)来减少风险成分。在这两种情况下,我们都看到了波动性的降低,这是平均回报降低的代价。

18
何人来此 在职认证  发表于 2022-6-10 07:21:46
此外,我们注意到,与规则相比,机器学习算法固有的预测误差增加了更多的噪声源,从而削弱了风险成分。我们强调这一点,即我们处理每日回报,而结果可能会影响日内回报。作为补救措施,我们在表1中提供了与异常回报率的比较。此外,第6.2节讨论了普遍性和局限性。在强调原始回报的同时,我们还提供了一个包含简化交易成本的绩效评估。因此,表1显示了平均回报减去这些成本。与【24、37、13】相一致,我们使用金融研究中常见的比例交易费,交易成本大多在0.1%-0.3%之间变化【22】,或者假设买卖股票的固定交易费【27】为10美元。因此,我们用每个买入/卖出的简化交易费用模拟投资组合。表1:比较几个关键绩效特征的基准和交易策略。由于流动性问题或指数交易的高比率,价格可能不会每天变化,因此中位回报率可能为0%。夏普比率根据CDAX指数计算。运营成本为0.1%,相当于10个基点,以估算交易运营产生的额外成本。因此,这些价值可能与平均回报率无关,因为我们在这里进行投资组合模拟,其中可盈利交易和交易成本不一定是统一分布的。有关对冲基金高频指令交易成本的更多信息,请参见[38、39、37]。最后,表1提供了两个指标,用于比较绩效和风险之间的权衡。首先,变异系数衡量回报(即风险)与业绩的波动性。

19
何人来此 在职认证  发表于 2022-6-10 07:21:49
较小的系数表明更有利的贸易效应。有趣的是,策略学习的两个变量的值最低,分别为8.67和8.44。其次,夏普比率将超额收益(基于CDAX指数)与收益标准差进行比较。同样,这两种学习方法在这一指标中占主导地位,强化学习略好一些。5.4. 统计测试本节提供了统计证据,表明交易策略可以导致日回报率高于零。我们进行了单侧Wilcoxontest和单侧t检验。在这两种情况下,零假设检验给定的交易策略是否会导致日收益的平均值为零。表2中以P值的形式提供了所有测试结果。显然,几个P值在共同显著水平上具有统计学意义。因此,在这些情况下,我们可以在相应的显著水平上拒绝无效假设,并得出结论,交易策略有一个经常使用的单位财务是基点(bps)。这里,一个单位等于1%的1/100,即1%=100个基点。日平均回报率高于零。这对于简单的新闻交易和监督学习来说尤其如此,前提是新闻交易产生统计上显著的回报。

20
何人来此 在职认证  发表于 2022-6-10 07:21:52
这从本质上确定了投资决策模型可以利用哪些基于新闻的数据的方法。表2:验证每日回报高于零的假设的统计检验(无交易成本;基于表1中的策略)。交易策略每日收益率(平均值)Wilcoxon Test单侧(P值)t-Test单侧(P值)基准CDAX指数0.0298%0.0031**0.1593动量交易0.0464%0.7803 0.3241投资组合交易0.0220%0.0052**0.3147新闻交易简单新闻交易0.4722%0.0025**0.0052**行业:汽车0.0116%0.4809 0.4448行业:化工0.0184%0.2646 0.3820组合新闻和动量0.2001%0.0326*0.0050**策略学习监督学习1.1807%0.0000***0***强化学习1.1506%0.0000***0***统计显著性水平:***0.001,**0.01,*0.05我们对异常回报情况重复分析。因此,零假设检验给定的交易策略是否会导致每日异常回报的平均值为零。所有测试结果以表3中P值的形式提供(仅适用于平均值大于零的测试结果)。显然,几个P值在共同显著水平上具有统计学意义。因此,在这些情况下,我们可以在相应的显著性水平上拒绝零假设,并得出结论,交易策略的日异常回报率平均值高于零。在这里,我们看到了简单的新闻交易、监督和强化学习的结果。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-9 20:33