|
更准确地说,他们将多类SVM(探索线性和RBF核)与使用bagging进行方差约简的决策树进行了比较。Kim(2001)使用输入/输出隐马尔可夫模型(IOHMMs)和强化学习(RL)分别识别订单流量分布和做市策略。Yang等人(2015年)应用学徒学习方法,如线性逆强化学习(LIRL)和高斯过程IRL(GPIRL),根据观察到的限制指令识别交易者或算法交易。Chan和Shelton(2001)将RL用于市场制定策略,其中基于蒙特卡罗模拟和状态行动奖励状态行动(SARSA)算法的实验测试了他们政策的有效性。同样,Kearns&Nevmyvaka(2013)在明池和暗池中实施RL以优化交易执行。特别是在暗池的情况下,他们将删失探测算法应用于智能顺序路由(SOR)问题。Yang等人(arch)研究了一种IRL算法,该算法用于将HFT策略与其他算法交易活动分离。他们还将相同的算法应用于识别操纵性HFT策略(即欺骗)。Felker et al.(2014)通过几项变化预测报价价格的变化。他们将特征加权欧氏距离应用于训练簇的质心。他们计算到训练簇质心的这类距离,在训练簇中考虑特征选择,因为他们的模型中包含了一些变化。2.4。HFT和LOBHFT以及LOB研究活动的其他方法也涵盖了诸如买卖订单的最佳提交策略等主题,重点关注资产价值不确定性带来的库存风险,如Avellanda&Stoikov(2008)的工作。
|