|
SoftMax回归是一种多项式logistic回归,是logistic回归的推广(见方程(12))。它用于建模类别因变量(例如0:买入、1:卖出和2:持有),类别不得有任何顺序(或等级)。Word2Vec NN的输出神经元使用Softmax,即输出层是Softmax回归分类器。根据输入序列,SoftMax神经元将输出概率分布(浮点值介于0和1之间),所有这些V={买入、卖出、持有}输出值(yk)的总和将加起来为1。yk=P(y=k | x)=exTwkPnwi=1exTwi(12)由于数据过度拟合导致模型参数过度增加也会影响模型性能。这将模型参数的系数推至零,从而降低成本函数。为了学习任何模型,我们必须省略没有课堂预测的培训天数,因为第3.6节中的“FutureTeller”是预先考虑的,其中校正的交易天数为nd=nd- nla。3.7.1转换后的基本预测XYX(3×nd)y(1×nd)=HOLOCOHOLOCO。HndondlndcndondondondAA。和→ y=fHO、LO、CO(13) 根据基本预测,我们没有包括OHLC烛台外观的背景,这影响了Word2VEC的执行,并通过添加前几天的OHLC烛台来考虑背景。3.7.2 Word2Vec预测,包括wordsw向量(见等式(5))和交易行为向量(见等式(10))的汇总,格式如下w(1×nd)y(1×nd)=ww。wnd公司AA。和(14) winvWeight矩阵w M(nv×nw)(见等式(9)),其中wi=vi,1,vi,2,六、内华达州. 矩阵中的训练数据xx(nv×nd)定义如下hx(nv×nd)y(1×nd)i=v1,1v1,2。v1、nvv2、1v2、2。v2,nv。vwnd,1vwnd,2。vwnd,内华达州AA。
|