因此,MLP是TCN的一个子类,RFS等于1。也可以使用剩余连接的想法。定义3.15(带跳接的TCN)。采用定义3.10和forNskip中的符号∈ N letγl:RNl-l×Tl-1.→ RNl×Tl×RNskip×Tl用于l∈ {1,…,L}γ(Nskip,NL+1,0)输出Y∈ RNL+1×TLof a TCN f:RN×T×Θ→ RNL+1×TL递归定义为X(l),H(l)= γlX(l-1)对于l∈ {1,…,L}Y=γLXl=1H(L)!,其中X(0)∈ RN×T,则f称为带跳连接的时间卷积网络。TCNs的缺点之一是要处理的时间序列的长度被限制为theT(f) 1计算瓶颈。此外,如果这样的大型网络能够被训练成有意义的模型,以及是否有足够的数据可用,这就成了问题。虽然对TCN的扩展很感兴趣,可以对长期依赖性进行建模(参见Dieleman et al.(2018)),但我们将这些方法的开发留作将来的工作+图7:带跳过连接的普通TCN。本节介绍的NN拓扑是用于实现第7节所述结果的核心组件。为了训练这些网络生成时间序列,我们现在在随机变量和随机过程的设置中公式化。4生成性对抗网络生成性对抗网络(GANs)(Goodfello等人,2014)是一类相对较新的算法,用于学习随机变量样本的生成模型,即数据集或随机变量本身的分布。最初,GANs用于生成图像。在此过程中,使用TCN。在本节中,letNZ,NX∈ Nand let(Ohm, F、 P)是概率空间。此外,XZRNXRNZrandom变量X将由PX表示。4.1 GANs上下文中的随机变量公式,(RNZ,B(RNZ))和(RNX,B(RNX))分别称为潜在空间和数据度量空间。
|