请教,我在进行一个仿真实验时,每个时刻都得到变量X的若干个正态采样(10个左右),用来估计对应均值和方差,所以有下面这样正态分布的变迁:
t1: N(a1,b1^2);
t2: N(a2,b2^2);
...
tn: N(an,bn^2);
n大概20左右。
发现,a1...an,b1...bn都是递增的,请教:这样的数据可以如何建模,并用训练模型预测tn+1时刻可能的正态分布?
我尝试了:
1.将a1...an和b1..bn分开训练,这样时间序列的方法很多,意义不大
2.高斯过程,貌似训练数据中的方差信息没办法刻画,它也是一个时间序列的回归方法,无法刻画这种正态分布的变迁。
3.假设均值变量为A,A(i)-A(i-1)是一个正态分布, 其均值为函数f(t)、方差为B(i)~g(A(i),t),f、g都为函数。 这种假设下:A(i)~N(f(ti),B(i)),而方差B又是一个正态分布,这样A计算结果是否还是正态分布,有矛盾么? 感觉不对。
请高人指点一下,上述的思路纠正、新方法建议、参考文献等都十分欢迎,谢谢。