|
让这两种游戏的演变都由玩家根据相同的政策文件χ[t\'t]进行引导。然后,当参与有限博弈的玩家数量n不确定地增长时,定理1预测有限博弈的“周期-t”环境εst\'与NG的确定性周期-t\'环境t[t,t\'之间的距离越来越小-1] (χ[t,t′)-1]) oσt.对于某些固定σ∈ P(S),我们可以把t=1和πn1=σn插入定理1。然后,我们将获得大n\'s的σn[1,\'t+1]=(σnt|t=1,2,\'t,\'t,\'t+1)和πn[1,\'t+1]=(πnt | t=1,2,\'t,\'t+1)之间的接近度,其中每个σt=t[1,t]-1] (χ[1,t]-1]) o σ和每个πnt=σn⊙ πt-1t′=1(χnt′)⊙ ~gnt′)。鉴于(10)和(20),这意味着当大型ga mes从anNG的起始分布σ中采样其初始状态时,前一个游戏的状态分布轨迹将与后一个游戏的状态分布轨迹保持一致。到目前为止,我们对离散空间S和X的限制主要是因为需要处理形式p的非乘积联合概率 κ; 见(3)。在Yang[34]中,随机状态转换和随机行动计划通过独立生成的冲击进行建模,只需要与产品形式概率p×q有关的结果,其中q是一个普通概率,而不是条件概率。因此,Ethier和Kurtz[11]的建议III.4.4和III.4.6等已知属性可以得到很好的利用。结果可以基于完全状态空间和冲击空间。
|