|
对于更高的k值,我们允许代理了解有关上一时间段餐厅入住率的更多信息,以进行比较。结果:图4显示了N=1000时该策略的仿真结果。在x轴上,我们绘制了餐厅,在y轴上,我们绘制了前往餐厅NIF或所有餐厅的代理数量,即所有i∈ N、 我们显示两个快照。图4:对称强化“事前更新”策略的模拟结果(要求成功(f=1),惩罚失败(f=0.1))。我们给出了两个快照(左栏t=5000,右栏t=10000),展示了N=1000个代理的系统可能的演变。行显示了信息集不同值的结果,k=1、k=2和k=3。很明显,随着信息集大小的增加,收敛速度会更快。时间片t=5000,另一个时间片t=10000。这三行显示了代理在三个不同信息集(k=1、2、3)下的分布。首先要注意的是,动力学变得相当缓慢。即使在10000个时间片之后(对于N=1000),也很难实现协调,如图4右侧的面板所示。然而,我们注意到收敛是有保证的。作为一种解释,考虑一个在所有餐厅中代理分布为(501499,0,…,0)的案例。根据目前的策略,只有第一家餐厅可以吸引代理,第二家餐厅只能失去代理,无论过程多么缓慢。下一个重要特征是,通过有限量地增加信息集(从k=1增加到2和3),极大地提高了协调程度,尽管动态在某一点上变得缓慢。
|