楼主: 大多数88
1676 60

[经济学] 地方主导 [推广有奖]

21
kedemingshi 在职认证  发表于 2022-4-28 15:44:17
(4) 战略明显主导战略siifH∈ D(是,是),分钟-我∈s-i(h)ui(ζ(si,s)-i) )≥ 麦克斯-我∈s-i(h)ui(ζ(si,s)-i) ),(5)我们对弱优势和明显优势的定义与博弈论或机制设计中通常采用的Li定义之间存在一些细微差异。作为机制设计中的常见问题,而不是博弈论中的常见问题,我们定义了弱优势,而不需要在某种偶然性下使用s-trict不等式——在博弈论中,这种概念被称为弱优势(Marx and Swinkels,1997)。此外,在机械设计中,弱优势通常在优先于支付相关类型的情况下定义,而我们在一个没有信仰的世界中定义。我们略微削弱了李克强对明显优势的原始定义,即通过对初始动作的不对称观察而不是类型来获取私人信息意味着某些类型的对手可能会被观察排除,因此这些类型的对手不存在偶然因素。然而,这种差异在具有私有价值观的游戏中并不重要,我们关注的是在信仰自由环境中证明策略的机制;对于这种机制,对手的类型不会对玩家的支付产生任何显著影响。鉴于我们对缩减策略的关注,每个出发点都是李(2017)意义上的最早出发点。如果一个策略弱/明显地支配其他所有策略,那么它就是弱/明显地支配。在静态博弈中,局部概念与全局概念是一致的。在动态博弈中,局部概念等价于到达信息集的策略之间的支配关系。提议1行动∈ AHI弱/明显地主导着动作ai∈ 只有当你非常∈ Si(h,ai)弱/明显受某些Si支配∈ Si(h,ai)。证据弱优势。如果修斯∈ Si(h,ai)。

22
nandehutu2022 在职认证  发表于 2022-4-28 15:44:20
因此,就有了issi∈ Si(h,ai)弱支配Si。请注意,条件(4)包含条件(2)。因此,人工智能在一定程度上弱于人工智能。只有修斯∈ Si(h,ai)。由于AI是局部弱支配的AI,根据条件(2)存在si∈ Si(h,ai)这样s-我∈ s-i(h),ui(ζ)(si,s-i) )≥ ui(ζ(si,s)-i) ),(6)如果h′,则定义\'ias\'i(h′)=si(h′) h和s′i(h′)=si(h′)如果h′6 h、 因此,s-我∈ s-i(h),ζ(s′i,s-i) =ζ(si,s)-i) ,(7)s-i6∈ s-i(h),ζ(s′i,s-i) =ζ(si,s)-i) 。(8) 由(7)可知,不等式(6)以s′iin代替si,再加上(8),我们得到(4):si弱地被s′i支配。如果修斯∈ Si(h,ai)。因此,这里没有伊西∈ Si(h,ai)显然主导着Si。因为h是一个出发点,条件(5)包含条件(3)。因此,人工智能在当地显然是由人工智能主导的。只有修斯∈ Si(h,ai)。由于人工智能在局部明显受人工智能控制,因此在条件(3)中存在si∈ 是这样的-我∈s-i(h)ui(ζ(si,s)-i) )≥ 麦克斯-我∈s-i(h)ui(ζ(si,s)-i) ),(9)Shimoji和Watson(1998)介绍了条件(严格)优势的概念。达到给定信息集的策略之间的弱显性和明显显性是信息集条件显性的“弱”和“明显”对应物。如果h′,则定义s′ias′i(h′)=si(h′) h和s′i(h′)=si(h′)如果h′6 h、 因此,s-我∈ s-i(h),ζ(s′i,s-i) =ζ(si,s)-i) ,(10)s-i6∈ s-i(h),ζ(s′i,s-i) =ζ(si,s)-i) 。(11) 由(10)可知,不等式(9)代替si成立,因此条件(5)得到验证。在(11)中,在“i”和“si”之间没有其他出发点,因此“si”明显受“s”的支配。

23
能者818 在职认证  发表于 2022-4-28 15:44:23
命题1意味着局部弱优势具有预期的效用基础(如果通过混合行动或不同的风险态度扩展到优势)。然而,在动态博弈中,理性范式通常还需要在不同信息集的选择之间保持某种形式的一致性,这可以追溯到贝叶斯一致性的要求。这不可能是地方主导的特征。事实上,缺乏全球规划意味着,从以下意义上讲,局部弱优势并不能捕获战略之间的一些弱优势关系。安-→ 上下快速移动-→ 安-→ 上下快速移动-→ (3, 3)↓ ↓ ↓ ↓(2, 0) (0, 1) (1, 0) (0, 1)-→ = 穿过↓ = 在这场蜈蚣游戏中,战略跨越。对安来说,唐的优势很弱。尽管如此,很容易看出,在最初的历史上,跨越和在历史上(跨越,跨越)都不是局部的弱主导。另一方面,如果一个策略描述了在某个信息集h上的局部弱支配行为,则它是弱支配的,被模仿SIH的策略所控制,除非达到SIH,规定了在h上局部弱支配的行为,以及随后验证局部弱支配的延续计划。因此,当玩家不在全球范围内进行计划时,可能会有更多的行为,因此似乎更难实现“战略证明”。但事实并非如此:当一个玩家有一个弱优势策略时,也会有局部弱优势行为。所有这些讨论都可以重复,以期在本地和全球范围内成为明显的优势。因此,我们得到以下特征。定理1策略是弱占优的当且仅当si(h)在每h局部弱占优∈ H*我(是)。当且仅当si(h)在每个h上局部明显占优时,策略是明显占优的∈ H*我(是)。证据弱优势。只有修理∈ H*我(是)。修复人工智能∈ 阿希\\si(h).

24
大多数88 在职认证  发表于 2022-4-28 15:44:27
对每个人来说∈ Si(h,ai),因为Si∈ Si(h,Si(h))是弱显性的,它弱显性地支配Si。因此,根据命题1(如果部分),si(h)局部弱支配es ai。如果让我们把规定局部弱支配行为的策略∈ H*(si)。修正-我∈ s-i、 我们证明了f或每个si6=si,ui(ζ(si,s-i) )≥ui(ζ(si,s)-i) )。如果ζ(si,s-i) 6=ζ(si,s)-i) ,有一个出发点h ζ(si,s)-i) 。通过归纳,假设ui(ζ(si,s-i) )≥ ui(ζ(s′i,s-i) )因为每一个“s”都会离开一些“h” h与h′的结合 ζ(si,s)-i) 。根据命题1(仅ifpart),存在“i”∈ Si(h,Si(h))弱地支配Si,因此ui(ζ(s′i,s-i) )≥ui(ζ(si,s)-i) )如果ζ(si,s-i) =ζ(s′i,s)-i) ,我们完成了——如果没有h′,情况总是如此 带h′的h ζ(si,s)-i) 。否则,s′会从siat中删除一些h′ h wit hh′ ζ(si,s)-i) 。然后,根据归纳假设,ui(ζ(si,s-i) )≥ ui(ζ(s′i,s-i) )。很明显,这是一个不折不扣的决定。只有修理∈ H*我(是)。修复人工智能∈ 阿希\\si(h). 对每个人来说∈ Si(h,ai),因为Si∈ Si(h,Si(h))是明显的杂质,它明显地支配着Si。因此,根据命题1(如果部分),si(h)局部弱支配es ai。如果让sibe很快制定出当地明显占主导地位的策略∈ H*(si)。修复h∈ H*(si)。我们证明,对于每一个从siath出发的地点,分钟-我∈s-i(h)ui(ζ(si,s)-i) )≥ 麦克斯-我∈s-i(h)ui(ζ(si,s)-i) )。通过归纳的方式假设,对于每一个离开的s′,都有一些h′∈ H*它跟在h和SI(h)后面,分钟-我∈s-i(h′)ui(ζ(si,s-i) )≥ 麦克斯-我∈s-i(h′)ui(ζ(s′i,s-i) )。根据命题1(仅当第1部分存在时)∈ Si(h,Si(h))显然主导着thusmins-我∈s-i(h)ui(ζ(s′i,s-i) )≥ 麦克斯-我∈s-i(h)ui(ζ(si,s)-i) )。如果s\'我不离开任何h\'∈ H*它跟在h和si(h)之后,然后是Mins-我∈s-i(h)ui(ζ(s′i,s-i) )=分钟-我∈s-i(h)ui(ζ(si,s)-i) ),所以我们做到了——当这样的h′不存在时,情况总是这样。

25
可人4 在职认证  发表于 2022-4-28 15:44:31
否则,根据归纳假设和ζ(si,s-i) =ζ(s′i,s)-i) 每一天-我∈s-i(h)\\(∪h′∈D(si,s′i)s-i(h′),我们得到了期望的结果。定理1表明,策略证明性和明显的策略证明性对缺乏全局规划具有鲁棒性。将局部策略证明称为局部策略证明:考虑到分配给每个比较的偶然事件的划分,每个参与者都存在一个局部主导行为的平面。根据定理1和注1,局部战略证明介于战略证明和明显战略证明之间。然而,由于被赋予了地方主导的概念,我们不需要要求球员的问题无处不在。一个自然且同样有效的替代方案是,要求仅在所有参与者选择其本地主导行为时所能达到的信息集上存在本地主导行为。这样,我们就得到了路径s策略证明的一个弱方向。仅要求路径上的策略证明可能会降低对设计师的承诺要求:我们以一个例子结束本节。放羊野味牧羊犬会在夜晚从山顶召回羊群。他的目标是最大限度地增加绵羊的数量,使其在入睡前一直到达羊圈。然后,根据合同,狗必须保护绵羊不超过其平均睡眠高度的2/3。如果每只羊比所有其他羊睡得离狗更近,则每只羊的报酬为1,否则为0。黄昏时,天气有雾,羊看不见其他羊的去向。此外,他们太累了,无法上山。所以他们通常会在下山的路上停下来,分散地睡在斜坡上。为了解决这个问题,狗想出了以下想法。他首先将自己定位在海拔6.7(山顶是阿塔提泰德100)并吠叫。

26
何人来此 在职认证  发表于 2022-4-28 15:44:34
羊开始向狗走去。那些在路上停下来的人忍不住睡着了。这场比赛是对“猜测平均值的2/3”的动态转换,通过让玩家观察对手是否玩得理性,消除了对对手理性的不信任。然而,这个例子(以及本文)的重点不是将支配性博弈转化为策略证明博弈,而是动态、策略证明博弈的简单性。另外然后,狗移动到45度的高度,开始吠叫。游戏继续以这种方式进行,直到狗到达海拔1的羊圈。然后,如果一些羊没有到达羊圈,狗就会移动到他指定的守卫位置。现在我们来看一下山顶上的一只羊。很容易意识到,接近狗是一个好主意:即使没有其他人下山,它的守卫位置也不会超过67。然后,羊可以观察到有多少其他动物到达了狗的身边。如果所有的羊都在海拔67的地方,那么在海拔45的地方就很容易找到狗,因为它的瓜丁位置不会高于那个高度。等等这一论点可以用局部优势形式化。想一想羊到羊圈的路。在沿着这条路径设置的每一条信息中,绵羊都会知道其他所有的羊都已经到达了狗的当前位置w。然后,它们必须决定要走多远才能到达狗的新位置y<w。在这条道路上停下来也会终止羊的游戏,而到达y处的狗则不会。然而,一只羊可以考虑在晚上停下来。

27
nandehutu2022 在职认证  发表于 2022-4-28 15:44:38
在这个延续计划中,到达y和停在x之间的比较∈ (y,w)非常简单,只需要一种非常粗糙的形式来继续恳求:“如果没有其他人到达y怎么办?如果其他人到达y怎么办?”这正是绵羊从选择y中学习到的东西。在第一种情况下,睡在y可以保证最接近狗,而睡在x则不能。在第二种情况下,羊的收益将为0美元。请注意,绵羊没有弱优势策略。如果在某个信息集上,一只羊意识到其他羊停止上坡,那么达到狗的盐度可能不是最佳选择,因为狗可能不得不在更高的海拔上保护羊。不过,这些信息集可以从游戏中删除:如果狗意识到并不是所有的羊都到了他身边,他可以等待羊睡着,直接移动到他的守卫位置,而不是从较低的高度再次吠叫。然而,以这种方式退出游戏,需要狗有能力在给定目标函数的情况下做出次优行为。4局部应急优势——我们考虑一个更简单的局部优势概念,即在考虑不同情景时,不要求参与者遵守固定的延续计划。定义4固定信息集∈ H*i、 一对动作组合(ai,ai)∈ Ahi×Ahi,和S的分区S-i(h)。行动通常是偶然性主导的(c-主导的)行动为每个人带来了S if-我∈ s硅∈ Si(h,ai),硅∈ Si(h,ai),分钟-我∈s-iui(ζ(si,s)-i) )≥ 麦克斯-我∈s-iui(ζ(si,s)-i) )。

28
何人来此 在职认证  发表于 2022-4-28 15:44:41
(12) 我们说,如果ai是局部c-支配的,那么它是局部c-支配的∈ 给定相应的分区。量化指标相对于地方优势的倒转使得地方c-优势成为主导。备注3如果行动在局部上主导了行动,那么在局部上,c-主导就是原始的S。局部c-主导归结为考虑主导行动之后可能出现的最佳结果,并观察到它并不比主导行动之后可能出现的最坏结果更好,因为后者之后有一些延续计划。LetZ(h,ai,S)-i) 可以在S下访问的终端历史记录-我 s-i(h)如果我选择了A。备注4行动通常c主导着A的行动当且仅当-我∈ S、 马克西∈Si(h,ai)分钟-我∈s-iui(ζ(si,s)-i) )≥ 马克斯∈Z(h,ai,S)-i) ui(z)。与局部优势一样,划分越紧密,局部c-优势越弱。备注5固定两个分区S,S的E-i(h)whe-reeS S.Ifai∈ AHILYC主导人工智能∈ 阿希斯,然后是艾∈ AHIC主导人工智能∈ 阿希吉文斯。当S是平凡的竞争时,局部c-优势和局部优势,即局部明显优势,重合。当S是单态划分时,局部c-优势明显弱于局部优势(即局部弱优势),可以写成以下形式。定义5行动ai∈ 无欲支配人工智能的行动∈ 阿希夫s-我∈ s-i(h),maxz∈Z(h,ai,s)-i) ui(z)≥ 马克斯∈Z(h,ai,s)-i) ui(z),(13)我们说,如果ai一厢情愿地支配其他ai,那么它就是一厢情愿地支配∈ 阿希。备注6 Actionaiwishfully dom i nate aiif且仅当局部w-c主导了单个分区S={S-i} |s-我∈ s-i(h)}。如果动作明显地支配着ai,那么AIC支配着平凡的分区S={S-i(h)}。“一厢情愿”一词有两个说法。

29
mingdashike22 在职认证  发表于 2022-4-28 15:44:46
首先,当偶发事件被一次一个地考虑时,在最坏情况下评估候选人的谨慎态度消失了。第二,在各种意外情况下改变延续计划的灵活性转化为对未来的“一厢情愿”:根据每种可能的意外情况下,当地备选方案最终能够产生的最佳结果进行比较。有鉴于此,一厢情愿的主导地位不需要预先规划。它实际上要求不做计划:总的来说,无论发生什么意外,单一的计划都能达到最好的结果。从这个角度来看,如果我们的球员是根据一厢情愿的优势进行推理,那么由动态机制引发的对未来规划的需求从来都不是问题。我们提供了一个在我们的TTC游戏中一厢情愿的主导地位的例子。鉴于局部c-优势的弱点,以下等价性令人惊讶。eac h策略的定理2∈ Si,Si(h)在每一个h处都是局部主导的∈ H*当每i(i)是局部占优时∈ H*我(是)。这在游戏中是不正确的。我们猜想,在这类博弈中,一厢情愿的优势、局部弱优势,甚至局部明显的优势都会消失。当然,我们对局部优势和局部C优势使用相同的偶发事件划分。证据除非:微不足道。如果修正一个标准,即si(h)在每个h上都是局部c-占优的∈ H*我(是)。修理∈ Hi(si)并通过每小时∈ H*我(si)那个玩家在h玩si(h)之后,每玩一次si,我都能达到∈ Si(h)与Si(h)6=Si(h),s-我∈ s-i(h),ui(ζ)(si,s-i) )≥ ui(ζ(si,s)-i) )。(14) 作为基础步骤,观察到如果玩家i在第h和si(h)之后不再移动,则归纳假设真空成立。修复人工智能∈ 阿希\\si(h)而隔墙是-i(h)我用来比较NSI(h)和ai的播放器。菲克斯∈ Si(h,Si(h))。

30
mingdashike22 在职认证  发表于 2022-4-28 15:44:49
对于每个人来说-我∈ s-i(h)与ζ(s′i,s)-i) 6=ζ(si,s)-i) ,有h∈ 嗨(是)在这样的时间玩完之后我可能接触到的那个玩家-我∈ s-i(h)和s′i(h)6=si(h)。根据归纳假设,ui(ζ(si,s-i) )≥ ui(ζ(s′i,s-i) )。因此,我们获得是的∈ Si(h,Si(h)),分钟-我∈s-iui(ζ(si,s)-i) )≥ 分钟-我∈s-iui(ζ(s′i,s-i) )。(15) 为了所有人-我∈ 善思∈ Si(h,ai),在条件(12)下存在∈ Si(h,Si(h))这样-我∈s-iui(ζ(s′i,s-i) )≥ 麦克斯-我∈s-iui(ζ(si,s)-i) )。(16) 因此,从(15)和(16)我们得到s-我∈ 嘘,分钟-我∈s-iui(ζ(si,s)-i) )≥ 麦克斯-我∈s-iui(ζ(si,s)-i) )。(17) 即,条件(1):si(h)局部支配ai。还要注意的是,(17)证明了(14)对于h。每个策略的推论1∈ Si,Si(h)在每小时都是局部弱dominant∈ H*i(si)当且仅当si(h)在每一个h上都是一厢情愿的占优∈ H*我(是)。定理2的一个令人惊讶的特点是,它不需要任何关于在不同信息集中使用的分区如何关联的规则。人们可以预期,只有在充分粗略划分下建立未来主导关系的情况下,未来局部主导行为的存在消除了在当前信息集中对突发事件进行虚拟前瞻性规划的需要。事实并非如此。定理2表明,局部策略证明对于孤立地为每个场景进行虚拟正向规划是非常重要的。在完全的权变推理下,甚至虚拟的病房计划也变得不必要:一厢情愿的主导地位并不具有任何前瞻性计划。因为根据场景调整延续计划可以大大简化行动的比较,真正的玩家可能会倾向于走这条路,找到一种比传统博弈理论分析更容易操作的动态机制。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2025-12-21 07:35