楼主: 大多数88
1674 60

[经济学] 地方主导 [推广有奖]

31
kedemingshi 在职认证  发表于 2022-4-28 15:44:52
(类似地,设计师可以用一种更简单的方法,通过局部c-优势来检查局部策略证明。)由于定理2,设计者不必担心这种倾向;她实际上可以利用它来设计游戏,在这里,单独分析每个场景特别简单——在我们的TTC游戏第4节中,展示一厢情愿的主导行为非常简单。5局部最终主导在本节中,我们通过博弈树内生化意外情况,并在“以同样的方式继续”的理念下比较行动。我们首先介绍从现在起将使用的连续性分区(以及我们在所有示例和应用中使用的分区)。修复信息集h∈ 你好每个动作ai∈ 啊,让我说-注意所有的-我∈ s-对于(i)任何以下属性:∈ Si(h,ai),没有h′∈ H*这是什么 h′ ζ(si,s)-i) 。这些是o方的策略,在选择aiat h后,为玩家i终止游戏*(h,ai)表示i的行为信息集,另一方面,人们也可能想要施加“完美回忆”的属性:如果h′ h、 Sh′不应比S粗糙-由Sh诱导的i(h′)。我们不确切地施加这样的条件,因为它们对于我们的正式结果是不必要的。通过完美的回忆,每个si∈ Si(h,ai)与s诱导相同的路径-i、 使用ofi策略只是为了不引入额外的符号:每个-这是h的一段独特历史,该房产的所有特征是a和s-i、 这段历史还在继续。立即跟随h和ai。

32
kedemingshi 在职认证  发表于 2022-4-28 15:44:57
现在,给一个ctio n对(ai,ai)∈ Ahi×Ahi,letSai,ai(h)=Sai,h-我∩ 赛,h-i、 saai(h)=Sai,h-我说-i、 saai(h)=Sai,h-我说-iSai,ai(h)=S-i(h)\\(Sai,h)-我∪ 赛,h-i) 。换句话说,这些集合中的每一个都包含了对手的策略,如果玩家选择了动作和上标,就终止游戏,如果玩家选择下标的动作,就不终止游戏。注意S(h,ai,ai)=赛艾(h),赛艾(h),赛艾(h),赛艾(h),赛艾(h)隔墙-i(h)。给定一个动作对,我们将其称为结束分区。在局部的观点下,结束的划分似乎很自然,因为它真正区分了基于“局部性”的场景。两个动作之间的决策问题是:从两个动作终止游戏时的“完全局部”,到需要一定程度的预见,否则。尤其是,玩家可以问自己,在什么情况下,她将来需要再次参加比赛,因此只为该场景设想一些延续计划——下一个主导地位的概念将明确这一点。此外,为了识别这些场景,玩家只需查看下一个活动阶段。最后的划分比(S)给出的划分的相交处略粗-i(h′)h′∈H*(h,a′i)(加上S的剩余子集)-i(h)),对于每一个\'i=ai,ai。(布景)-i(h′)是不相交的,包含在S中-我(h)是因为完美回忆。)因此,就我们的玩家在下一个活动信息集可能持有的信息而言,它是“可测量的”。我们认为,如果玩家至少可以提前一步计划(正如我们所知道的所有支配地位概念所假设的那样,除了皮西亚和特洛扬2021年的简单明显支配地位之外),她可以预测下一个决策节点面临的战略形势,因此她可以确定最终的划分。

33
大多数88 在职认证  发表于 2022-4-28 15:45:00
从更直观的角度来看,游戏是否会结束这个问题的答案取决于是否达到了一个新的活跃信息,并且只取决于对手当时采取的行动。在不失去普遍性的情况下,我们也可以让答案独立于过去的行为,通过让行为对过去的行为进行编码——请参阅我们的TTC游戏中的一个简单例子。接下来,我们将介绍模仿计划的概念。设τ(h)表示信息集h的阶段。Fixsi,si∈ Si(h)和a场景S-我 s-i(h)。我们说simimicks标志着-我知道,永远都是-我∈ s-i、 以下条件适用:每小时∈ H*(h,si(h)),对于每一个h′,h′∈ 他说 h′ ζ(si,s)-i) ,h′ ζ(si,s)-i) 和τ(h′)=τ(h′),我们有si(h′)=si(h′)。换句话说,模仿计划规定了与原始计划相同的行动,从h之后的第一个活动信息集开始,无论支持方的策略如何-i、 模仿只从第一个活动信息集开始的原因是,在之前,玩家可能会被迫“保留”在h选择的动作,因为在我们的TTC游戏中,这是很自然的假设。只有在赛后玩家i没有或没有使用比赛后玩家活跃时更准确的对手移动信息时,才能模拟计划。通过模仿计划,我们引入了无关的概念。我们说那是-与h时的(ai,ai)相关的iis ir,对于每个si∈ Si(h,ai),存在Si∈ 模拟sigiven h和S的Si(h,a)-我就是这样s-我∈s-i、 gi(ζ(si,s)-i) )=gi(ζ(si,s)-i) )。(18) 我们说那是-当它不是无关紧要的时候,它是相关的。我们认为这两种行为是无关的,因为我们考虑的是一个玩家想要评估ai是否占主导地位,并且正确地忽略一个场景——在ai之后,她也可以获得空洞的结果。

34
大多数88 在职认证  发表于 2022-4-28 15:45:03
由于要求在同一条道路上继续下去会产生完全相同的结果,而不是更好的结果,我们的目标是挑出仅通过理解游戏的递归结构就可以发现的不相关的场景——不应该真的需要正确的预见或连续计划的配对。我们现在准备介绍我们的主导概念,以结束分裂和无关。定义6修复信息集h∈ H*我和一对动作组合(ai,ai)∈ 啊,啊。动作通常以结束为主(e-domines)动作aiif为e-v-related-我∈S(h,ai,ai),对于每个si∈ Si(h,ai),存在Si∈ 模仿sigiven手的Si(h,ai)-isuch thatmins-我∈s-iui(ζ(si,s)-i) )≥ 麦克斯-我∈s-iui(ζ(si,s)-i) )。(19) 我们说,如果ai在局部e-do对所有其他ai进行了破坏,那么它在局部e-dominate∈ 阿希。本地电子主导使用无关性作为确定原则的一个版本。通过选择一个动作,玩家可以选择一系列动作(策略)。ascenario的无关性说,与动作关联的菜单a与情景下与动作关联的菜单a(部分)的执行相同。本地电子支配通常使用关联性来忽略场景,因为这两种行为都不会终止游戏。当然,一个认知能力有限的玩家也可以忽略这个场景,因为它看起来太复杂了——本地e-do minance对这些考虑非常敏感。对于不是终止游戏而是辅助的场景,模仿需要在ai之后指定的虚拟动作可用。在我们所有的示例和应用程序中,这是一个相关的场景。对于a为玩家i终止游戏的场景,模仿是一个空洞的概念,因为没有设置活动信息集。由于这个原因,任何延续计划都不会被实际执行,因此不会决定结果。

35
mingdashike22 在职认证  发表于 2022-4-28 15:45:07
有鉴于此,本地电子主导地位可以用以下更具体的方式来表达。备注7行动仅当且仅当所有相关方都采取行动时,才终止(电子主导)行动-我∈赛艾(h),赛艾(h)满足定义6的条件,每个-我∈赛,艾(h),赛艾(h), 艾瑟明茨∈Z(h,ai,S)-i) ui(z)≥ 马克斯∈Z(h,ai,S)-i) ui(z),或s-我∈s-我Z∈ Z(h,ai,s)-i) ,ui(z)=ui(ζ(h,ai,s-i) ),式中ζ(h,ai,s)-i) 表示由b y s诱导的唯一终端历史-伊吉文·h和艾。人们可能会担心,在这种情况下,模仿在任何防策略机制中都是可行和有效的,因为模仿后的虚拟动作会在人工智能(如果信息的到达是相同的)之后做出最佳计划。设计人员不能以这种方式向我们的玩家传授最佳计划:最佳计划取决于玩家的类型,而设计人员并不知道。例如,在日本的拍卖中,人们无法用离开后的虚拟动作描述竞拍后的最优计划,因为它取决于玩家的私人估值,因此模仿虚拟计划可能会导致损失。现在,我们来举例说明日本拍卖会的介绍。使价格正常化,以与本轮交易一致。当拍卖因不超过一名玩家出价而结束时,接下来的所有回合都将采取行动。以t轮球员i的观点为例≤ 五、-1,其中v是i的估值。-t的情况≥ v issimpler。我们将展示,无论是在允许重返还是不允许重返的情况下,动作出价(ai)在本地电子主导着动作离开(ai)。我们从拍卖开始,没有重新进入;因此,球员i在第一次选择离开后,只允许其离开。

36
kedemingshi 在职认证  发表于 2022-4-28 15:45:10
最后的分区只有两个场景:场景Sai,ai(h),其中剩余的对手都没有在roundt中出价;场景SAAI(h),其中至少有一个出价——Sai,ai(h)和SAAI(h)是空的,因为在等待之后,我们的玩家没有活动信息集。更准确地说,Sai,ai(h)是所有s的集合-在t轮之前,至少有一个对手出价-但他们都在第t轮离开,赛艾(h)是所有s的集合-至少有一个对手出价,直到t轮。我们现在检查本地电子优势。对于场景Sai,ai(h),接下来唯一可能的结果是我赢得了拍卖,因此本地电子优势的条件成立。对于场景Saai(h),我们需要在Saai(h)之后有一个延续计划。解决唯一的问题∈ Si(h,ai)规定在t+1轮的唯一有效信息集离开。因为t+1≤ v、 在这个延续计划中,最糟糕的情况可能发生在我身上,那就是以0的赔率输掉拍卖。这也是在这种情况下发生的事情。因此,局部电子优势的条件2成立。现在考虑一下重新进入的拍卖。现在,结束分区有三个场景:场景Sai,ai(h),其中剩余的对手都没有出价,场景SAAI(h)中只有一个出价,场景Sai,ai(h)中有多个对手出价——SAAI(h)是空的,因为如果拍卖以ai结束,那么它就没有ai。对于前两种情况,分析与无需重新进入的拍卖相同。对于Sai,ai(h),我们必须检查本地电子支配的条件1:这与场景无关吗?修斯∈ Si(h,ai)。

37
可人4 在职认证  发表于 2022-4-28 15:45:13
解决唯一的问题∈ Si(h,ai)规定在未来的每一轮中,在与每种策略兼容的唯一活动信息集中,采取与SIA相同的行动。我们有那个Simickssi,因为每一个-我∈ Sai,ai(h),如果v不是整数,则有一个圆t,其中v- 1<t<v,并且我没有局部弱显性作用。在这种情况下,不存在弱支配策略,但我们仍然可以断定我将在t或t+1离开哪个玩家。请注意,在AI之后,玩家i比afterai拥有更准确的信息,因为在AI之后,至少需要两个对手才能在t轮投标,而不是一次。尽管如此,仍然只有一个信息集,因为在拍卖结束的补充前夕。因此,sican可以被模仿。沿ζ(si,s)方向-i) ζ(si,s)-i) 每一轮都会播放相同的动作文件(对手到达相同的信息集),因此拍卖会在同一轮结束。此外,考虑到拍卖的结果也仅取决于最后一次玩的游戏,两条路径对玩家i产生相同的回报(彩票的预期回报)。因此,Sai,ai(h)是不相关的。考虑到最后的划分,局部e-优势既不比局部c-优势弱,也不比局部c-优势强。尽管存在限制延续计划的约束,但它并不强大的原因是,与最差和最佳回报的比较相比,无关性是一个非常不同的标准。那么,本地电子优势的跨度是多少?一方面,可以立即看到,在一个相关场景中准确的或有推理不会推翻局部的电子支配地位。根据前几节的结果,这意味着基于局部电子支配的局部策略证明定义了经典的策略支持。注8:如果人工智能主导了人工智能,那么我就一厢情愿地主导了人工智能。

38
mingdashike22 在职认证  发表于 2022-4-28 15:45:16
因此,ifa博弈是基于局部e-支配的局部策略证明,是策略证明。另一方面,本地的电子优势甚至可以比本地的明显优势更强。这是因为我们使用了模仿计划,而不是假设玩家可以搜索他们的最佳延续计划。正如引言中已经提到的,在国际象棋中,一个棋手可能有一个明显占主导地位的制胜策略,但很难找到。在最有可能的情况下,游戏在比较两个动作后继续,模仿是不可行的,因为不同的动作会导致游戏的继续出现不同的“状态”。此外,如果模仿甚至是可行的,那么在获胜策略规定的动作之后,它肯定不足以带来相同的结果或肯定更好的结果:游戏有完美的信息,因此对手可以以更有利的方式对“错误”的动作做出反应。相反,在静态游戏中,局部电子优势本质上归结为局部明显优势。因此,本地电子优势能够区分一些易于发挥的动态机制和它们的直接对应机制。这是因为在静态游戏中,唯一的场景是游戏以每个动作结束。此外,静态局部问题通常太大,不需要进一步处理。在我们的框架中,假设一个游戏在T=1时是静态的,并且假设两个动作ai,AIA在h时在策略上是等价的∈ Hiif gi(θ,(ai,a)-i) )=gi(θ,(ai,a)-i) 永远的y(θ,a)-i) 这样(θ,(ai,a)-i) ),(θ,(ai,a-i) )∈ Z(注意,如果一个属于Z,另一个也属于)。命题2考虑的是一个静态博弈,没有战略上等价的行为。很久以前∈ H*i、 动作ai∈ A.电子主导行动ai∈ 如果且仅当ai明显主导ai。证据

39
kedemingshi 在职认证  发表于 2022-4-28 15:45:19
当T=1时,h后面没有信息集,因此Sai,ai(h)=S-i(h)。不相关不能成立,因为它要求t和Ai在战略上等同于h。S-i(h)是相关的,局部电子优势条件包括局部明显优势条件(3)。定理3无策略等价作用的静态遗传算法是明显的策略证明当且仅当它是局部e-支配下的局部策略证明。证据直接引自命题2和定理1。本地电子主导地位的自然增强要求,对于相关场景,人们只需查看下一个活动阶段即可确定行动的后果。在日本拍卖和我们的TTC游戏中,当主导动作终止游戏而主导动作没有终止游戏时,模仿继续计划立即终止玩家的ga me。我们球员的胜负完全取决于对手同时采取的行动。因此,本地的电子支配意味着忽略过去,忽略未来,而不是一步到位的预见(不包括建立不相关关系所需的各种形式的预见)。我们并没有用一步预见的方式正式确定区域主导地位,因为我们并没有有趣的例子,说明本地的电子主导行为会被忽略。局部e-优势的自然削弱利用了H生成的分区的相遇*(h,ai)和h*(h,ai)(加上终端历史记录)。

40
能者818 在职认证  发表于 2022-4-28 15:45:22
我们只有一个例子,其中这一部分的划分(实际上是一个更粗糙的划分,但仍然比下一阶段终止的本地电子主导地位的结束要好),适当的基准是Pycia和Troyan(2021)的一步主导地位,而不是明显的主导地位,在导言中,相同点和不同点将是预期的:一步主导有时会更强,因为它不允许玩家区分不同的场景,并为下一个信息集寻找主导的延续计划;它有时会更弱,因为它允许在一步规划范围之外确定和理解结果,并且不会将比较局限于模仿计划。分割)是必要的:放牧游戏。在放牧过程中,一只羊的游戏是否结束,只取决于她是否选择接近狗,而不是其他羊的行动。因此,最终的划分只由一个场景构成:整个对手的策略集(saai(h)=S)-i) 。在这种情况下,到达终点后的最小报酬为0,而沿途停车的最大报酬为1——其他羊可能会停止上坡。然而,如果一只羊够到了狗,她会(至少)知道是否有其他羊够到了狗。如果没有,游戏还没有正式结束,因为狗会继续尝试将牧羊犬拖到羊圈中,但是1的报酬已经确定(因此,如果游戏终止被定义为报酬的确定,而不是没有进一步的活动,那么狗将在本地处于电子主导地位)。如果是,比较需要一个到达狗后的持续计划:在完成爬坡后模仿虚拟的持续计划,永远保持在完全相同的位置。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2025-12-21 03:34