楼主: nandehutu2022
13540 33

[量化金融] 代理经济学:基于代理的竞争不可避免的腐败 [推广有奖]

11
可人4 在职认证  发表于 2022-6-8 19:17:52
根据对代理价值和目标价值的有利或不利程度,可以直观地区分四组基本实践(图1A)。例如,在任何特定的社会背景下,我们可以考虑是否存在专门有助于代理衡量或社会目标的实践。这种实践的存在促使实践空间的维度缩减为代表代理和目标的两个维度(如economicmultitasking[10,42])。然后,代理捕获有关社会目标的真实和廉洁信息的程度可以表示为主轴之间的角度(目标角度;ga∈ [0o, 180o]), 我的信息在哪里∈ [-1,1]由等式1给出。i=cos(ga)(1)直观地说,当实践完全面向代理时,信息衡量对社会目标的影响。一个好的代理(0<i<1)捕获了关于社会目标的足够信息,这样即使是完全腐败的实践也会为实际的社会目标产生积极的结果(图1B)。相反,当2019年10月3日全面预测时,8/51代理衡量社会目标Proxy衡量社会目标实践有益于cial目标收益与proxypractices利益相关对目标有害的行为对目标有害的行为对目标有害的行为对于proxyi=0,ga=90°目标(oc)gagai>0,ga<90°完全代理导向(=损坏)实践仍然有助于实际的社会目标CGOAL(oc)gaproxy测量社会目标<0,ga>90°完全代理导向(=损坏)实践ect以代理为导向的实际社会目标(=腐败)实践没有ect实际社会目标图1。在实践空间中,个体实践可能会贡献不同程度的二维实践空间。

12
mingdashike22 在职认证  发表于 2022-6-8 19:17:55
实践空间中对代理/目标有利/不利的部分采用颜色编码(见A中的彩色标签)。代理捕获有关社会目标的真实和廉洁信息的程度可以表示为主轴之间的角度,用信息(i=cos(ga))表示目标角度(ga)。专门面向代理的实践位于横轴上(代理度量)。因此,当这种(腐败的)做法对社会目标既有利也有害时,ga=90oi=0(A)。据推测,在大多数情况下,代理捕获了关于目标的足够的廉洁信息,因此即使是完全面向代理的实践也会对societalgoal(0o< ga<90o; 1>i>0(B)。然而,完全的代理导向也可能导致实际社会目标的负面结果(90o< 乔治亚州<o; 0>i>-(C) 。当A 6=90时o与代理正交的目标组件标记为“目标(oc)”。社会目标,这是由-1<i<0和90o< ga<180o(图1C)。当前模型中未考虑代理和目标(如休闲时间)。我们认为,I直接与系统的复杂性相关,I趋于0,GA趋于90o随着复杂性的增加,故障模式的数量也随之增加[46]。3.2.1代理我们最容易将代理视为一个简单的标量指标,如JournalArbitraly复杂监管模型[47],体现在旨在收集信息并将其转化为竞争排名的社会机制中。这里,2019年10月3日9/51复合仲裁明确包括依赖专家判断的机制,只要结果是竞争性排名。

13
mingdashike22 在职认证  发表于 2022-6-8 19:17:58
与经济显示偏好法类似,我们可以将代理视为一组属性,这些属性实际上决定了竞争系统中的选择(系统/机制的显示偏好)。与机器学习和人工智能操作类似,将代理视为一个目标函数是有帮助的[4]。在所有这些类比中,社会系统被概念化为信息处理设备,收集复杂的输入信息,并将其转换为可操作的输出指标(竞争排名)。完美监管模型的边界情况映射到ga=0的目标o.3.2.2目标社会目标是社会想要实现/规范的任意一致的属性集(见表1中的示例)。虽然这很难在任何特定的背景下精确定义,但重要的是要记住,这样一个共识集是由社会首先维持一个人工竞争系统这一事实所隐含的。实践和信息理论方面的考虑进一步有助于预测agoal可能与代理不同的方式【4,31,47】。这可能会导致相关或负面的定义(例如,不可复制出版物的优势可能不会进一步推动社会目标)。请注意,在当前模型中,我们将社会目标定义为仅为个体代理人私下知道的那些目标方面。这种对社会目标的定义可能是最有成效的,因为个人和机构层面未知的目标方面可能特别难以解决。在目前的模型中,假设个人对其行为及其影响的精确概率具有更高的认识。事实上,有很多关于按照社会目标行事的报道。

14
能者818 在职认证  发表于 2022-6-8 19:18:01
这直接意味着代理无法获取目标的私有知识(例如,科学和银行业的例子分别参见[10,48])。同样,相当一部分普通民众个人认为他们的全部工作(这是竞争性市场机制的结果)对社会福利没有任何贡献[49]。2019年10月3日10/513.3个人选择-多任务实践空间的系统级定义现在允许我们通过“实践角度”(θ;图2A-C)直观地捕捉给定代理实践的代理方向的通知。代理的努力水平被假定为沿该实践角度的向量长度,对代理和目标值的真正贡献是在主轴上的投影。这体现了一种积极的努力输出关系,其中只有输出类型取决于练习方向。为了让内在(目标)和竞争(代理)激励都能激发努力,我们采用了经济委托-代理多任务模型(图2A)。请注意,与传统的多任务模式不同,我们在这里允许通过个人选择或通过文化进化过程(即在系统层面)建立实践角度。时间的一小部分的练习角度,这将转化为较低的平均θ。因此,ITH代理人ei的努力∈ R≥0被建模为方向为θi的向量长度,得到的代理值和目标值是主轴上的投影,捕捉实践相关权衡(等式2,3)。Vgi(θi,ei)=cos(ga- θi)·ei(2)Vpi(θi,ei)=cos(θi)·ei(3)目标绩效产生的效用只是目标值乘以常数(gs),决定了内在道德激励对社会目标的相对心理强度(等式4)。

15
mingdashike22 在职认证  发表于 2022-6-8 19:18:04
鉴于我们设置的目标是指代理已知的方面,gs可以被视为i)目标评估和ii)单独可用的目标信息的产物。Ugi(Vgi)=gs·Vgi(4)2019年10月3日11/51D氧气测量(oc)eortθ社会目标01234#代理9 1011代理值-3.-2.-101prospectsurvival Thresholds Risk preference reversal01234#agents8 9 10 12代理价值-6.-5.-4.-3.-2.-101prospectsurvival Thresholds Risk preference reversalproxy measuregoal(oc)proxy measuregoal(Vip)goal value(Vig)Social goalga=135°ga=45°c=0.5 c=0.9eortθAproxy测量值ort(ei)θ等线目标a=90°BCEFig 2。Agent决策模型,Agent从对社会目标的贡献和根据代理度量(分别为蓝色和红色)的良好表现中获得效用。个体代理(指数i)产生目标值(Vgi)和代理值(Vpi),由练习角度(θi)和努力(ei)确定,简单地作为努力向量在主轴上的投影(等式2和3;A-C),其中目标角度(ga)是主轴之间的角度(见图2)。根据等式,在代理值的代理维度和生存阈值中导出的效用。5和6。PanelsD、eShow分别为比赛c=0.5和c=0.9的说明性前景函数(深红色)。生存阈值(D,E中的垂直点线)是区分输家和赢家的salientreference代理值,其中竞争(c)表示输家的吸引力。因此,对于c=0.5或c=0.9,存活阈值分别为代理值的人口分布的50%或90%(分别为D、E中的灰色直方图)。2019年10月3日12/513.4个人选择-激励竞争从代理价值中得出的效用,表示为“前景”(Upi),根据职业生存所需的代理价值(生存阈值,ST)确定。

16
mingdashike22 在职认证  发表于 2022-6-8 19:18:07
生存阈值是在给定的竞争水平下区分胜利者和失败者的代理值。例如,c=0.9表示生存阈值是所有代理值分布的第90百分位的代理值,即代理必须是代理评估其自身代理值效用的显著参考点。因此,如果他们低于/高于生存阈值,他们将获得负/正效用。在本手稿/模型的第一个版本中,我们考虑了基于生存阈值周围高斯不确定性分布的前景函数(基于[38,40,50])。虽然主要结果相似(参见arXiv上的手稿历史),但该函数对于代理值不是尺度不变的。因此,我们在这里选择了一个类似的sigmoid但尺度不变的前景函数,即累积前景理论的前景函数(等式5【51】)。Upi(Vpi、ST、,) = (Vpi- ST)0.88(5)乘以2.25(等式6,[51])。Upi7→Upi,如果Upi≥ 0Upi·2.25,否则(6)在模型子集中,我们另外探索了一个简单的阶跃函数作为prospectfunction[-1,1]。每个代理Ai在被抽取时,根据观察到的所有其他代理的当前代理性能(等式7),选择其努力水平以最大化其个人效用Ui,Ui(Ugi,Upi,cost)=Ugi+Upi- 成本(ei,ti)(7),其中努力成本由以下公式得出:2019年10月3日13/51成本(ei,ti)=ei/ti(8),这里ti是代理人的才能,即一个常数,它决定了努力的相对成本,与θ无关。代理人根据N(10,tsd)被赋予不同的人才,因此代理绩效关系的努力取决于个人实践导向和人才。

17
可人4 在职认证  发表于 2022-6-8 19:18:10
这使我们能够捕捉到人才代理分配/筛选设备的有利影响,以及不利影响(坎贝尔定律)。注意,后者可以类似地描述为腐败行为的信号/屏蔽,我们的模型允许同时使用有益和有害的机制。为了让各个代理计算上述复杂的最大化问题,我们假设他们考虑有限的工作量调整范围,即[-10、-5、-1、-0.5、-0.1、0、0.1、0.5、1、5、10]。这背后的理由是thebut缺乏实现完美最大化的计算能力。然而,如果系统足够稳定,她将迭代地接近最佳效果。请注意,备选工作选择列表(例如,以0.1的增量从10到10)没有改变模型结果,但显著增加了代理(和模型)的计算负担。此外,具体范围(-10到10)仅仅涵盖了系统中由任意平均人才选择10引起的似是而非变化的幅度,而选择更大的范围并不会改变结果。在一部分模型中,引入了练习代理,让代理在相同的条件下,以[-5°、-1°、0°、1°、5°]的角度列表对每一系列练习调整的努力测试列表实现效用最大化。3.5选择和进化当随机抽取所有代理人以调整其努力(和潜在实践)时,将重新评估代理人绩效的排名。每个潜在的失败者(Vpi<ST)都会面临职业死亡,概率=选择压力(sp∈[0,1]).

18
大多数88 在职认证  发表于 2022-6-8 19:18:13
因此,SPD确定了一个人在实际被淘汰之前能够承受的成为失败者的大致步骤数,将经验与已实现的竞争联系起来。每次死亡后,都会有一个位置打开,允许随机选择的“获胜”2019年10月3日14/51代理演员(Vpi>ST)进行专业繁殖,将她的练习角度传递给她的后代。在实践继承过程中,θ随机变异,因此θ后代θ父母n,mm与社会系统的复杂性成正比。较大的突变率反映了较小的实践变化对代理值和目标值可能产生的较大且频繁的影响,这些影响是由i)更复杂系统中非线性相互作用的数量不断增加,ii)可能的行动到结果映射的组合爆炸,复杂性不断增加[46]。在这种情况下,重要的是要记住,practicespace表示proxy和Goal的正交分量的降维。因此,突变可以被视为包括传统独立维度的任意变化,例如肉类生产中的动物福利(假设动物福利不被视为行业的社会目标)。3.6实现/模型开发/参数选择该模型在基于代理的建模框架“Mesa0.8”inPython3.6中实现,并在标准的Windows7 64位操作系统上运行。运行模型和生成图形的完整代码作为补充材料随附。表2显示了所探索的参数空间的概述,此处的参数以黑体突出显示(另请参见图5)。许多额外的参数会发生变化,以探测鲁棒性,但不会导致任何变化,并将在整个手稿的适当位置进行报告。该模型用人口大小N(通常为100)初始化,其中每个代理都收到一个练习角度θdrawnU,gaefforce 0。

19
mingdashike22 在职认证  发表于 2022-6-8 19:18:16
模型运行通常在每个级别的竞争中重复10次,以获得系统行为的平均值和扩散的度量。在每个模型运行中,种群中的所有代理通过其代理性能相互竞争,如上所述。2019年10月3日15/51表2。参数空间参数基值,范围描述主要影响(如果参数增加)平衡确定参数角度(ga),90,135,0-180角度(o) 定义可腐败代理信息的数量均衡腐败的希尔型效应,最佳竞争水平增加总体规模(gs)1,2,0-10心理预期值的比例因子)增加努力,降低均衡腐败动力学决定参数竞争(c)0.3,0.6,0.9,0.1-0.9竞争压力,即潜在失败者对努力、进化和效用产生复杂影响(见正文),收敛到平衡的速度加快选择压力(sp)0.001,0.1,0.001-1每轮中每个失败者的死亡概率提高收敛到平衡的速度影响变量人才标准差(tsd)1的参数,0-6人才在人群中的标准偏差增加工作量分布人口规模(N)100,10-500系统中的代理人数量减少了模型的可变性活动变异率(m)2,0-30标准偏差(o) 遗传过程中的实践角度突变增加了实践可变性,如果平衡实践超出初始化范围,则收敛到平衡的速度参数空间概述。在敏感性分析期间,各个参数在规定范围内变化,所有其他参数保持在基准值。所示基础值为黑体(图5、6)。

20
能者818 在职认证  发表于 2022-6-8 19:18:19
其余的基值是额外探测的。4结果我们将首先介绍使用示范性参数集和短时间尺度的模型,令人惊讶的重叠范围与实验文献中的经验观察。然后,我们将在更长的时间尺度上展示竞争诱导的平衡腐蚀的主要结果。最后,我们将给出一个详细的敏感性分析结果,证明均衡破坏的稳健性,并揭示控制均衡破坏的参数。为了引入该模型,我们考虑了一个系统,其中代理包含一些关于社会目标的廉洁信息和腐败信息(ga=45o;i=0.5)。目标量表(gs)设置为1,意味着可比权重为2019年10月3日16/51和目标激励。选择和突变轻微(sp=0,m=2o), 这意味着在每一个时间步,失败者的死亡概率为10%,而在继承过程中,实践导向的微小变化。初始化时,每个代理都会收到一个随机的练习角,介于完全损坏和完全目标定向θ=U(0,ga)和正态分布人才t=N(10,1)之间。4.1迭代努力选择-竞争激励和劝阻简要介绍,在每个时间步,代理人根据对竞争代理人代理绩效及其个人参数(前景函数、实践角度和人才)的噪音观察,以随机顺序调整其努力。这种简单的竞赛规范产生了实验经济学中观察到的一系列行为,包括i)中级竞赛中的最优努力激励,ii)劝阻效应和iii)努力分歧[30]。重要的是,我们并没有考虑或预期任何适用于具有合理偏好、信息获取和个体代理计算的基于逐步代理的模型的算法。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-9 10:56