楼主: 能者818
296 0

[经济学] 对持久信息的承包 [推广有奖]

  • 0关注
  • 6粉丝

会员

学术权威

78%

还不是VIP/贵宾

-

威望
10
论坛币
10 个
通用积分
39.5040
学术水平
0 点
热心指数
1 点
信用等级
0 点
经验
24699 点
帖子
4115
精华
0
在线时间
1 小时
注册时间
2022-2-24
最后登录
2024-12-24

楼主
能者818 在职认证  发表于 2022-4-2 14:15:00 来自手机 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
摘要翻译:
我们考虑了委托人和代理人之间的动态道德风险问题,委托人激励代理人的唯一工具是信息披露。委托人的目标是最大化代理人选择某一特定行动的(折扣)次数,例如努力工作。我们证明了存在一个最优契约,当委托人的最优行为是对代理人的静态最优答复时,委托人停止披露信息,或者继续披露信息,直到代理人完全了解委托人的私有信息。如果智能体完全学习状态,那么他在有限时间内以概率1学习状态;代理人越有耐心,学得越晚。
---
英文标题:
《Contracting over persistent information》
---
作者:
Wei Zhao, Claudio Mezzetti, Ludovic Renou, Tristan Tomala
---
最新提交年份:
2021
---
分类信息:

一级分类:Economics        经济学
二级分类:Theoretical Economics        理论经济学
分类描述:Includes theoretical contributions to Contract Theory, Decision Theory, Game Theory, General Equilibrium, Growth, Learning and Evolution, Macroeconomics, Market and Mechanism Design, and Social Choice.
包括对契约理论、决策理论、博弈论、一般均衡、增长、学习与进化、宏观经济学、市场与机制设计、社会选择的理论贡献。
--

---
英文摘要:
  We consider a dynamic moral hazard problem between a principal and an agent, where the sole instrument the principal has to incentivize the agent is the disclosure of information. The principal aims at maximizing the (discounted) number of times the agent chooses a particular action, e.g., to work hard. We show that there exists an optimal contract, where the principal stops disclosing information as soon as its most preferred action is a static best reply for the agent or else continues disclosing information until the agent perfectly learns the principal's private information. If the agent perfectly learns the state, he learns it in finite time with probability one; the more patient the agent, the later he learns it.
---
PDF链接:
https://arxiv.org/pdf/2007.05983
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Contribution MORAL HAZARD information Theoretical Probability 最优 information disclosing 继续 Contracting

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-2 11:03