楼主: 大多数88
243 0

[经济学] 在a中使用因果机器学习方法所增加的价值是什么 福利实验评估? [推广有奖]

  • 0关注
  • 3粉丝

会员

学术权威

67%

还不是VIP/贵宾

-

威望
10
论坛币
10 个
通用积分
70.8997
学术水平
0 点
热心指数
4 点
信用等级
0 点
经验
23294 点
帖子
3809
精华
0
在线时间
0 小时
注册时间
2022-2-24
最后登录
2022-4-15

楼主
大多数88 在职认证  发表于 2022-3-6 21:41:50 来自手机 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
摘要翻译:
最近的研究提出了因果机器学习(CML)方法来估计条件平均治疗效果(CATEs)。在这项研究中,我通过重新评估康涅狄格州的工作优先福利实验,研究CML方法是否比传统的CATE估计方法增加价值。这个实验需要积极和消极的工作激励。以往的研究表明,用CATES方法很难首先解决就业效应的异质性问题。我报告了CML方法可以为理论劳动供给预测提供支持的证据。此外,我还记录了一些传统的CATE估计器失败的原因,并讨论了CML方法的局限性。
---
英文标题:
《What Is the Value Added by Using Causal Machine Learning Methods in a
  Welfare Experiment Evaluation?》
---
作者:
Anthony Strittmatter
---
最新提交年份:
2019
---
分类信息:

一级分类:Economics        经济学
二级分类:Econometrics        计量经济学
分类描述:Econometric Theory, Micro-Econometrics, Macro-Econometrics, Empirical Content of Economic Relations discovered via New Methods, Methodological Aspects of the Application of Statistical Inference to Economic Data.
计量经济学理论,微观计量经济学,宏观计量经济学,通过新方法发现的经济关系的实证内容,统计推论应用于经济数据的方法论方面。
--

---
英文摘要:
  Recent studies have proposed causal machine learning (CML) methods to estimate conditional average treatment effects (CATEs). In this study, I investigate whether CML methods add value compared to conventional CATE estimators by re-evaluating Connecticut's Jobs First welfare experiment. This experiment entails a mix of positive and negative work incentives. Previous studies show that it is hard to tackle the effect heterogeneity of Jobs First by means of CATEs. I report evidence that CML methods can provide support for the theoretical labor supply predictions. Furthermore, I document reasons why some conventional CATE estimators fail and discuss the limitations of CML methods.
---
PDF链接:
https://arxiv.org/pdf/1812.06533
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:机器学习 学习方法 econometrics Conventional Econometric 学习 机器 What 增加 预测

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-7 00:04