曾几何时,认为牛X的经济学研究就得整个文章充满公式,计量模型只有一个标准,往死里复杂。记得硕士答辩那会,一整版PPT都是公式,整得底下老师哇哇叫:“太多公式了。说说你到底在干什么?”我那时还觉得是因为他们不懂。原来是自己too young, too stupid.
没想到这几年,画风大变(或许是变了好多年了,只是自己没跟上而已)。什么都最求小清新了。理论,所有推导全部扔附录,告诉我们模型框架和结论就好了。计量,别整有的没的假设,告诉我们你的设别是合理的就好了。而今天想聊的,也就是计量这部分。
现在计量关注的就三个问题:第一,识别;第二,用简约而不简单的办法识别;第三,参考以上两点。口说无凭啊,上猛料。下图是2016年11月26号的来自Economist的一篇文章,统计的是过去三十年中,各种关键词在NBER 的 working paper 出现的比例。可以看到DID 和 Regression discontinuity 在2010年以后一路高歌猛进啊。而DSGE在08年金融危机之后,有点失去市场(关于DSGE的评论,可以看看现在AER主编Olivier Blanchard的评论)。 而Randomized Controlled Trial(RCT)和Machine Learning 有很明显的赶超之势。
随机控制实验 (RCT),原理很简单,就像在实验室给小鼠打药一样。一组样本接受“影响”(小鼠的例子,就是接受药物),称为实验组(treatment), 另外一组不受影响,称为控制组(control)。要看“影响的效果(casual effects)”, 直接用结果对是否为实验组样本这个dummy进行回归。dummy的系数就是“影响的效果”。这种识别的办法当然是计量经济学中的林志玲,比其它的方法显然“高”一点,当然也“贵”一点。不是所有研究都可以做这种随机试验,无论是受所研究问题,还是研究经费所限制。插一句,Angus Deaton(2015年诺奖) and Nancy Cartwright在NBER的working paper讨论了随机试验的利弊,其它提到随机试验的几个问题是:
- 在比较试验组与对照组的时候,研究者在比较他们是否显著相同时,并不足够小心。很多文章的政策对实验组和对照组的影响差异并没有想象中那么显著。
- 变成关注太多的worthless causal,而缺少对为什么事情发生,以及为什么人会这这样的选择,这些更深层次问题的思考。
- 太多的关注可能会被放在一些政策的测量上,而忽视很多没有办法用随机试验回答但又非常重要的问题。例如制度、货币政策或者社会规范的效应。
Anyway,回到随机控制实验的问题。那么,即使没有办法做随机试验,那怎么办(除使用IV以外)?那就诞生了很多所谓的quasi-experiment的办法。这些办法在一定的假设条件下,最终的目的就是找出一些个体,来作为实验组个体(treatment)的合适的对照组(control)。
什么假设条件呢?这个条件叫Unconfoundedness. 啥意思?这条件说的是,假设我现在能观察到实验组和对照组的一些变量的值,例如 X, 那么给定观察到 X,一个个体是在实验组,还是在控制组,就是随机了。
那这就回到了随机试验的情况了。
而现在经常用到的办法计量办法,例如Matching, DID, RDD, 甚至现在的Synthetic Control method, 本质上都是在找一个合适的控制组。理解这个,就能明白这些办法是怎么串联在一起了。
这些办法实现起来都非常简单。但是要理解为什么这能很大程度上克服内生性问题,从而识别出因果关系,恐怕就需要一段时间消化。但这确实目前经济学研究中最最重要的问题之一。
最后,推荐两个材料,帮助系统学习这些办法和理解“识别”这个概念,
一个是 Imbens and Wooldridge(2009, JEL) Recent Developments in the Econometrics of Program Evaluation。 在NBER上有对应的视频,这个视频还是Imbens 和Wooldridge这两哥们讲的,相当于 JEL这个paper的单口相声。
第二个是用于帮助理解识别这个问题的,Angrist and Pischke,“The Credibility Revolution in Empirical Economics”。理解识别问题最好的材料,没有之一。