洪永淼 方颖 陈海强 范青亮 耿森 王云
[size=1em]内容提要计量经济学与实验经济学是经济学实证分析的重要方法与工具。本文主要概括了近十年来计量经济学与实验经济学领域的主要进展,包括面板数据计量经济学、微观计量经济学、大数据计量经济学、金融计量经济学、宏观计量经济学、新类型实验数据、非均衡博弈论框架以及市场机制与政策设计等方向。我们建议重点发展计量经济学与实验经济学在中国社会经济政策评估与分析方面的方法与理论的创新及应用,推动政府决策的科学化。
[size=1em]关键词
计量经济学;实验经济学;政策评估;决策科学化
一、引言
经济研究的方法在于总结典型的经验特征与收集数据,并在此基础上建立相应的经济理论或经济模型。经济研究的科学性在很大程度上取决于经济理论或经济模型的可验证性,即能否通过数据实证检验相关的经济理论与经济模型来解释事实,并预测未来的经济变动趋势以及提供科学的政策建议。计量经济学和实验经济学则犹如硬币的双面,从不同的角度为经济学的实证分析提供重要的方法论基础。计量经济学以实际经济数据的建模与分析为主要研究对象。当实际数据不可得,或实际数据过于复杂而导致因果关系不易梳理时,实验经济学则有可能从另一个角度出发,通过可控的实验数据代替实际数据,成为实证经济分析的又一个有利工具。
计量经济学是由经济学、统计学、数学、计算机科学等学科交叉产生而又独立于其中任何一个学科。计量经济学产生于对经济理论的实证分析,经济系统的建模和国民经济投入产出法的计算等经济学问题,经过近一个多世纪的发展,已经成为了一个成熟而且被广泛运用的学科。计量经济学可以分为理论计量经济学和应用计量经济学。其中理论计量经济学主要关注计量经济模型的建立,包括针对不同数据类型、随机实验和不可控随机误差的分布形式、经济学模型和实际问题而进行的假设,从而对该模型进行参数、非参数等的估计、统计推断和预测,并给出其具体的理论性质,例如无偏性,渐进分布、统计有效性、预测误差等等。应用计量经济学则侧重于实际问题,其内容基本涵盖凡是有数据支持的经济学理论的各个分支,并用经济数据来对经济理论进行检验,或是对某些经济变量的因果关系进行量化研究,或是利用金融数据进行风险估计等实证研究。例如对环境经济学、教育经济学、金融经济学、国际贸易理论、经济增长理论等都可以通过数据进行实证分析,在计量经济学理论的指导下进行计算。计量经济学的理论研究和实证分析相辅相成,对现实生活中某种类型经济数据的实证分析往往成为发现理论研究新方向的动力,同时理论研究的成果也通过计量模型被广泛应用到各种实际问题中去。
计量经济学是现代经济学理论体系的一个核心组成部分,可以说如果没有计量经济学,经济学理论就像纯数学理论一样只有象牙塔式的研究价值而不能被数据所证实或者应用证伪。在过去的诺贝尔经济学奖获奖人当中,第一届诺贝尔经济学奖就授予了两位计量经济学研究的先驱弗利希(Ragnar Frisch, 1969)和丁伯根(Jan Tinbergen, 1969),表明了计量经济学在推动整个经济学研究科学化进程中的重要性。早期因从事计量经济学研究而荣膺诺贝尔经济学奖的还包括李昂惕夫(Wassily Leontief, 1973)、克莱因(Lawrence R. Klein, 1980)和哈维尔莫(Trygve Haavelmo, 1989)等。计量经济学的发展日益与经济学各分支学科的发展紧密结合,并反过来极大促进了经济学各分支学科的发展。诺贝尔经济学奖获得者麦克法登(Daniel L. McFadden, 2000)、赫克曼(James Heckman, 2000)、格兰杰(Clive W.J. Granger, 2003)、恩格尔(Robert F. Engle, 2003)与汉森(Lars Peter Hansen, 2013)都是因为提出新的计量方法促进了劳动经济学、产业经济学、宏观经济学、金融学等相关经济学分支学科的发展而获此殊荣。在现代经济学的教学与研究体系中,计量经济学已经成为与微观经济学、宏观经济学并列的三大学科,成为经济学各分支学科最核心的方法论基础。
实验经济学则是最近四十余年兴起的一门新的交叉学科,结合认知心理学、神经科学、社会学和人类学的相关研究方法,涵盖了决策论、经济学、金融学、博弈论、管理科学、市场营销或政治学等多个研究领域。实验经济学以模拟实体经济决策环境和验证理论模型为目的,通过仿真方法创造与实际经济相似的实验室环境,观察分析受到物质报酬激励的受试对象如何在一定规则下进行决策,从而研究人们行为决策。经济学家通过调整实验参数以及对不同参数下产生的实验数据进行整理、加工与分析来检验已有的经济理论及其前提假设,或者发现新的理论,或者为一些决策提供理论分析的基础。
实验经济学之所以产生和发展的一个重要原因是因为基于可控实验而得到的数据能够很好地避免数据的内生性问题(endogeneity)。众所周知,因果关系研究是自然科学研究和社会科学研究的一个核心内容。相对于现实环境下自然产生的经济决策实际数据而言,实验经济学数据是在事前已经尽可能控制了各种干扰混淆因素条件下产生的,从而数据相对比较整洁,有利于经济学研究人员发现并研究经济因素之间的因果关系。实验研究方法已经成为微观经济学、宏观经济学、公共经济学、金融经济学、劳动经济学、金融学、市场学、组织行为学、会计学和管理科学等领域的核心研究方法。这些领域国际最顶尖学术期刊都会定期发表一些运用实验技术完成的研究成果。目前已有卡纳曼(Daniel Kahneman, 2002)、史密斯(Vernon L. Smith, 2002)和罗斯(Alvin E. Roth, 2012)三位经济学家因其在实验经济学方面的贡献而荣膺诺贝尔经济学奖。
在下文中,我们首先对计量经济学与实验经济学在最近一二十年来的发展做一简单介绍。作为与实证研究和应用研究密切相关的学科,计量经济学与实验经济学的发展从来就受到两方面需求的推动,其一是理论发展与政策分析的需求,其二是数据特征与数据可得性的需求。之后,对国内计量经济学与实验经济学发展的现状做一简单评述,最后对一些亟需发展的计量经济学与实验经济学研究领域提出若干建议。
二、计量经济学的若干最新发展
(一)面板数据计量经济学
面板数据(panel data)是将截面数据和时间序列数据综合起来的一种新的数据类型。和单一的时间序列数据相比,面板数据能够提供不同个体在同一时点的横截面信息;和纯粹的截面数据相比,面板数据又能够提供同一个体在不同时间点的动态变化。因此,和传统的横截面模型与时间序列模型相比,面板数据模型在模型估计、假设检验和管理科学应用等方面具有明显的优势。国内外高质量面板数据的出现极大推动了面板数据计量经济学的发展,在宏观经济学和应用微观计量经济学等各个领域都有非常重要的应用。面板数据计量经济学的最新发展主要集中在三个部分,其一是非线性面板数据建模的发展,包括各类非参数半参数条件均值模型、条件分位数模型和离散数据模型等。函数系数模型(Cai et al., 2000; Cai et al., 2000)采取可加模型的形式,解释变量的系数可以是其他随机变量的函数(称之为光滑变量,smoothing variable),而光滑变量的选择由经济理论决定。函数系数模型不仅能够提供更好的数据模拟能力,而且在非参数模型中融入了经济学的解释,因而近年来有不少研究将函数系数模型结合到面板数据中。其二是非平稳面板数据模型的发展,包括面板数据单位根检验与协整分析,以及包含非平稳变量和未知时间趋势的估计与检验等;其三是包含横截面相关(cross-sectional dependence)的面板数据建模。面板数据通常包含两个维度,行为个体与时间维度。行为个体可以是微观层面的家庭、个人或企业,也可以是宏观层面的国家、产业或地区。传统的面板数据建模通常假设面板数据各行为主体之间是完全独立的(横截面独立假设,cross-sectional independence),这就完全排除了行为个体之间可能存在的相互影响,从而导致模型估计与检验的一系列问题。横截面相关性已成为面板数据领域最为活跃的科研方向之一。目前文献中处理横截面相关的方法主要有三种:其一是通过因子模型(factor model)描述横截面相关性,然后通过模型中可观测变量的横截面平均作为因子模型中不可观测的共同因子的代理变量,用以解决因共同因子不可观测性而带来的内生性问题(Pesaran, 2006; Pesaran & Tosetti, 2011等);其二是交互效应(interactive effect)模型,通过PCA的方法直接估计不可观测的共同因子(common factor)与因子系数(factor loading),通常使用的估计方法包括QMLE和最小二乘法(Bai, 2009, 2013等);其三是使用一系列距约束条件描述横截面弱相关性,不需要借助于常见的因子结构(Chen et al., 2012等)。最近几年,这一领域的发展主要集中在将横截面相关性与半参数或非参数模型相结合,研究模型的估计与检验方法,这也是目前最为活跃的研究领域之一。
(二)微观计量经济学与政策评估
因果分析与政策效应评估是经济分析最为关注的核心问题,其主要难点在于经济事件与经济政策的内生性问题,以及虚拟事实的不可观测性。社会经济系统作为一个有机的整体,各类因素各种事件往往存在复杂的相互联系。由于巨大的社会成本与经济成本,社会经济政策无法使用类似于自然科学中常用的模拟实验的方法。为了解决内生性问题,经济分析通常借助于所谓的“准实验”(quasi-experiment)机会,使用工具变量方法,以及在工具变量方法上发展起来的一系列估计政策处理效应(treatment effect)的方法。工具变量必须同时满足相关性与外生性的要求。所谓相关性,是指工具变量必须与内生的结构变量高度相关,否则便称之为弱工具变量(weak instruments)。所谓外生性,是指工具变量仅通过内生的结构变量影响回归模型中的被解释变量,而不存在其他独立的影响渠道。九十年代中期以来,计量经济学家发现当存在弱工具变量的情况下,无论是小样本还是大样本,常见的工具变量估计方法,包括两阶段最小二乘估计与有限信息最大似然估计都无法得到一致性的估计量。这一时期大量的研究主要集中在工具变量质量的检验,以及存在弱工具变量情况下不同的统计检验方法。最近十年中,计量经济学家更加关注工具变量的外生性问题,讨论在工具变量严格外生性条件无法满足的情况下对统计检验的影响。目前较有影响的做法是采用再抽样(resampling; Berkowitz et al., 2012)或贝叶斯的方法校正近似外生性的影响(Conley et al., 2012; Kraay, 2012)。随着大数据时代的来临,计量经济学家也开始关注在存在大量工具变量的情况下工具变量的选择问题。目前主要的做法分为两类,一类是在工具变量中加入稀疏性(sparcity)假设,采用LASSO等变量选择的方法在第一阶段选择有效的工具变量;另一类是不采取稀疏性假设,通过主成分分析或岭回归等降维的正则化(regularization)方法处理估计中的问题(Hansen et al., 2008; Okui, 2011; Carrasco, 2012; Hansen & Kozbur, 2014等)。
当工具变量仅是简单的二元变量时,工具变量法就和政策处理效应的一系列估计方法建立了联系,这部分是近几年来发展最为迅速的研究领域之一。倍差法(difference in difference, Card & Krueger, 1994; Bertrand et al., 2004; Athey & Imbens, 2006等)是最为常见的处理效应估计方法。当某一经济政策实施以后,尽管我们可以同时观察到处理组中政策前后的变化,但这个变化同时包含了具体政策的处理效应和不可观测的时间趋势的变化。如果假设时间趋势在处理组和对照组的变化是相同的,那么我们可以采取两次差分的方式,将共同的时间趋势剔除出去,从而得到平均处理效应的估计值。倍差法的主要优势在于计算简便,可以接受某种形式的选择性误差(selection on unobservables),但主要问题在于处理组和对照组之间必须保持相同时间趋势的假设有时不符合现实,且较难检验。也有研究者发展一些半参数的倍差法试图放松相同时间趋势的假设(Abadie, 2005)。匹配(matching, Rubin, 1973)是另一种较为常见的处理效应的估计方法。和倍差法不同,使用匹配法的一个重要假设是条件独立性(conditional independence或unconfoundedness condition),是指在控制各种变量以后,处理效应的结果不再受到是否接受处理(treatment)的影响。在条件变量较多的情况下,事实上无法做到严格匹配,倾向匹配得分(propensity score)是用来处理降低匹配维度的主要方法,一些非参数方法也被广泛用来完成处理组和对照组之间的匹配(Heckman et al., 1997, 1998; Hahn, 1998; Hahn et al., 2000; Imbens, 2000; Lechner, 2002; Abadie&Imbens, 2006等)。当是否接受处理效应的概率成为一个非连续函数时,断点回归(regression discontinuity design, RDD; Trochim, 1984; Lee & Card, 2008等)成为近年来非常热门的估计“准实验”政策处理效应的方法。当选择变量(selection variable)与是否接受处理效应的关系是确定时,经济学家通常使用精确断点回归(sharp RDD)。当选择变量与是否接受处理效应存在随机关系时,也就是是否接受处理效应的同时受到一些不可观测的选择变量影响时,经济学家使用所谓的模糊断点回归(fuzzy RDD),这是一个类似于两步法处理工具变量的估计方法。除平均处理效应(average treatment effect on treated, ATET)之外,也有越来越多的文献在讨论局部平均处理效应(local average treatment effect, LATE, Imbens & Angrist, 1994等)、边际处理效应(marginal treatment effect, MTE)和分位数处理效应(quantile treatment effect)等。这些政策评估方法被广泛地用于各种社会经济政策的评估,如最低工资效应、反歧视法、失业救济等。
(三)大数据(高维)计量经济学
在目前大数据时代,数据的可得性和多样性导致样本量无限增大,同时变量个数无限增多,从而对分析大数据特点的计量经济学方法有了新的要求。例如,现在流行的电子购物数据中,每个消费者在电脑前点击的次数以及内容体现了丰富的反映购物行为的信息。又例如,许多人口普查数据、政策评估调查数据等等都有非常多的变量数目。另外,变量数目即使有限,因为研究模型不一定是线性形式,许多方程变换、级数展开等等处理方式也使得变量维度增加。从文本、视频、音频中提取有用变量等等方式也成为高维度数据的重要来源。一方面,数据本身的可得性增加,另一方面,现代高性能计算机群(HPC)的计算性能和存储功能也使得处理这些大数据成为可能。21世纪是大数据的世纪,云计算、存储等争相从科技领域进入人们日常生活中。
高维度计量经济学就是研究经济变量数目非常大,有时候甚至大于样本量的情况。例如在资产定价的研究中,资产数目很大,有研究者(Fan et al., 2008)用因子模型去估计资产回报的相关性,其中资产回报的协方差矩阵的维度也随着样本量而增长,因此如何处理高维度数据在资产投资组合等领域是一个至关重要的问题。计量经济理论在处理高维度数据时,所面临的主要问题包括如何选择重要的变量以及如何对变量进行选择,以使得模型的预测性能更强,对模型的估计有更好的性质。在高维计量经济学建模中,一般假设真实模型只包括一部分有限的变量。高维度计量经济学包括了经典的线性和非线性非参数模型。
在很多实证研究中,一般假设模型是一个比较简单的线性形式,变量是根据经验或者共识来选择。而高维度计量经济学的方法是通过数据本身来探究其重要性,从而进行变量选择。在经典岭回归思想的启发下,一系列带惩罚项的估计方法被提出并广泛应用在基因学、统计学、经济学等各学科中。例如套索估计量(LASSO, Frank & Friedman, 1993; Tibshirani, 1996)的先驱性研究首先提出用一个惩罚项加在经典的最小二乘损失函数上,再用一个调节参数来控制惩罚的力度。套索估计量可以在变量选择的同时进行参数估计,并且在变量个数较大的情况下解决了传统模型选择方法例如信息准则等的不可计算的问题,减小了模型选择的不确定性。套索方法有很多良好的性质,其中一个就是可以用来处理变量个数超过样本量的情况,并且能够选择变量。在过去的二十年中,高维度方法有了长足的发展。继套索估计量之后,SCAD估计量、Dantzig估计量、弹性网(Elastic Net)估计量等相继发表在顶尖统计学和计量经济学期刊中。在经济学中,高维度计量经济学的一个重要应用就是处理多工具变量选择的情况。Belloni, Chemozhukov & Hansen(2012)提出了用改进的套索方法选择工具变量的方法并提供了理论依据。另外,Bai & Ng(2008)用主成分分析,Caner & Fan(2015)用可适性套索方法进行工具变量的估计和选择。
大数据计量经济学是一个方兴未艾的研究方向,统计学、计算机科学等其他学科的交叉发展也势必进一步推动大数据分析的发展。