有人说,做实证研究,90%的时间都耗费在前期的数据收集和处理清洗上,而跑回归则像午后咖啡那样惬意自如。对于零基础的小白来说,前期的数据整理尤为重要。很多同学不能一次性把需要的变量拿下来,等到后面发现缺了什么变量又跑过去下载整理合并,或者发现某个变量显著性不好,也跑回去重新下载其他数据尝试,费时费力。还有些同学脑海中可能会突然迸发出一个选题灵感,但是又碍于下载数据处理数据很麻烦,因此久久不能去动手拿数据验证自己的假设。往往就是在这一次次的数据下载和清洗过程中丧失了做实证研究的耐心和信心。
我本人在很多年以前初学stata实证时也是这样,后来慢慢有了经验,就每年把自己需要的数据一次性整理好,既温故了stata数据处理能力,又能洞悉数据库中新的数据。这么多年下来已经形成了一套完整是数据集,并且每年更新,这项工作大大提高了我做实证写论文的效率。一旦有点想法,我就可以马上用整理好的数据去跑下回归。见下图所示,我每写一篇文章,都是直接调用这个数据集,从一千多个变量中保留自己需要的,然后就行基本发变量构建和数据清洗,马上就可以去跑回归,非常高效。
二、数据内容
2007-2023年沪深北A股上市公司数据(根据需要可剔除ST/金融等行业),stata格式。变量数1195个,包括基本的公司财务、公司治理等常见变量。详见下图所示。
三、其他内容
此外,本人还辅导快速教学实证研究,对于小白而言,通过速学教程+随时答疑快速教会你做实证研究,见本人其他帖子。
如有需要,请移步下方链接
上市公司数据集(2007-2023)一千多个变量
(85 Bytes, 需要: RMB 50 元)


雷达卡


京公网安备 11010802022788号







