我觉得最小平方准则就是指在OLS回归时的残差项的平方和最小。回归的目的是尽可能的使得样本回归线与总体回归线吻合,但是事实上我们不知道总体回归线,所以目标就变成了使得样本回归线尽可能反映出样本数据,因而残差项(就是实际观察值之间的差额与利用样本估计出的样本回归方程计算出的Y hat)越接近零越好。而如果使所有残差项之和最小化,则可能出现正负相抵的现象,而如果使用残差项的绝对值之和最小化,则相当于给予不同的残差项不同的比重,也是不合适的。因此,使用最小平方准则更为合适,计算也相对简便。
随机项是在总体回归线中加入的,因为我们不能保证我们的理论模型包含了所有的影响变量,或者一些“周边变量”相对“核心变量”而言微不足道,或是因为人类行为有内部性,我们无法得知影响Y的所有因素,等等。随机项是对总体而言的,因为随机项的个数与总体的个数是相等的。此外,我们对于随机项ui还会假设一些性质,比如与解释变量X不相关,条件均值为零,ui与uj之间没有相关性,ui的方差是相同的,等等。
而残差项是样本中的概念,在每一次回归之后,实际观察值与利用样本回归计算出的值(Y hat)之间的差额,它的个数是与样本中的个数相同。在OLS中,所有的残差项ui hat 的和为零,而且与Xi,Yi hat都是不相关的。引入它的原因与引入随机项的原因是相同的。在回归中,我们可以认为残差项ui hat是随机项ui 的估计值。
不知清楚否?
|