Part I Model selection for linear methods
1 Quasi maximum likelihood estimation in linear models . . . . . . . . . . . . . . 17
2 Linear regression with random design . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3 Linear smoothers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4 Sieve model selection in linear models . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5 Ordered model selection for linear smoothers . . . . . . . . . . . . . . . . . . . . . . . 95
6 Unordered case. Anisotropic sets and subset selection . . . . . . . . . . . . . . . 129
7 SmA and parameter tuning in high dimensional regression . . . . . . . . . . 141
8 Penalized model selection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
Part II General parametric theory
9 Fisher and Wilks expansion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
10 Bernstein – von Mises Theorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
11 Roughness penalty for dimension reduction . . . . . . . . . . . . . . . . . . . . . . . . . 189
12 Semiparametric estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
13 Parametric i.i.d. models . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
14 Generalized linear models . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
15 Estimation of a log-density . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
16 Sieve parametric approach in nonparametric regression . . . . . . . . . . . . . 313
Part III Structural regression
Part IV Mathematical tools