如果x1和x2是实数,则存在无穷个h满足上述条件,即对于这些h误差E为零。但给定一个接近于正例和负例边界的某个未来实例,不同的候选假设可能做出不同的预测。这是泛化问题(generalization),即假设对不在训练集中的未来实例的分类的准确率如何。
一种可能的策略是:找出最特殊的假设(most specific hypothesis)S,涵盖所有正例而不包括任何负例的最紧凑的矩形。这样得到一个假设h=S,作为我们的诱导类(induced class)
实际的类C可能会比S更大,但绝对不会更小。
最一般的假设(most general hypothesis)G是涵盖所有正例而不包括任何负例的最大矩形。
对任何介于S和G之间的h 属于 花H,h为无误差的有效假设,称作与训练集相容(consistent),且这样的h形成解空间(version space)给定另一个训练集。S、G、解空间、参数,因此学习得到的假设 h 可能不同。