在你到达这个范围之后[-1,1],由于u的所有其他值都是弱支配的,我们可以描述由铰链损失限制的性质ΓL,及其水平集ΓLu,如下所示:ΓL(p)=-1 0 ≤ p(+1)<1/2[-1,1]p(+1)=1/21 1/2<p(+1)≤ 1,ΓLu={p:p(-1) ≥ 1/2}u=-1{p:p(+1)≥ 1/2}u=1{(1/2,1/2)}u∈ (-1, 1). (10) 经检查,我们有ΓLu Γ`rfor r=sgn(u),意味着链接函数f=sgn。此外,Steinwart&Christmann(2008,定理3.34,3.36)表明,铰链损失实现了渐进的,实际上是一致的校准。这些观察结果表明,从根本上说,导致一致性学习算法的替代项L依赖于ΓL、f和Γ,而不是直接依赖于L。然而,这种说法隐含的假设是,学习算法考虑的是一类不受限制的Hof模型。如果模型类受到限制,比如上面的hlin,我们不能保证最优映射h*: x7→ ΓL(px),其中px=Pr[Y=Y | X=X]是Y值的真实分布,将以H为单位。在这种情况下,一致性更难建立,尤其是,不同的替代选择会导致ΓL影响最终实现的“风险”。因此,提供各种损失函数的工具也很重要。在其他学习环境中,自然的问题不一定是最小化特定的损失,而是估计给定的统计数据。例如,在回归中,对于给定的x∈ RDY上通常会有一个分布∈ 我们得到了一些感兴趣的汇总统计数据,比如平均值。在这些设置中,直接根据所需的属性Γ来指定问题是很自然的,并寻求一个可引出的ΓLand link f,例如Γ=fo ΓL。
|