|
.., vn]作者:minw,v∈[0,1]nE(w,v,λ)=n~Oi=1viL(yi,HAN(xi,w))+f(v;λ)(1)惩罚潜在权重变量的方案,λ是控制模型学习新样本速度的更高参数。在本文中,我们选择[]中提出的线性正则化器,该正则化器根据样本的损失对样本进行线性判别,即:f(v;λ)=λn~Oi=1(vi- 2vi)(2)与[][]类似,我们采用交替凸搜索(ACS)[]来求解方程(1)。ACS将变量划分为两个不相交的块。在每次迭代中,优化一个变量块另一个街区。使用xedw,线性正则化器(2)的无约束闭式解可以通过以下公式计算:v*i=arДminvE(w*, v、 λ)=-λli+1 li<λ0 li≥ λv*iithand LIDE记录每个元素的损失L(yi,HAN(xi,w))。在此之前已经学会了将受到线性惩罚。算法1自配学习。Require:输入数据集,D;线性正则化子f;自定步长,u;确保:型号参数,w;1: 初始化v*均匀2: 未聚合do3时:更新w*= arДminwE(w,v*, λ);4: 更新v*= arДminvE(w*, v、 λ);5: 如果λ很小,则6:将λ增加步长u;7: 结束if8:结束while9:返回w*;基于优化方程,整个学习过程可以抽象为算法1。它在两个optiStep 3之间交替使用X和MOST中心V*通过标准的反向传播机制;步骤4使用xedw公司*通过线性调节器。注意,较小的初始λ仅允许具有较小损失a的样本ect学习。随着培训的进行和λ的增加ective和e古老的学问。5评估在本节中,我们rst介绍我们的实验装置。
|