|
由a(k)和h(k)当局和hub分数表示,我们得到:h(1)=Aa(0),bh(1)=h(1)/h(1), a(1)=ATbh(1)和,在t-第次迭代,αh(t)=ATAh(t-1) ,αa(t)=AATa(t-1) α是一个归一化系数。对a和ATA进行幂次迭代,a(t)和h(t)将分别收敛到主特征向量a*h*对称半正定义矩阵ATA和AAT。如果我们考虑A的奇异值分解(SVD),由A=UDVT给出,众所周知,U的列是A的特征向量,V的列是ATA的特征向量,分别称为A的左奇异向量和右奇异向量。因此*h*分别对应于A的主奇异向量和左奇异向量。最后,考虑A的前K个奇异值,即σ≥ σ≥ ... ≥ σk>0,矩阵A可近似如下[26]:A≈KXi=1σiu(i)o 其中u(i)和v(i)是对应的奇异向量。十、o y表示两个向量x和y的外积,即(xo y) ij=xiyj。主左右奇异向量*h*对应于最佳等级- 对于k=1,得到了A的近似值,因此*= u(1)和a*= v(1).3.3 TOPHITS算法当处理多个网络时,一些技术,称为张量分解,可以成功地应用。通常使用最多的是两种主要的张量分解方法:PARAFAC(并行因子分析,也称为规范分解,简称CP)[30]和Tucker分解(简称TD,见[47]),其他许多方法都是从这两种方法推导出来的。第一种是SVD的一种高阶扩展,它允许分析三种模式的数据,产生UBS和权威分数,并考虑上下文(关系类型)。
|