|
在这种情况下,我们必须付出的代价是匈牙利婚姻算法不再可行,因为优化问题本身是NP难的。注意,为评分函数选择一个希尔伯特空间是为了方便。如果应用程序需要神经网络或类似的(更难处理的)函数类而不是内核,我们仍然可以应用大边界公式。也就是说,我们发现内核方法非常适合这个问题。致谢:我们感谢托马斯·霍夫曼、Chris Burges和Shipeng Yuu为我们提供了用于排名的数据集。这对于获得与他们自己的出版物可比的结果(如实验中所报告的)是无价的。感谢Yasemin Altun、Chris Burges、Tiberio Caetano、David Hawking、Bhaskar Mehta、BobWilliamson和Volker Tresp进行有益的讨论。这项工作的一部分是在Le与Nicta一起进行的。澳大利亚国家信息和通信技术由澳大利亚政府支持的澳大利亚能力倡议提供资金,部分资金来自澳大利亚研究委员会。这项工作得到了帕斯卡网络的支持。参考j。巴西利科和霍夫曼。统一协作和基于内容的配置。正在进行中。Intl.conf。机器学习,第65-72页,纽约,纽约,2004。ACM出版社。博纳米,洛杉矶。比格勒Conn,G.Cornuejols,即。格罗斯曼,C.D.Laird,J.Lee,A.Lodi,F.Margot,N.Sawaya和A.Waechter。凸混合整数非线性规划的算法框架。研究报告RC23771,IBM,2005年10月。Bousquet和D.Herrmann。关于核矩阵学习的复杂性。在S.Becker,S.Thrun和K.Obermayer,编辑,《神经信息处理系统的进展》2002年第15期。S.Breese,D.Heckerman和C.Kardie。协同采购预测算法的实证分析。《第14届情报不确定性会议论文集》第43-52页,1998年。J.Burges,Q.V.Le和R.Ragno。学习用非光滑代价函数进行排序。INB.J.Platt和T.Hofmann主编,《神经信息处理系统进展》2007年第19期。C.J.C.Burges,T.Shaked,E.Renshaw,A.Lazier,M.Deeds,N.Hamilton,G.Hulldender.学习使用梯度下降法排序。正在进行中。INTL.康夫。机器学习,2005.Y。曹,徐俊,刘德义,李洪,黄勇,洪华。分类支持向量机在文献中的应用。在SIGIR,2006年。W。Chu和Z.Ghahramani。序数回归的高斯过程。J.马赫。学习。第6:1019-1041号决议,2005。朱棣文和S.S.凯尔蒂。支持向量序回归的新方法。正在进行中。Intl.conf。机器学习,2005.Cossock和T.Zhang。使用回归的子集排序。《学习理论会议论文集》,2006.克莱默和Y.辛格。用排名恶作剧。在神经信息处理系统的进展14,剑桥,麻省,2002。麻省理工学院出版社。克莱默和Y.辛格。在线类别排名的损失范围。在P.奥尔和R.梅尔,编辑,程序。年度大会。计算学习理论,第48-62页,柏林,德国,2005。斯普林格-弗拉格岛海勒和C.汤普金斯。Dantzig定理的推广。在H.W.库恩和A.W.Tucker,编辑,《线性不等式和相关系统》,数学研究年鉴第38卷。1956.R。Herbrich,T.Graepel和K.Obermayer。序数回归的大边距秩边界。载于A.J.Smola、P.L.Bartlett、B.Sch-olkopf和D.Schuurmans,编辑,《大边距分类器的进展》,第115-132页,麻州剑桥,2000年。麻省理工学院出版社。Jarvelin和J.Kekalainen。检索高度相关文献的IR评估方法。载于ACM信息检索特别兴趣小组(SIGIR),第41-48页。纽约:ACM,2002。T。乔阿希姆斯。使用点击数据优化搜索引擎。在知识发现和数据挖掘ACMConference论文集(KDD)中。ACM,2002年。乔阿希姆斯。
|