人工智能的弱点与保护隐私一1
机器学习应用程序也存在人类不存在的一种奇怪的盲点——一种固有的缺陷,它会让图像分类器把 来福枪误认为直升机,或者让自动驾驶汽车 冲过停车标志。这些被称为 对抗性例子 的错误分类长期以来一直被视为机器学习模型中挥之不去的弱点。只需对图像进行一些小的调整或向数据库添加一些假数据,就可以欺骗系统得出完全错误的结论。
罗切斯特理工学院 (Rochester Institute of Technology) 和杜克大学 (Duke University) 的一些以隐私为研究重点的研究人员,正在探索利用这个弱点来保护信息隐私。
杜克大学计算机科学教授 Neil Gong等认为在某人的个人资料中添加或减去几个数据,也能得到扭曲的结果,从而保护隐私。他们建立了他们的机器学习引擎,研究人员试图用对抗性的例子来打破它。在用几种不同的方法调整数据后,他们发现,只要添加三个假的应用程序评级,选择一个统计上不正确的城市,或者去掉暴露的评级,那么少量的噪音就会降低引擎预测的准确性,使预测结果与随机猜测一样。他们称由此产生的 系统为“摩擦保护”,以保护数据的私有属性免受机器学习的窥探。
Gong 承认,预测和保护私人用户数据的猫鼠游戏并没有就此结束。如果机器学习的“攻击者”意识到对抗的例子可能会保护数据集不被分析,他或她可以使用所谓的“对抗训练”模型” 生成自己的对抗性示例以包含在训练数据集中,这样生成的机器学习引擎就很难被欺骗了。但防御者可以通过添加更多的对抗性例子来应对,以挫败更强大的机器学习引擎,从而导致无休止的针锋相对。


雷达卡



京公网安备 11010802022788号







