楼主: ccwwccww
346 0

[学习笔记] 【学习笔记】人工智能的弱点与保护隐私一1 机器学习应用程序也存在人类不存在 ... [推广有奖]

已卖:2470份资源

大师

57%

还不是VIP/贵宾

-

威望
0
论坛币
349639 个
通用积分
193046.0895
学术水平
202 点
热心指数
220 点
信用等级
170 点
经验
13415 点
帖子
11027
精华
0
在线时间
6041 小时
注册时间
2008-3-25
最后登录
2025-7-31

楼主
ccwwccww 发表于 2019-10-31 17:47:51 来自手机 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
人工智能的弱点与保护隐私一1

机器学习应用程序也存在人类不存在的一种奇怪的盲点——一种固有的缺陷,它会让图像分类器把 来福枪误认为直升机,或者让自动驾驶汽车 冲过停车标志。这些被称为 对抗性例子 的错误分类长期以来一直被视为机器学习模型中挥之不去的弱点。只需对图像进行一些小的调整或向数据库添加一些假数据,就可以欺骗系统得出完全错误的结论。

罗切斯特理工学院 (Rochester Institute of Technology) 和杜克大学 (Duke University) 的一些以隐私为研究重点的研究人员,正在探索利用这个弱点来保护信息隐私。

杜克大学计算机科学教授 Neil Gong等认为在某人的个人资料中添加或减去几个数据,也能得到扭曲的结果,从而保护隐私。他们建立了他们的机器学习引擎,研究人员试图用对抗性的例子来打破它。在用几种不同的方法调整数据后,他们发现,只要添加三个假的应用程序评级,选择一个统计上不正确的城市,或者去掉暴露的评级,那么少量的噪音就会降低引擎预测的准确性,使预测结果与随机猜测一样。他们称由此产生的 系统为“摩擦保护”,以保护数据的私有属性免受机器学习的窥探。
Gong 承认,预测和保护私人用户数据的猫鼠游戏并没有就此结束。如果机器学习的“攻击者”意识到对抗的例子可能会保护数据集不被分析,他或她可以使用所谓的“对抗训练”模型” 生成自己的对抗性示例以包含在训练数据集中,这样生成的机器学习引擎就很难被欺骗了。但防御者可以通过添加更多的对抗性例子来应对,以挫败更强大的机器学习引擎,从而导致无休止的针锋相对。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝


您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-2-12 17:27