楼主: 论文库
1546 0

机器学习对抗性攻击手段 [推广有奖]

  • 0关注
  • 13粉丝

会员

学术权威

74%

还不是VIP/贵宾

-

威望
0
论坛币
5 个
通用积分
0.0363
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
38440 点
帖子
3839
精华
0
在线时间
836 小时
注册时间
2017-9-5
最后登录
2018-4-9

楼主
论文库 在职认证  发表于 2017-9-16 21:00:03 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
摘要:随着人工智能和机器学习技术在互联网的各个领域的广泛应用,其受攻击的可能性,以及其是否具备强抗打击能力一直是安全界关注的。之前关于机器学习模型攻击的探讨常常局限于对训练数据的污染。由于其模型经常趋向于封闭式的部署,该手段在真实的情况中并不可行。在Geek Pwn2016硅谷分会场上,来自北美工业界和学术界的项尖安全专家们针对当前流行的图形对象识别、语音识别的场景,为大家揭示了如何通过构造对抗性攻击数据,要么让其与源数据的差别细微到人类无法通过感官辨识到,要么该差别对人类感知没有本质影响,而机器学习模型可以接受并做出错误的分类决定,并且同时做了攻击演示。本文将详细介绍专家们的攻击手段。

原文链接:http://www.cqvip.com/QK/88457X/201705/672155673.html

送人玫瑰,手留余香~如您已下载到该资源,可在回帖当中上传与大家共享,欢迎来CDA社区交流学习。(仅供学术交流用。)

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:机器学习 cqvip HTML 大家共享 Geek 攻击手段 机器学习 对抗性 学习模型 语音识别

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2025-12-29 09:49