楼主: yayoudou
117 0

人类本性都有傲慢与偏见,那么人工智能会有偏见吗? [分享]

  • 0关注
  • 0粉丝

等待验证会员

硕士生

15%

还不是VIP/贵宾

-

威望
0
论坛币
10 个
通用积分
3.9884
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
670 点
帖子
64
精华
0
在线时间
33 小时
注册时间
2019-4-7
最后登录
2019-7-22

yayoudou 发表于 2019-6-25 14:45:17 |显示全部楼层


人与人之间总是有或多或少的刻板印象,如民族、肤色、教育背景、性别等。在人们的心目中,地方团体常常是陈词滥调。例如,女性应该温和听话,工程技术人员大多是男性,白人比黑人有更高的智力等等。每个人都是独立的个体。人们对他人有不同的态度和看法是正常的。出乎意料的是,人工智能也有“刻板印象”。


最近,Facebook的人工智能实验室进行了一项有趣的新研究。他们发现,人工智能偏见不仅存在于国家内部,也存在于国家之间。


研究人员测试了五种流行的现成的对象识别算法,包括Microsoft Azure、Clarifai、Google Cloud Vision、Amazon Rekognition和IBM Watson,以了解每个程序的效果。用于测试的数据集来自不同国家的家庭,包括穷人和穷人,包括117个类别,从鞋子、肥皂到沙发。


在这项研究中,研究人员发现,当被要求识别低收入家庭时,目标识别算法的准确度比高收入家庭低10%。随着月收入的增加,误差也会增加。特别是对于谷歌、微软和亚马逊来说,低收入家庭识别算法的准确性很低。



与索马里和布基纳法索相比,该算法在识别美国产品方面的准确度提高了15-20%。

这种现象有很多原因。最常见的原因是,在创建算法时,通常会受到相关工程师的生活和背景的影响。这些人大多来自高收入阶层的精英阶层,他们的思想和观念都是基于他们的思想和观念,人工智能算法也是基于他们的思想和观念。


人工智能(ai)具有强大的计算能力,在算法的基础上,可以方便地获取海量数据和识别信息。然而,令人担忧的是,它的偏见不仅在物体的鉴定上有偏见,而且在种族和性别歧视上也有偏见。



研究人员测试了微软、IBM和Facebook的人脸识别功能。他们发现白人男性的正确率高于99%,而黑人女性的错误率为47%。



亚马逊开发了一个人工智能程序来阻止简历的选择,这也显示了对女性的歧视。选择简历后,男性比女性多。包含女性角色的简历的权重将会降低,甚至降低了两所女子学院的研究生评级。可见人工智能也是有自我选择,和不可磨灭的“歧视”。不过在另一方面人工智能又显得极为平等,比如最近大火的人工智能机器人,它就完全可以做到对每一个人的态度都是平等的,不会因为你有钱你的性别就改变对你的态度,他会像人一样温和做到有问必答,及时遭受到批评也会虚心接受。电话机器人好不好用?这么多企业疯抢的场面也回答了这个问题。

您需要登录后才可以回帖 登录 | 我要注册

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2020-1-21 17:50