楼主: 时光永痕
707 0

[数据挖掘新闻] 歧视,数据科学和行动号召 [推广有奖]

  • 0关注
  • 14粉丝

svip3

学术权威

12%

(VIP/贵宾)三级

55%

威望
0
论坛币
26 个
通用积分
49.7576
学术水平
4 点
热心指数
4 点
信用等级
4 点
经验
34070 点
帖子
2731
精华
0
在线时间
316 小时
注册时间
2020-7-21
最后登录
2024-4-28

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
歧视,数据科学和行动号召
四年前,软件工程师杰克·阿尔辛(JackAlciné)向谷歌指出,他们的算法具有将他的黑人朋友归类为大猩猩的不利趋势,从而引起了轩然大波。在公众对公然种族主义的强烈抗议之后,这名巨人道歉并努力“解决”了这个问题。去年,亚马逊通过发现其先进的AI招聘软件而备受青睐,这些软件在技术岗位上广受男性青睐。再次,撤离跟随了抗议。以一种更具新闻价值的方式,来自Facebook的不幸翻译意外地误译了他在自己的照片上张贴的标题,从而在以色列逮捕了一名巴勒斯坦男子。标题位于推土机旁边,标题为“攻击他们!” 而不是“早上好!”。该人接受了几个小时的询问,直到发现错误。
但是,GAFA并不是唯一努力克服大规模AI危害的人,并且可以轻易找到大量歧视性数据科学的例子。以麻省理工学院媒体实验室的工作为例,Joy Buolamwini [i]在2018年初表明,来自IBM,Microsoft和Megvii的三种最新的性别识别AI可以从一张99美元的照片推断出一个人的性别宣称的时间百分比是……如果是白人。对于深色皮肤的女性,准确率仅下降了35%。您可以想象他们的公共关系麻烦。
算法偏差
可以轻易地认为这仅仅是编写更智能的代码的问题:更好的翻译算法,更好的图像识别软件等。但是仔细检查表明,挥舞完美软件工程的魔杖并不能使我们走得更远这些问题的根源远胜于代码。事实是AI算法是从给定的(通常是外部的)数据源中学习的,因此,它们的动作自然会反映出这些源所包含的信息的倾向性或亲和力。对于亚马逊的招聘机器人来说,它延续了人力资源部门的偏爱,对于Google的识别工具来说,它只是看过白人的照片。即使是自动收集数据的自主AI,也只能从其所处的环境中学习。这导致歧视。
这种效应被称为“算法偏差”,并且正在成为数据科学家的常见问题。Google并没有竭力成为种族主义者,Facebook并没有打算逮捕用户,IBM等人也没有决定让面部识别软件对黑人女性视而不见。他们是AI所学的环境的“受害者”,对人们生活的负面影响是此限制的附带损害。
随着数据科学日益成为主流,解决算法偏差问题已成为不可能的事情。组织实施公平的协议以导致公平的结果和决策至关重要。这样做将成为社会契约的一部分。但是,正如人们对这一问题的认识一样,通常认为这项工作将在数据级完成,并且仅限于数据科学实验室。但实际上,它必须将自己铭刻在更广泛的社会努力中。不仅因为要保持一致和强大的训练模型非常困难,而且因为许多关键因素都属于实验室之外:
偏见无处不在:歧视因素很多:性别,种族,国籍,薪水,就业,犯罪历史,肤色,宗教信仰,年龄,残疾等等。禁止直接测量这些数量的变量并不难。但是它们倾向于出现在无害的地方,不包含它们的数据很容易产生不公平的模型。Kleinberg等人[ii]给出了一个很好的例子。,表明选择适合美国医疗保健特殊护理计划入学前景的算法使有色人种的患病年龄比白人要晚得多。原因是他们倾向于在预防性治疗上花费较少,并且总体上避免私人机构,并且由于发现卫生支出可以很好地替代病情,因此该软件最终为已经处于特权地位的人们提供了帮助。
谁定义歧视,谁可以主张歧视? 建立公平是一项高度政治努力。政治和法律制度的任务是确定人民的公平理想。歧视法为个人和企业树立了道德行为标准。无需数据科学家或软件工程师就这些主题做出决定。为了说明起见,以汽车保险业为例。传统上,妇女获得的汽车保险报价要比男性便宜,因为历史上她们的事故较少。但这不是对从未发生过交通事故的人的歧视吗?可以说是。但是这些情况必须争论。
了解立法前景 使问题变得复杂的是,许多具有大人工智能潜力的公司正在全球范围内开展业务。然后,他们将面对许多不同的反歧视法律,这使在立法领域中航行成为司法的噩梦。这次以抵押贷款行业为例。在美国,《公平住房法》(Fair Housing Act)规定,根据某人违约的意愿进行抵押决定是违法的。在英国,相同的模型需要考虑FSA立法和GDPR。在澳大利亚,它将需要遵守澳大利亚法律等。虽然跨界法律永远不会统一起来,为每个国家建立反歧视框架至少将是一个开始。
管理可表示性为了检查算法是否具有歧视性,将需要一组示例数据来检验假设。谁来负责这项工作,其中不同的人口代表多少比例?
呼吁采取行动
数据科学中的道德和偏见问题规模很大,无论人们如何关注,它们都会潜入每个人的生活。令人痛苦的是,很明显,社会的许多层面必须齐心协力,才能定义AI的未来。认为技术可以解决这个问题是自大的罪过,我们鼓励所有公司与立法者和政治人士进行对话。数据科学家应该有自己的希波克拉底誓言,但是他们的责任应该到此为止。它们的价值在于创建可靠的模型,以实现增强决策的目的。社会上的其他人必须提供帮助,这样清晰的审计协议才能(并将)被上市公司和私有公司广泛使用。
题库
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:数据科学 Microsoft Kleinberg FACEBOOK Housing

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-5-1 05:04