楼主: 时光人
540 0

[图行天下] 研究人员称: 人工智能领域过于白人化和男性化 [推广有奖]

  • 3关注
  • 34粉丝

已卖:165份资源

院士

23%

还不是VIP/贵宾

-

威望
1
论坛币
26913 个
通用积分
429.8724
学术水平
95 点
热心指数
109 点
信用等级
91 点
经验
39970 点
帖子
1630
精华
3
在线时间
580 小时
注册时间
2019-2-25
最后登录
2025-5-6

楼主
时光人 学生认证  发表于 2019-4-18 10:18:01 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币

人工智能研究所(AI Now Institute)的研究人员在今天发布的一份报告中表示,人工智能产业正面临"多样性危机",这引发了有关该领域发展方向的关键问题。

报告发现,女性和有色人种的比例严重不足。报告指出,研究发现,约80%的AI教授是男性,而Facebook和谷歌的AI研究人员中,女性比例仅为15%和10%。有色人种也被排挤在外,只占大型科技公司员工的一小部分。其结果是,劳动力经常受到白人和男性观点的驱动,建立了经常影响其他人群的工具。"这不是受这些系统影响的人的多样性,"AI Now Institute联合主管Meredith Whittaker说。

更糟糕的是,通过修复潜在求职者的"管道"来改善这一问题的计划基本上失败了。研究人员写道,"尽管数十年的"流水线研究"评估了从学校到行业的各种求职者的流动情况,但人工智能行业的多样性并没有取得实质性进展。"

研究人员对改善这一问题提出了一些建议。他们说,公司可以通过发布更多按种族和性别分列的薪酬数据,以及发布骚扰和歧视透明度报告,来提高透明度。

多样性虽然是科技行业的一道障碍,但在人工智能领域却存在着特殊的危险。在AI领域,面部识别等可能存在偏见的技术会不成比例地影响历史上被边缘化的群体。研究人员写道,2017年推出的扫描人脸以确定性取向的程序等工具,反映了过去的不公。严格的测试是必要的。但更重要的是,AI工具的制造商必须愿意不构建风险最大的项目。 "我们需要知道这些系统既安全又公平,"AI Now Institute联合主管凯特·克劳福德说。

科技行业的员工在一些重大人工智能问题上采取了立场,敦促他们的公司放弃或审查可能伤害弱势群体的敏感工具的使用。亚马逊的员工向高管们询问了公司的面部识别产品。最近,谷歌员工抵制了包括传统基金会主席在内的人工智能审查委员会,他们指出,该组织一直在游说反对LGBTQ的权利问题。公司很快就完全解散了董事会。

研究人员总结说:"人工智能中的多样性危机有很好的记录,影响广泛。" "在整个行业和学术界的不平等工作场所,在招聘和晋升方面的差异,在反映和放大偏见刻板印象的人工智能技术方面,以及在自动化系统中重新出现的生物决定论方面,都可以看到这一点。"

http://news.uc.cn/a_92694081857101265


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝


您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-1-25 11:47