楼主: 时光永痕
573 0

[数据挖掘新闻] 我们如何消除算法决策中的偏差? [推广有奖]

  • 0关注
  • 14粉丝

svip3

学术权威

12%

(VIP/贵宾)八级

11%

威望
0
论坛币
26 个
通用积分
57.2238
学术水平
4 点
热心指数
4 点
信用等级
4 点
经验
34180 点
帖子
2732
精华
0
在线时间
321 小时
注册时间
2020-7-21
最后登录
2024-8-1

楼主
时光永痕 学生认证  发表于 2022-6-22 14:00:13 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
随着大型科技公司、警察部门、保险公司和大学招生办公室越来越依赖算法来做出长期决策,我们必须退后一步来考虑算法决策的社会影响。

有许多人工智能算法在社会中表现出性别和种族偏见的例子,包括那些在刑事司法系统、企业招聘和其他商业战略中做出决策的例子。公司和机构不太可能试图加剧种族、性别和社会经济不平等,但他们的算法最终是如何做到的呢?

算法决策出错的地方

专注于可解释的 AI 算法对于防止此类偏见至关重要。当技术供应商构建可解释的 AI 版本时——能够证明他们所有预测的合理性——这将提高透明度,并有助于识别任何潜在问题以防止偏见。但是,识别模式取决于人类。反馈和分析对于识别可能导致偏差的任何限制分类器至关重要。

可解释性是关键,没有透明度,算法偏差是不可避免的。还,机器学习算法的好坏取决于它们所基于的数据。如果向算法提供不完整的数据、不具代表性的数据或带有人类历史偏见的数据,就会出现问题。

正如数学家 Cathy O'Neil 在她的《数学毁灭武器》一书中警告的那样,如果不能适当地缓解,算法可以编纂过去,强化现状,并使社会不平等现象永久化。对于不完整的数据集,算法会强化现状。

解决方案是什么?

为了防止算法决策中出现偏差,公司必须进行定期审计,以确保在实施人工智能工具之前、期间和之后的“算法卫生”。

进行审计:
请务必经常检查您的算法是否存在偏见,并删除您发现的任何有偏见的关联。对事物进行适当分类很重要,因为这些决定本质上是政治性的。正如 O'Neil 指出的那样,“这些模型不仅是根据数据构建的,而且还根据我们对哪些数据应该关注和哪些数据的选择做出的选择。”

从用户那里获得反馈:
除了在内部衡量算法的性能外,寻求客户的反馈也很重要。用户可以识别不恰当地推销给他们的内容,包括来自对话式 AI 助手的奇怪建议、不相关的电子邮件以及许多其他算法错误。

确保您的 AI 工具透明且可解释:
尽管软件公司的算法通常是其知识产权的一部分,但重要的是要避免“黑盒效应”。当您自动化您的电子邮件、流程和决策时,您的 AI 需要是可解释的。对于任何给定的自动化行为,开发人员必须能够解释为什么算法会参与该特定的行动过程。

原因之一比利·比恩点球成金理论之所以如此有说服力,是因为 Bean 的决策算法是透明的。奥尼尔写道,“棒球模型是公平的,部分原因是它们是透明的。每个人都可以访问统计数据,并且或多或少地了解它们是如何被解释的。” 软件公司应遵循这一趋势,独立制定决策算法,并确保这些算法尽可能透明。通过透明的算法和频繁的审核,您将确保您的客户满意并且您的算法没有偏见。

      相关帖子DA内容精选
  • 大厂数据分析面试指南!来自亚马逊、谷歌、微软、头条、美团的面试问题!
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝


您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群
GMT+8, 2026-2-5 09:50