楼主: yusb
253 0

[经管数据集] fairlearn:Python程序源代码包,用于评估和提高机器学习模型的公平性 [推广有奖]

已卖:21193份资源
好评率:99%
商家信誉:一般

巨擘

0%

还不是VIP/贵宾

-

威望
1
论坛币
40750 个
通用积分
2590.6735
学术水平
20 点
热心指数
31 点
信用等级
7 点
经验
7098 点
帖子
20358
精华
0
在线时间
11858 小时
注册时间
2020-12-8
最后登录
2026-2-7

楼主
yusb 在职认证  发表于 2023-11-12 10:23:29 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
fairlearn:Python程序源代码包,用于评估和提高机器学习模型的公平性

FairlearnFairlearn是一个Python软件包,可让人工智能(AI)系统开发人员评估其系统的公平性并减轻任何观察到的不公平问题。 Fairlearn包含缓解算法以及用于模型评估的Jupyter小部件。 除了源代码之外,该存储库还包含Jupyter笔记本,其中包含Fairlearn用法示例。网站: :当前的版本当前的稳定版本可从。我们当前的版本与0.2或更早的版本有很大的不同。 这些旧版本的用户应访问我们的。我们所说的公平人工智能系统可能出于多种原因而表现不公平。 在Fairlearn中,我们定义了AI系统在对人的影响(即危害)方面是否表现出不公平的行为。 我们关注两种危害:分配危害。 当AI系统扩展或保留机会,资源或信息时,可能会发生这些危害。 一些关键的应用程序是在招聘,入学和贷款方面。服务质量危害。 服务质量是指即使没有扩展或保留任何机会,资源或信息,系统对于一个人的工作是否也与另一个人的工作是否一样好。我们遵循被称为“群体公平”的方法,该方法问:哪些群体的个人有遭受伤害的风险? 相关的组需要由数据科学家指定,并且是特定于应用程序的。


fairlearn:Python程序源代码包,用于评估和提高机器学习模型的公平性.zip (16.28 MB, 需要: RMB 19 元) 399c6d01bc32679847370446ef7d9ba.png




二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:python Learn Earn 机器学习 Fair

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-2-8 06:06