信任是一个非常复杂的概念,尤其是在机器学习驱动的自学习系统中。要做到这一点,需要重新构建我们围绕以下五个支柱构建的 AI 设计方法:
数据权利:您对数据有权利吗?
数据是驱动人工智能的燃料。那些部署人工智能的人必须确保他们使用的数据是高质量的,并且用户能够洞察数据的使用方式。用户对数据和模型所在位置、谁可以访问它以及它的用途的可见性对于确保系统做出值得信赖的决策至关重要。换句话说,人们有权知道他们的数据正在被收集以及它是如何被使用的。这最近成为头条新闻,与跨新闻和社交媒体平台使用数据和操纵 2016 年大选有关,促使变化.
2. 可解释性:你的 AI 透明吗?
你能解释一下你的人工智能是如何产生这种特定的洞察力或决定的吗?当前的 AI 系统在黑匣子中运行,几乎无法深入了解它是如何达到其结果的。使用负责任的 AI 原则构建的 AI 系统需要了解业务利益相关者的担忧,并提供业务流程、算法和运营透明度以建立信任。
这方面的一个例子是在医疗领域。如果人工智能被用来推荐一个疗程,医生需要知道为什么推荐这种治疗——在非常详细的层面上——在开出治疗处方之前。
3. 公平:你的 AI 是否公正且公平?
人工智能系统不断地处理数据并从数据中学习。你能确定你的人工智能不会歧视任何人群吗?负责任的 AI 系统设计需要确保所使用的数据能够代表现实世界,并且 AI 模型没有算法偏差,以减轻决策和推理的偏差,从而导致推理错误和意外后果。
例如,一个被编程为自动将肥皂分配到放在它下面的手上的皂液器无法识别任何不是白色的手,因为它只被训练使用浅肤色手的图像来识别手。结果,它不适用于棕色或黑色手。
4. 鲁棒性:您的 AI 是否强大且安全?
与其他技术一样,网络攻击可以渗透并欺骗 AI 系统。如何确保 AI 不会被黑客入侵?在某些情况下,少量的噪音会阻止 AI 识别它被训练来区分的物体。负责任的人工智能系统应该能够检测对抗性数据并提供针对对抗性攻击的保护,同时了解数据质量问题如何影响系统性能。
对抗性攻击的例子——假装与一类相关但实际上来自另一类的综合创造的输入——包括欺骗自动驾驶汽车以曲解停车标志与限速,以及绕过面部识别,例如用于 ATM 的面部识别。
5. 合规性:您的 AI 是否受到适当治理?
就像人类采取的行动一样,需要有可审计性的踪迹,才能为做出特定决定的原因辩护。组织必须以合规和可审计的方式使用人工智能,并在地方、国家和行业法规的范围内运作。负责任的 AI 系统采用整体治理模型,避免孤岛,并提供实施、治理和控制特定领域政策和法规(如 HIPAA 和 FINRA 规则)的机制。
负责任的人工智能从根本上说是建立信任和信心。考虑到这五个支柱,人工智能设计人员和部署团队需要确保这些系统按预期运行,并与人类用户建立信任。
企业应采取几个步骤,以确保正确设计和实施人工智能系统。其中包括聘请人工智能伦理学家与企业决策者和软件开发人员合作,组建一个定期解决企业伦理问题的人工智能审查委员会,实施人工智能培训计划以教育人工智能伦理问题,并开发人工智能审计跟踪和人工智能修复方法解决方案对个人或组织造成伤害或损害。
改变人与技术的关系
人工智能可以做一些令人惊奇的事情来改善我们的日常生活——如果我们今天采取明智的行动并有远见。在不久的将来,我们将遇到一个无法纠正航向的时刻。那是因为技术被如此迅速地、广泛地采用。我们有时间,但我们现在必须采取行动。
首先要确保您的 AI 能够支持并反映您公司的道德、价值观和行业监管政策。如果做得好,人工智能可以带来业务成果并改善人类状况,其规模将远远超过过去几十年所有创新的总和。
相关帖子DA内容精选
|