在数字经济快速发展的背景下,算法作为核心技术手段,正深刻影响着社会运行与公众生活。算法本质上是对问题求解过程的系统化描述,是通过特定策略构建出的一套输入到输出的处理机制。虽然其概念源于数学发展,早期多应用于学术研究与统计分析领域,普通民众对其感知较弱,但随着大数据和人工智能技术的广泛应用,算法已深度嵌入各类网络服务之中,成为数字平台运营不可或缺的技术支撑。
如今,算法已渗透至人们日常生活的方方面面。例如,在浏览新闻或观看视频时,信息服务提供者会基于用户行为数据,利用算法进行画像分析,并据此推送个性化内容——这些内容可能包括感兴趣的资讯,也可能为商业广告。在外卖配送场景中,平台则通过算法综合计算买家与骑手的位置信息,实现最优路线匹配与派单调度。而像近期备受关注的ChatGPT等生成式AI产品,其能够根据用户提问生成逻辑清晰、语义连贯的回答,背后也依赖于复杂的算法架构。
[此处为图片1]
可以说,算法已成为驱动数字经济运转的核心动力之一。它与海量数据结合后,具备了自主决策能力,进而支撑起数字化企业的商业运作模式,广泛影响公众的行为选择、心理状态乃至社会整体稳定,甚至触及国家安全层面。
尽管算法本身并不神秘,但其设计逻辑、训练过程及应用环境极为复杂,其所带来的社会效应也具有高度不确定性。正因如此,随着算法影响力的扩大,对其进行有效治理已成为数字时代不可回避的重要课题,也是人工智能持续健康发展必须面对的关键环节。
事实上,关于算法的社会争议始终伴随着数字经济发展进程:从“信息茧房”导致的认知局限,到“大数据杀熟”引发的价格歧视;从外卖骑手、网约车司机被算法系统“困住”的劳动困境,到算法合成功能催生虚假信息的风险,再到算法推荐加剧市场垄断等问题,均引发了社会各界对科技伦理与社会责任的深入反思。
我国近年来陆续出台多项法规政策,初步建立起覆盖多层级、多领域的算法治理体系。该体系不仅涵盖行政监管与司法干预,还涉及分类分级管理以及特定行业监管机制,体现出综合治理的特点。
本文旨在探讨算法治理的价值目标、现实难点及其应对路径,以期为相关实务部门提供更具操作性的理解框架。
一、算法治理的核心价值目标
算法的大规模普及仍属于新兴现象,如何科学治理、设定合理目标,本身就是一项复杂任务。作为一种技术工具,算法如同其他科技成果一样,具有双重属性:一方面能提升效率、优化资源配置、增进社会福祉;另一方面若缺乏约束,则可能导致权利侵害、公平缺失和社会风险累积。
2021年9月,国家互联网信息办公室联合中共中央宣传部、教育部、科技部、工信部、公安部、文旅部、市场监管总局、广电总局共同发布《关于加强互联网信息服务算法综合治理的指导意见》(以下简称《指导意见》),明确提出以保障算法安全可信、高质量和创新性发展为导向,健全治理机制,完善监管体系,推动算法自主创新,促进健康有序繁荣发展,助力网络强国建设。
《指导意见》进一步提出,要逐步形成机制健全、监管完善、生态规范的算法综合治理格局。其中强调,算法应坚持正确导向、传播正能量,确保应用过程公平公正、公开透明,实现发展可控、自主可靠,切实防范滥用带来的潜在风险。
由此可见,算法治理的根本目标在于实现发展与规制之间的动态平衡。企业出于市场竞争和效率追求,天然具备推动算法创新的动力,如改进业务模式、提升服务能力、降低运营成本等。然而,公众在面对算法侵权时往往面临举证难、维权成本高等问题,容易导致权利救济缺位。因此,当前治理体系更多聚焦于限制不当使用、防范权力滥用。
具体而言,算法治理的主要目标可归纳为以下几个方面:
1. 遵守公序良俗原则
公序良俗要求尊重公共秩序、社会道德和基本伦理准则。对此,《互联网信息服务算法推荐管理规定》(2021年,简称《算法规定》)明确指出,提供算法推荐服务应当遵守法律法规,尊重社会公德和伦理,恪守商业与职业操守,遵循公正公平、公开透明、科学合理和诚实信用的原则。其中特别强调了“社会公德和伦理”以及“职业道德”的重要性。
此外,国家网信办于2022年发布的《互联网信息服务深度合成管理规定》(简称《深度合成规定》)也明确提出“尊重社会公德和伦理道德”以及“服务向上向善”的要求,进一步强化了算法应用中的价值导向。
这表明,在算法设计与部署过程中,不能仅以效率或利润为目标,还需考虑其对社会价值观的影响,避免传播偏见、煽动对立或诱导非理性行为,确保技术服务于积极健康的社会生态。
算法作为人工智能发展的核心议题,不仅是科技前沿的重要组成部分,也日益成为社会关注的焦点。由于技术发展速度快、应用场景复杂,目前无论是在技术层面还是法律规制方面,社会对算法滥用可能带来的风险尚难以全面评估。因此,现行法律法规难以针对算法设定过于具体的责任体系与约束机制。在此背景下,引入公序良俗原则,有助于在鼓励技术创新的同时,有效防范和遏制算法的不当使用。
公共利益原则是算法治理中的基础性准则之一。这一原则在《算法规定》第一条中即被明确体现,其中指出制定该办法的目的包括“维护国家安全和社会公共利益”。同样,《深度合成规定》也将此目标列为立法宗旨。由此可见,保障公共利益已成为我国算法监管制度设计的核心价值取向。此外,对于具备舆论引导能力或社会动员功能的算法实施备案管理制度,正是公共利益原则在实践中的具体落实。
[此处为图片1]
公平、公正、公开透明是算法运行应遵循的基本原则。早在2021年,国家互联网信息办公室等多部门联合发布的《关于加强互联网信息服务算法综合治理的指导意见》(简称《指导意见》)中,就首次明确提出要推动算法应用实现公平公正、透明可释,切实保障网民合法权益。随后,《算法规定》与《深度合成规定》第四条均进一步强调:“提供算法推荐服务,应当遵循公正公平、公开透明、科学合理和诚实信用的原则。”
由于算法系统对外部公众而言往往呈现“黑箱”特性,在涉及公民基本权益时,若缺乏必要的规范约束,极易导致服务提供者凭借技术优势侵害用户知情权与公平交易权。通过确立公平、公正及公开透明原则,能够在算法服务提供方与社会公众之间建立起合理的利益平衡机制,防止技术垄断与权力失衡。
算法治理的立法发展概览
特定行业的早期立法探索
我国对算法的法律规制最早起源于特定行业领域,尤其是金融行业,主要着眼于防范算法对市场交易秩序造成的潜在冲击。2018年4月27日,中国人民银行、中国银行保险监督管理委员会、中国证券监督管理委员会以及国家外汇管理局共同发布了《关于规范金融机构资产管理业务的指导意见》(简称《资管新规》),标志着我国开始系统性应对人工智能算法在金融领域的应用风险。
《资管新规》重点关注了“算法同质化”问题,要求金融机构避免因采用相似算法模型而加剧投资行为的顺周期性,并需针对由此引发的市场波动制定应急预案。一旦出现因算法同质化、编程错误或数据利用不足等导致的技术缺陷或系统异常,进而引发羊群效应并影响金融市场稳定的情况,金融机构必须及时采取人工干预措施,必要时强制调整或终止相关人工智能业务。
此后,全国人大于2019年修订并通过的《中华人民共和国证券法》进一步强化了对程序化交易的监管。其中规定:通过计算机程序自动生成或下达交易指令进行程序化交易的,必须符合国务院证券监督管理机构的相关规定,并向证券交易所报告,不得危及系统安全或扰乱正常交易秩序。
鉴于证券、期货等金融市场的高敏感性、大额资金流动及广泛参与主体的特点,任何外部信息都可能迅速引发集体反应。当人工智能算法或程序化交易广泛介入后,若多个机构使用高度相似的算法策略,“羊群效应”将被显著放大。因此,金融领域的算法治理重点集中在对算法同质化的预防与干预上。
全国人大的综合性立法进展
2021年施行的《个人信息保护法》将算法纳入个人信息处理的关键环节,成为我国在顶层立法层面推进算法规制的重要里程碑。该法从保障个人公平交易权、尊重个体选择权以及提升算法透明度三个维度出发,构建了较为完整的规则框架:
- 禁止算法歧视:个人信息处理者必须确保自动化决策过程具有足够的透明度,且结果公平公正,不得在交易价格或其他交易条件上对个人实施不合理的差别待遇。
- 保障个人选择权:当通过自动化决策方式进行信息推送或商业营销时,处理者应同时提供非个性化选项,或为用户提供便捷的拒绝途径。若某项决定对个人权益产生重大影响,个人有权拒绝仅由系统自动作出的结果。这意味着企业不能完全依赖自动化流程,必须保留人工介入的可能性。
- 提升算法透明度:当自动化决策对个人权益造成重大影响时,个人有权要求处理者对该决策进行解释说明,从而增强用户对算法运作的理解与监督能力。
网信等部门推动的系统化规则建设
除金融专项立法与《个人信息保护法》外,近年来,国家互联网信息办公室及相关主管部门陆续出台多项规章,逐步形成了覆盖广泛、层级清晰的算法监管体系。
2019年12月,国家互联网信息办公室发布《网络信息内容生态治理规定》(简称《信息治理规定》)。其第十二条规定:使用个性化算法推荐技术推送内容的网络平台,必须建立符合第十条和第十一条要求的推荐模型,同时健全人工干预机制和用户自主选择机制,以防止信息茧房和舆论极化等问题。
同年11月,国家互联网信息办公室、文化和旅游部、国家广播电视总局联合发布《网络音视频信息服务管理规定》(简称《音视频规定》)。该规定明确了音视频服务提供者在运用算法提供服务时所需履行的义务,包括开展安全评估、对基于深度学习或虚拟现实等新技术生成的非真实音视频内容进行显著标注,以及主动辟谣虚假视频信息等责任。
上述规定共同构成了我国当前算法治理体系的重要组成部分,体现了从行业试点到综合立法、从单一场景到全域覆盖的发展路径。
2023年4月11日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》,面向社会公开征求意见。该文件对生成式人工智能作出明确界定:指基于算法、模型以及规则,能够自动生成文本、图片、声音、视频、代码等内容的技术。
近年来,以美国Open-AI公司推出的ChatGPT为代表的生成式人工智能产品迅速发展并广泛传播,随之而来的社会风险也日益受到关注。如何有效应对这类人工智能服务可能带来的伦理、安全与秩序挑战,已成为监管机构亟需解决的新课题。
[此处为图片1]
早在2021年9月,国家互联网信息办公室联合中共中央宣传部、教育部、科学技术部、工业和信息化部、公安部、文化和旅游部、国家市场监督管理总局、国家广播电视总局共同发布了《关于加强互联网信息服务算法综合治理的指导意见》(简称《指导意见》)。该文件提出要切实监测算法安全风险,积极开展算法安全评估,并稳步推进算法备案工作的实施。
同年11月,国家互联网信息办公室单独发布了《算法规定》,进一步细化了算法的分类体系,将算法划分为五种类型:个性化推送类、生成合成类、排序精选类、检索过滤类以及调度决策类。同时,《算法规定》确立了算法分级分类安全管理的基本原则,管理维度涵盖算法推荐服务的舆论属性或社会动员能力、内容类别、用户规模、所处理数据的重要程度,以及对用户行为的干预影响程度等关键因素。
到了2022年11月,国家互联网信息办公室再次出台《深度合成规定》,针对深度合成技术在实际应用中的若干重点问题进行了专门规范,强化了对该类技术的安全管控与责任落实。


雷达卡


京公网安备 11010802022788号







