算法治理应首先立足保障算法权利
2023年07月21日 08:42 来源:《中国社会科学报》2023年7月21日第2696期 作者:张凌寒

  算法治理应首先立足保障算法权利。算法权利是指个体享有的,用于知晓、参与或改变、拒绝算法自动化决策的权利,目的是确保个体利益不受到算法自动化决策的侵害,以及受到侵害后能够获得救济。算法权力是指公共机构和平台通过一定算法面向相对人、用户和公众主动施加的一系列作用和影响,这种作用和影响借助精心设计的算法模型和互动机制体现并实施了公共机构和平台的意志。

  在算法治理体系中,算法权力是算法治理的直接抓手,却并非最佳发力点。过于将算法风险防范与治理寄托于算法权力规制,会忽视算法权利保障同样是风险重要成因,也脱离了算法治理的最终目标——保障个体在数字时代的福祉。

  权利保障机制薄弱同样是风险成因

  算法权利保障而非算法权力监管应当成为算法治理的首要立足点。算法权利并非创制,而是具有传统权利的逻辑基础,用以调适算法自动化决策中畸轻的个体权利,如此方可消弭法律实然权利与应然权利的鸿沟,在人工智能时代以新的制度来实现古老的平等、自由、正义的目标。目前,“算法歧视”“算法霸权”等算法权力失范现象,现实地影响用户权益和公民权利。很多学者主张算法权力监管应当成为算法治理立足点,实践中算法权力监管的相关制度也成为现阶段防范算法风险的主要路径。然而,不可忽视的是,算法权利保障机制的薄弱同样是风险成因。

  近年来,我国算法治理体系的思路紧紧围绕算法权力规制展开。如2022年我国颁布实施了《互联网信息服务算法推荐管理规定》(以下简称《规定》),充分把握了算法的内生性风险和应用型风险,围绕算法权力的监管有针对性地设计了风险防范规则。但遗憾的是,我国算法治理体系中缺乏有效的私权救济路径,而个体多样化的损害无法通过算法权力规制获得有效救济。在算法自动化决策中,隐私、个人信息保护、消费者保护和平台劳工权益等多样化的权利,势必无法被算法权力监管制度一一周全覆盖。目前算法权利的私权救济路径不畅造成了此类损害的救济过于倚重行政监管,形成路径依赖。然而受制于资源,行政监管往往不充分。且公法手段须以有法律明文规定处罚为限,应对灵活多变的实践问题难免捉襟见肘。一方面是人工智能时代给原有法律权利体系带来的挑战,另一方面是算法权力监管无法完全覆盖算法风险的预防与损害的救济,这促使了 “算法权利”在学理层面的出现。

  现阶段算法治理应立足算法权利保障机制

  算法权利应该成为下一阶段算法治理的立足点。算法权利中,既有传统法律权利在人工智能时代的延续,如个体依据合同制度、消费者权益保护制度、行政法制度本应享有的权利;也有为应对人工智能时代的挑战,基于政策考量和利益衡量并经特别制度设计的权利。算法权利的目的是确保个体利益不受到算法自动化决策的侵害,以及受到侵害后能够获得救济。算法权利近年来逐渐被各国立法认可与确定,但其种类、内涵与外延尚存争议。在各国立法中,较早提出算法权利的是2018年实施的欧盟《通用数据保护条例》(以下简称GDPR)中关于数据主体对算法自动化决策的相关请求权。例如在GDPR的背景序言第71条提出数据主体具有知晓算法自动化决策的权利:“应该采取适当的保障措施……保证数据主体获得对此类评估之后达成的决定的解释,并对决定提出质疑。” 《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)、我国《电子商务法》以及《信息安全技术个人信息安全规范》等法律法规,也赋予个体在算法自动化决策中的知情权、解释权、脱离自动化决策权等相关权利。《个人信息保护法》第24条规定:“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”

  第一,算法权力重在限制与规范,而算法权利可兼顾保障与救济。算法权利并非凭空创制,而其中每一项权利既有着传统权利的制度基础,也体现了法律制度应对人工智能时代算法决策大规模应用的因应性变革。算法权利本质是请求权,当个体成为或即将成为算法自动化决策的对象,即享有了相关的算法权利。在商业算法自动化决策中,个体通过用户协议与算法应用者缔结合同关系,基于合同制度而生的意思自治、信赖利益等权益生成了算法解释权、算法决策拒绝权等。进而商业自动化决策算法应用者与个体的不对称权力关系,使得个体也具有消费者的法律地位,算法解释(知情)权、算法决策拒绝权本质上是由消费者权益保护制度中的消费者知情权、自主拒绝权、公平交易权演变而来。在行政算法自动化决策中,算法解释(知情)权是行政公开原则的应有之义,算法决策拒绝权也可在对行政相对人的救济中找到请求权基础。因此,算法权利本质是一组被算法自动化决策的个体所享有的请求权,兼具保障与救济个体权益的功能。

  第二,如果说规制算法权力是要求算法“不作恶”,立足算法权利则是要求算法“做好事”。算法权利是施加于算法应用者的法律负担,目的在于分担算法决策的一部分社会风险。算法权利要求算法应用者向个体告知、解释算法决策,并提供个体参与和提出异议的机会,以及为个体提供退出算法决策的选择。将算法决策的风险分配给算法的开发者和使用者出于如下考虑:其一,算法的开发和使用者具有分散风险的能力。相对人的力量过于弱小,应把风险分配给技术力量更为强大的算法开发者和使用者,可诱导可控制风险之人尽可能初期就降低风险以避免损害发生。其二,保护个体对算法自动化决策的信赖利益是算法开发者和使用者需承担相关算法义务的基础。合理信赖之保护的不断加强一直是法律现代化进程中的主线之一。个体基于信赖利益委托算法应用者利用个人数据进行自动化决策,因此有理由期望在发生危害和错误时,算法应用者以公正和负责任的态度做出回应。这种合理要求并不因法律或用户协议没有专门提及或排除而消失。法律这样分配风险有助于形成人对算法自动化决策的基本信任,而工业的发展、科技的研发等都需要一种信任模式的建立和良性运作。

  第三,在已有足够算法权力规制的背景下,应及时构建算法权利作为算法治理的“安全网”。“安全网”一词常被用于描绘社会保障体系的作用,指当公民遭遇变故与不幸时,社会保障体系能够满足公民基本需求,缓解社会焦虑。如果算法治理体系中的一系列事前的风险防范制度、事中的正当程序以及事后问责制度都未能起到作用,私权利性质的算法权利就成为保护用户个人权利、恢复社会信任的最后一道防线。因此,“安全网”一词形象地描述了算法权利在算法治理体系的定位。算法权利行使的成本可通过具体制度的设计而逐步降低,但不能以此作为其没有制度价值的理由,至少其能宣告个体权利,彰显法律态度。正如为了实现产品质量安全,法律设计了多层次的制度体系,包括事前的行业准入制度、产品质量体系标准,事中的行政部门质量抽查检测,事后的刑事、行政责任以及产品侵权责任。虽然不能寄希望于以私权性质的产品侵权责任发挥最为重要的作用,但产品侵权责任作为私权救济路径有其必要的存在价值。

  过于偏重规制算法权力会忽视算法治理最终目标

  首先,算法治理的最终目标是个体的平等及其合法权益的保障。算法被平台公司与公共部门广泛用于处理海量数据,作出瞬时性的自动化决策,个体处于被决策的地位。算法通过对数据的占有、处理与结果输出成为调配资源的新兴力量,演化为资源、商品、财产、中介甚至社会建构力。如在平台架构中,算法直接成为行为规范,影响和控制个体行为。在政府部门中,算法辅助甚至代替公权力,作出具有法律效力的自动化决策。一旦算法作出不公正的决策,则有可能因其广泛适用于海量用户造成严重的社会后果。例如在美国,私营企业和政府公共部门采用算法和大数据作出的自动决策,曾使得数百万人无法获得保险、贷款、出租房屋等一系列服务,如同被监禁在“算法监狱”。平等的内涵随着时代变迁不断改变,早已从强调自由和人权的政治平等,扩展到强调资源和福利的经济平等,进而到强调机会和能力平等的社会平等。人工智能时代产生了新的不平等,而这种不平等更加隐蔽和严重——知识、信息获得和掌握的不平等。这种数据、算法与算力的不平等,嵌入了社会固有的权力架构,使得本就弱势的个体可能受到的不公平待遇更加隐蔽。而算法权利则是个体在人工智能时代的数字生产体系与数字政府治理中应享有的必要权利。无论是与掌握数字生产的平台相比,还是与在数字治理中效率极大提升的政府相比,个体都居于极为弱势的地位。因此,算法治理的最终目标,是个体的平等及其合法权益的保障。

  其次,唯有算法权利是用户启动的算法治理路径。算法权利的设置正是为了平衡算法决策使用者和个体之间这种极为悬殊的权力关系,为可能受到不利的算法决策的个体提供救济,从而达到法律所追求的平等。在现有的算法治理体系中,算法问责制、算法透明度、平台自律等制度要么由政府以监管为目标推进,要么代表算法应用者的立场。在政府、平台和用户三方力量的对比中,个体既没有政府公权力那样强大的力量抗衡平台,也没有技术力量做自动化决策算法的审查,甚至没有力量用脚投票离开平台。唯有算法权利是可以由用户启动的算法治理路径。因此,私权利保护路径具有不可替代的作用。为此,我国算法治理制度中,也针对未成年人、老年人、劳动者和大数据杀熟等场景,分别配置相应的行为规则(《规定》第19条至第21条)。为了实现自下而上的算法治理,《规定》通过权利路径,赋予个人对抗算法决策的权利。

  最后,算法权利制度能够更好救济“数字弱势群体”。由于搜索、掌握、处理、使用信息设备的知识能力的差别,某些个体成为“数字弱势群体”,并极易被不均衡的技术权力所操控。“数字弱势群体”的产生除主体自身原因外,更重要的还在于技术发展所带来的社会秩序变革、 社会矛盾转变和社会结构革新等,使得原有社会制度供给与新的公众诉求不匹配。算法权利可保障数字弱势群体有获得帮助的权利,从而实现个体在人工智能时代获取、运用技术上的平等。具体包括获得接入网络的权利,也包括获得在数字中基于帮助享有同等法律权益的权利,其目的在于实现社会的数字平等。

  (作者系中国政法大学数据法治研究院教授)

责任编辑:常畅
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026

Baidu
map