算法为经济社会发展和民众生产生活提供了极大的便利,与此同时,算法背后难以避免的偏见及相关对策是否具有可行性,在国内国际学术界受到了广泛的关注与探讨。不过,以辩证的眼光看待问题,在努力减少和克服算法偏见这条路径之外,是否还存在另一种并行不悖的选择?近期,有国外学者提出,算法可被用作一面镜子,揭示出人们难以在自己身上认识到的偏见。这为算法偏见相关研究开拓了新视野,激发了新活力。
识别人类偏见产生的原因
解决算法偏见的第一步是要让我们自己意识到偏见为什么存在,只有这样才能打破偏见限制,帮助人类作出更明智和更公正的决策。美国宾夕法尼亚大学沃顿商学院教授凯瑟琳·L. 米尔科曼(Katherine L. Milkman)和美国纽约大学斯特恩商学院教授多丽·邱格(Dolly Chugh)曾从心理学视角对人类思维运行的逻辑关系进行深入分析,这也成为我们了解偏见产生的基础。据他们介绍,人类思维划分为“系统1”和“系统2”两个系统理论,用以表现认知功能的区分。其中“系统1” 指的是人们的直觉系统,它通常是高效、自动、轻松、含蓄且情绪化的;“系统2”指的是速度较慢、有意的、费力、明确且合乎逻辑的推理。人们时常会遇到缺乏关于决策的重要信息、没有留意到可获取的信息、面临时间和成本的限制、在可用的记忆中仅保持相对少量的信息等情况,这时就越有可能依赖“系统1”思维来做决定。尽管在一些复杂的决策任务中,下意识的举动有可能比有意识思维产生更好的选择。但是,在许多场景下,仅仅依靠“系统1”思维来做决定,也会造成决策偏差,进而产生不利影响,这也是偏见产生的主要原因。在有必要的情况下,人们需要从“系统1”思维转向更审慎的“系统2”思维,而确定哪些情境是这种“必要情况” 正是心理学等领域的一项重要任务。
米尔科曼和邱格提到,算法的应用场景如招生、招聘、医疗服务等,更需要依靠“系统2”思维来做决策从而避免产生偏见。因为在“系统2”思维中存在“局外人视角”,这种视角可以把自己从特定的情境中移开。用局外人的视角看问题已被证明具备减轻决策者对其知识的过度自信、减少完成任务所需时间等作用。决策者也可以通过询问真正的局外人对某个决定的看法来改善自己的判断。那么,如果算法能够作为局外人的角色发挥作用,为人类在决策时难以发现或羞于承认自己存在偏见提供“旁观者清”的信息,则可以帮助人们避免“当局者迷”的陷阱。
美国西北大学心理学系副教授西尔维娅·P. 佩里(Sylvia P. Perry)等人在一项研究中对人类“偏见意识”行为进行了进一步分析。佩里发现,当偏见意识作为一种指标时,能够以独特的方式预测人对反映自己偏见的信息的反应,也能预测察觉他人偏见行为。有偏见意识的人更普遍地认同偏见的存在,无论是表现在自己还是他人的行为中。这些发现对反偏见措施的制定和推行具有重要意义。还有学者提出,人类意识到个人偏见的存在是其减少偏见和歧视的关键步骤。当偏见以一种人们没有意识到的方式被掩盖时,人们可能会继续保持偏见。许多反偏见教育项目的目标是提高人们对自身偏见的认识,人们是否能够准确地认识到偏见的存在是影响他们做出改正的关键。了解偏见意识在个体层面的差异对反偏见培训起到关键作用,有助于针对特定受众的情况和需求制定效果更佳的反偏见干预措施。
从自我与他者关系中探讨算法偏见
在人工智能产品大规模应用的当下,算法已经成为人类决策时的辅助工具,但是算法作用过程和决策机制较为隐蔽甚至不便于人类思维理解,也会产生算法偏见。如何打破算法偏见是人们关注的重点。有学者提出,人们可将算法理解为自己以外的“他者”,这样就使得偏见更易被识别,避免偏见盲区的干扰。伦敦大学城市学院市场营销与行为科学教授艾琳·斯科佩利蒂(Irene Scopelliti)等人就偏见盲区这一概念解释到,人们在作出判断时表现出的系统性偏见很多情形下是由无意识过程造成的。对看法形成过程的“有意识通达”(conscious access)的缺乏,意味着人们往往没有意识到自己的偏见,尽管他们更容易在他人的看法中发现同样的偏见。相对于他人,人们倾向于相信自己的观点,这一点已经在许多实证研究中得以体现。这种“自我—他人精度对比”的判断和行为会产生有害后果,包括降低人们对有益的、旨在去除偏见的建议的接受度。
斯科佩利蒂认为,偏见盲区的产生可以被归因于两种现象的相互作用:内省错觉和朴素现实主义。当人们评价自身的偏见程度时,这种评价以内省为基础。由于内省不太可能揭示出有偏倚的思维过程,人们可能会认为自己的判断和行为是无偏见的。朴素现实主义指的是个人认为他们对现实的感知是对客观事实的准确表述,导致难以理解其他观点。
还有学者提出,当人们评估他人的偏见程度时,依赖的是他人的行为而不是他人的想法。换言之,人们在评估自己和他人的偏见时使用不同类型的依据,因而较少察觉自己的偏见,较多察觉他人的偏见。根据这一特点,美国波士顿大学市场学教授凯里·K. 莫尔维基(Carey K. Morewedge)和荷兰伊拉斯姆斯大学鹿特丹管理学院助理教授罗曼·卡达里奥(Romain Cadario)等人研究了算法偏见是否可被用来揭示继而帮助纠正人类偏见。
以这种“自我与他者”的关系作为切入点,可以帮助研究人员转换视角,更深入地探索算法偏见等技术伦理议题,并更全面地看待和应对社会生活中由技术更迭带来的实际挑战。例如,美国哈佛大学伦理智能实验室主任朱利安·德·弗莱依塔斯(Julian De Freitas)等人指出,现有的关于自动驾驶汽车技术应用心理障碍的研究通常从算法厌恶的角度进行探讨,即着眼于消费者如何不愿意信任算法、自动化和人工智能,如何认为自动驾驶车辆不安全、不熟悉、乘车风险相比人类驾驶员控制的车辆风险更高。这是因为自增强的比较评价(self-enhancing comparative evaluations)起到了中介作用。研究参与者的偏好表现出对自我与他人态度上的不对称,认为自己是更值得信赖、更安全的驾驶员,而他人则与此相反。有偏倚的自我评价降低了对自动驾驶汽车等技术的接受度,可能会直接干扰人们对创新性的感知。这样的探讨为相关政策制定者和企业提供了有实用价值的见解,也对预测和解释人们对自动化、算法和人工智能的接受与应用这一研究领域作出了理论层面的推进。
发掘算法的积极效应
莫尔维基和卡达里奥等人认为,算法可以被用作一面镜子,揭示人们很难在自己身上看到的偏见,继而帮助决策者认识到并纠正自己的偏见。他们开展的一系列实验再现了偏见盲区,其中那些认为自己看到的是来自算法或他人的决定(无论实际上是否如此)的参与者更有可能在结果中感知到偏见,并在之后纠正决策中的偏差。此外,那些更容易出现偏见盲区的参与者,相比自己的决策,也更容易在算法或其他人的决策中看到偏见。而在自己的决策中,比起偏见,人们更倾向于承认中立或合理因素的影响,如表示自己在租房时会注意房东在平台上的评级,而否认会留意他们的种族背景。这可能是因为,承认自己偏好评级高的租房,不会影响到一个人的自我意识,也不会影响到别人对自己的评价。
莫尔维基认为,许多偏见很难在个人层面上被观察到,如一个孤立的招聘决定。算法虽然可以被编纂或放大人类偏见,但这也是对人类社会中存在的偏见的曝光,当人们像构建算法时那样,把个体内和个体之间的决策累加起来,有助于暴露体系和组织中存在的结构性偏见。在他看来,人们对自己的思维过程有深入的了解,更有可能追溯自己的思维并为否认偏见而寻找借口,认为偏颇的决定或许是由其他“可辩护的因素”驱动的。例如,“在进行招聘决策时,我并没有考虑应征者的种族或性别。我只是根据他们的能力作出决定”。然而,在分析他人的决定时,人们需要判断的只是结果,而缺乏机会了解他人的决策过程,此时偏见更加显而易见且更难开脱。
算法缓解了偏见盲区,因为人们在看算法时更像是看别人而不是看自己。算法的决策过程宛如一个“黑箱”,就像人们无法得知别人的内心想法一样。算法是根据人类的决策进行训练的,但人们把这种反映出来的偏见称为“算法偏见”。在莫尔维基看来,算法可以成为帮助人们更好地看到自己的偏见并纠正它们的工具,这正是这项研究令人兴奋的地方。作为一把双刃剑,算法既有可能放大人们“糟糕的倾向”,也可以让人们成为“更完善的自己”。他表示,目前关于算法偏见的已有研究成果并不乐观,很多人主张通过开发统计方法来减少算法中的偏见,但偏见的源头本就来自人,这是问题的一部分。人们应该努力让算法变得更好,但更应该努力让自己少一些偏见。
友情链接: 中国社会科学院官方网站 | 中国社会科学网
网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号
中国社会科学杂志社版权所有 未经允许不得转载使用
总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026
>