推动智能机器人向善发展
2022年09月20日 09:34 来源:《中国社会科学报》2022年9月20日第2495期 作者:宋春艳

  随着人工智能对人类认知能力模仿水平的提升,智能机器人能否产生自我意识的问题已从远虑逐渐变成近忧。对此,学界有乐观、悲观和中立的不同立场。目前有可能产生自我意识的智能机器人,是一种高级人工智能,具有互动性、自主性与自适应性等特征。对智能机器人自我意识问题的深切关注,反映了人们对智能机器人失控的忧惧。而消除这种忧惧的最佳方式,就是深刻认识和把握其原理与本质,打开智能机器人自我意识的黑箱,并推动其向善发展。

  把握不同路径

  总的来看,人类自我意识的产生主要有两种方式,一是自我激发,二是他人认同。自我意识与自我认同是不可分割的,而自我认同则离不开群体中他人的认同。所以,自我意识通常在获得社会其他成员的认同中产生。在探索智能机器人自我意识时,这两种路径各自进行了尝试,并取得了不同的进展。按照技术发展路径,智能机器人主要分为数据智能和类脑智能,二者自我意识产生分别采用了他人认同路径和自我激发路径,其本质也不相同。

  一是数据智能机器人“设计”出自我意识,即他人认同路径。这一路径通过算法设计和大数据支持,让机器人表现得具有“自我意识”。无论是数字计算机,还是量子计算机,其产生自我意识的途径都属于数据智能路径。但这一路径存在数据兼容和溢出的风险。很明显,这一路径产生的“自我意识”是环境中的设计者和使用者赋予智能机器人的,认知主体是人体而非机体。这在情感机器人或社交机器人中尤为常见。而社交类智能机器人的使用者,往往会在与其长期相处中产生机器人也有情感和自我意识的错觉。心理学上将这种现象称为共情效应。通常情况下,能产生越强共情效应的机器人往往越受消费者欢迎。然而,通过考察情感或自我意识内在的真实内容及其规律性就会发现,这只是特定情境中的使用者认为机器人已彰显出自我意识和情感。因此,并不能说明这类机器人能够自我激发产生自我意识或情感。

  二是类脑智能机器人“生长”出自我意识,即自我激发路径。这一路径通过类脑技术支持,让机器人拥有能感知的“身体”,形成独立的“自我意识”。这里的“自我意识”虽然源自机体,但却是承载生物芯片的有机体,因此无论是技术悲观派还是乐观派都不能否认其产生自我意识的可能性。比如,曾毅团队在认知神经科学家的实验基础上,用自主研发的类脑机器人成功挑战了自我意识镜像实验,为机器人自我意识建立了受生物激发的模型。虽然镜像实验只能作为机器人自我意识验证的一个视角,但我们可以据此展望未来,制造出生物性质的类人自我意识的智能机器人并不是天方夜谭。这一路径存在生物芯片信息难以掌控的风险。目前大多数相关研究都局限于实验室内,而已临床使用的仅是针对脑部疾病的脑机接口技术,并且这种技术的使用需要患者提前进行训练,也就是要通过人的协助才能展现出智能。

  探索人机融合

  智能机器人自我意识的产生可能增加人类对其失控的忧惧,而人机融合发展则能够降低这种危害的可能性。人机融合智能是充分利用人和机器各自的长处形成的新型智能形式。大数据人工智能、互联网群体智能、感知和跨媒体智能、人机混合智能、自主智能系统等是目前主要的五类人机融合智能。为引导智能机器人向善发展,规避不良社会影响,需要人类主动回应和采取措施。

  一是进行前瞻性伦理设计。技术实体论认为,技术是一种实体,是负载着价值的。尤其是现在自主性越来越强的智能机器人,根据算法的设计能够自适应环境自主决策,产生的结果甚至是不可控的。这种算法复杂性和不可控性,很好地支持了技术实体论的立场。由此,对技术风险的治理则需要一种前瞻模式。虽然目前类脑智能对意识和自我意识的研究尚处于初级阶段,但让其自主产生自我意识一直是很多研发者的目标。因此,要在其自我意识研究尚处于初级阶段时提出伦理框架,根据“自上而下”和“自下而上”各自的优势提出组合模式:将“不伤害不作恶”作为底线原则进行价值敏感设计,并在后天学习中通过底线原则对学习到的人类行为进行过滤。倘若完全采取情境学习的路径,一旦投入市场使用,就会出现不可控的后果。因此,必须将底线原则与情境学习相结合,才能保证智能机器人的安全可控。

  二是建立以人为主导的人机协同演化关系。对智能机器人自我意识的深切关注,实质上反映了人们对智能机器人失控的忧惧。在此基础上形成的人机关系,既不利于人工智能的健康发展,也不利于人的自由而全面发展。对此,我们需要探索出一种健康、可持续的人机关系,即以人为主导的人机协同演化关系。以人为主导,可以保证人在协同演化中不丧失主体性。只有保持这种主体性,人类才能理性决定机器人“能够做什么”和“应该做什么”,保证人工智能产品按照人的价值理念演化,从而掌握协同演化的主动权,实现智能机器人向善发展的目标。同时,以人为主导才能促使人类主动承担协同演化中的过失责任。若智能机器人产生自我意识,将引发其道德地位和道德承受能力的争论。实际上,让机器人拥有一定的道德判断能力,目的是为了更好地为人类服务,尽量减少甚至避免负面影响,而不是让它们必须拥有权利或承担责任,二者是可以分开的。人是责任的承担者。人的责任不仅包括在风险预防阶段做好价值敏感设计,也包括在风险产生后通过制度构建来降低损失。

  三是建立“社会—技术”一体化协调发展的体制机制。若智能机器人产生自我意识,所带来的变化不仅是技术上的颠覆性创新,而且对原有社会运行机制的影响更是难以清楚预判。面对具有自我意识的智能机器人的来临,不仅需要在研发阶段进行提前干预,同时也需要社会体制机制的创新来适应。为保证新的智能机器人产品的向善导向,就必须在研发和使用中进行监管。同时,政府要积极引导第三方机构对其可能引发的隐私、安全、社会公正等问题进行敏感性评估,要求企业对出现问题的产品建立补偿或召回机制。

  四是积极引导公众参与。技术的进步与应用在为人们的生活带来便利的同时,也让人们在一定程度上产生了恐惧。这种技术恐惧源于技术自身的复杂性和不确定性,尤其是对于可能产生自我意识的智能机器人。要消除技术恐惧的根本方法,就是让公众参与到智能机器人的技术治理过程当中。一方面,公众参与有助于提高智能机器人的社会接受度。公众对技术研发的参与程度越深入,对技术细节越了解,也就越容易接受具有自我意识的智能机器人。另一方面,公众参与有助于提高智能机器人社会风险评估的准确性。适当的公众参与对智能机器人的社会风险因素识别更加全面和准确,由此制定的预防性措施将更加有效。总之,更多公众参与将有助于实现人工智能向善的目标,这也是提出人机融合智能的初衷。

  (本文系国家社科基金一般项目“人机融合智能的道德风险及其协同治理研究”(20BZX029)阶段性成果)

  (作者单位:湖南省社会科学院(湖南省人民政府发展研究中心)哲学研究所)

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026

Baidu
map