多维审视人工认知
2023年12月25日 15:00 来源:《中国社会科学报》2023年12月25日第2801期 作者:魏屹东

  人工智能的兴起与发展,使人工认知逐渐成为一种新的认知模式,并对人类认知带来了重大挑战。自然语言处理大模型的出现,更是加大了挑战的力度。不少人担忧,机器学习系统能否超越甚至是否已超越人类认知能力,是否会对人类的生活及生存带来重大影响。不过,此类担忧并不能阻挡人工智能的发展,这是科学技术发展过程中必然会出现的对新生事物的疑虑现象,但对其进行伦理反思和规范则是必要的。从哲学视角进行审视,笔者提出人工认知研究及发展的三个原则、五种方法和六类伦理规范。

  三个原则

  一是适应—表征原则。此种范畴框架以认知哲学为基础,旨在统一协调认知科学与人工智能两个面相。认知系统是一种适应性表征系统,是自然界长期进化的产物。在认知科学中,进化意味着适应环境,认知意味着理解和表征意义,这两种含义同时意味着认知系统是一种预测加工系统。在人工智能中,预测加工就是自寻优预知。自寻优是一种将人类认知能力转移到技术系统产生的人工认知方法,目的是通过相关系统行为使外部目标状态的自适应能够在技术上实现。因此,预测加工和自寻优均是适应性表征行为,旨在通过技术系统的描述对目标进行内生预测和能力调整,以此应对环境变化,从而使系统的行为与目标能够自主地彼此适应。

  二是情境—觉知原则。情境—觉知是指在一段时空内主体(人或机器)对环境中元素的当下感知,需要对其意义进行理解,并对其未来状态进行预测。这是动态系统的一种在线实时性表征,本质上是一种适应性表征方法,旨在为动态认知系统设置人—机—环境交互的境遇。该原则表明,认知系统的适应度是系统与具体情境的拟合,其表征产生于特定语境中。因此,适应性随着具体情境而变化,表征依赖于特定语境而形成,只有情境没有语境的觉知,就会使系统缺乏所生成内容的意义说明,使理解变得困难。因此,这就需要语境—觉知的介入。

  三是语境—觉知原则。语境—觉知是指主体根据当前环境(包括外部和内部环境)做出不同反应的能力。对于人类而言,语境—觉知意味着认知是基于语境的感知和思维能力;对于人工智能体而言,语境—觉知是指计算机感知和获取环境信息的行动力。人机交互和脑机接口是两种认知的混合,并形成了一个交互网。比如,物联网就是许多对象通过语境—觉知连接在一起。因此,如果一个系统使用语境向用户提供相关信息或服务,那么该系统就是语境—觉知意义上的。情境—觉知与语境—觉知的区别在于,前者突出当下性和即时性,后者突出关联性和语义性。

  概言之,适应—表征原则、情境—觉知原则和语境—觉知原则都蕴含了认知系统与环境交互的适应性以及语义表达的表征性,它们是适应性表征方法论的具体原则。情境和语境是主体需要适应的小生境和大生境,人工智能体只有处于这种情境或语境中才能涌现出意识、心智和智能。所以,意识、心智和智能等心理属性,均是认知系统内部诸多因素与外部环境相互作用的整体涌现属性,是单一因素所不具有的。

  五种方法

  一是新人工主义方法。人工主义是一种对人工生命系统的属性和部分进行计算机形式化建模的计算表征方法,它通过计算模拟构建生命系统的部分和细节,阐明了计算与智能的关系,其实质是计算模拟和符号推理。若将人工主义与生物符号学方法(假定不存在“心智”本身,而是将其作为一个概念的位置标识符)相结合,就形成了一种新人工主义。它既不同于不进行还原解释的有关心智的分析哲学,也不同于忽视脑进化的神经科学哲学;既超越了传统自然主义和物理主义,也超越了心灵哲学的机器功能主义。这种新方法不仅挑战了生物自然主义,也有取而代之之势。

  二是新预知主义方法。预知是一种从反应性到积极主动性的能力,作为一种方法,它将人工智能的表征整合到情境中,以此改造传统人工智能而形成预知主义。若将这种预知主义与感知—行动(通过感知收集数据或信息经过处理而行动的方法,也称行动主义)相结合,就形成了一种超越传统行为主义和动力主义的新预知主义。因为预知的目的在于行动而不仅仅是预测,预测是为了更好地行动。显然,这种新方法超越了经典表征主义和联结主义,将使新一代人工智能更智能。

  三是新语境涌现方法。语境涌现展现了物理系统和其他系统不同描述层次间的一种非还原但定义明确的关系,旨在说明不同层次系统间属性的不可还原性,如意识不能还原为大脑的神经活动。在人工智能领域,语境涌现产生了一个形式健全、经验适当的程序,以一种整体一致的方式在描述层次间进行翻译,并可从神经层面的描述来讨论心理状态的语境涌现。若将语境涌现与生成主义(一种生态学方法)相结合,就形成了一种新语境涌现方法。它可能统一传统认知研究的控制论方法和人工智能方法,不仅有助于人工认知与人类认知的融合,也是对被普遍接受的情境方法的有益补充。

  四是新模拟方法。模拟方法是运用一个设计的事物或过程对真实事物或过程的模仿或虚拟,目的是表现出所选择物理系统或抽象系统的关键特征。区别于心灵哲学中关于预测他人行为能力的模拟理论,模拟方法要求模拟物与被模拟物之间的适应性。在算法层面,模拟由一个理解心理状态的形式化程序组成,产生给定的特定输入的精确输出。若将模拟算法化,可形成一种超越纯粹的形态模拟的新模拟方法,前者侧重心理模拟和建模,后者侧重计算机模拟和推理。

  五是文化重构主义方法。重构主义是一种研究心智、大脑和行为的自下而上的经验方法,与还原论自上而下的过程相辅相成,强调心智和大脑的发生机制及其涌现过程。作为一种哲学立场,重构主义假定心理现象是一系列心理和神经属性互动的结果,但忽视了文化对心智的塑造。若将重构主义与人类特有的文化相结合,就产生了一种文化重构主义。这种文化重构主义以文化进化的方式重塑人工智能,超越了传统认知主义和还原论,使人工智能与人类文化进化协同发展。

  总之,这五种方法是适应性表征方法论的具体化。人工主义的实质是使用贝叶斯方法的形式建模,通过经验启示法不断尝试达到目标,加之与生物符号学方法的结合,表现出适应性表征特征。预知分析加上行动主义意味着“感知+行动=适应性+行为表达”。语境涌现的机制就是适应性表征,加上生成主义意味着“变化+结果呈现=适应性+表现”(表征的另一种形式)。模拟是目标引导的拟合性表征,加上使目标算法化,意味着“适应性+计算表征”。文化重构主义意味着自然进化与文化进化的结合,表现出双重适应性和表征性,进一步强化了人工智能的具身性和语义性。

  六类伦理规范

  一是人工道德主体规范。如果人工智能体成为类人的道德主体,那就应对其进行道德约束。比如,一旦人工智能有了主体性,就有了道德意识,不再只表现出自动性和反应性,很可能有了能动性。此时,就要对其进行道德约束。

  二是安全规范。不可靠不安全的人工智能无疑是不道德的。安全性是一切人工装置使用的首要条件。这或许可以通过人工智能装箱(AI-Boxing)来解决,即对人工智能加以特别限制。凡是对人类无益甚至有害的人工智能研究,必须加以禁止。

  三是认知规范。如果说安全问题主要是技术问题,伦理问题则往往表现为认知问题。技术问题可通过提升技术来解决,如不断完善与改进的动力机器人。而道德问题通常是认知问题,对高级智能行为的伦理规范不能仅通过技术来实现,也需要通过教育和学习来教化,或者也可以通过立法对行为进行强制规范。

  四是认知增强规范。这主要是针对脑机接口和通用人工智能。目前的脑机接口可用于脑损伤、脑疾病的治疗,这是有益于人类的,但用于提升正常人的认知能力断不可行。因为这不仅有可能会伤害人(即使技术完全成熟,风险依然存在),而且在伦理上也是不被允许的。人工智能的介入无疑会提升脑机接口的水平,但不能提升道德认知能力。未来的通用人工智能也不能提升伦理认知水平,尽管可以参与评估。

  五是可控规范。人工智能的发展必须是可控的。如果一个超级人工智能在大多数认知任务上胜过人类,就应对其加以控制,这就要求开发者设计“有益的人工智能”而不是“邪恶的人工智能”。因此,如果对人工智能研究加以适当控制,制定并实施相关伦理和法律条约,增强智能就并不完全是一种威胁。

  六是社会学规范。如果智能机器人成为社会常态,就会出现人工智能的社会化。社会化是将人工智能理解为一种社会文化现象和“非人类智能行为者”。人工智能正日益成为社会的一部分,人机交互已成为现实,具体表现在不断发展的智能家居系统、自动驾驶车辆、聊天机器人、智能公共显示器、护理机器人等领域。这就需要对人工智能进行社会学和社会管理研究,从而形成人工智能社会学和机器人社会管理学。

  (本文系国家社科基金重大项目“人工认知对自然认知挑战的哲学研究”(21&ZD061)阶段性成果)

  (作者系山西大学哲学学院教授)

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026

Baidu
map