ChatGPT:一个人机环境系统智能的初级产品
2023年03月07日 10:39 来源:《中国社会科学报》2023年3月7日第2604期 作者:刘伟

  目前,ChatGPT可谓成果斐然,但远未达到接近人类心智的水平。粗略地看,人工智能技术可以说是人类使用数学计算模拟自身及其他智能的技术,最初是使用基于规则的数学模型建立起的机器智能(如专家系统),然后是借助基于统计概率的数据处理实现机器学习及分类,下一步则是试图借助有/无监督学习、样本预训练、微调对齐、人机校准等方法实现上下文感知智能系统。这三类人工智能技术的发展趋势,延续了从人到机再到人机、人机环境系统的研究路径。从人机环境系统智能的角度看,ChatGPT的显性描述部分还停留在人类与大数据交互的浅层阶段,而其默会隐性的部分则尚无体现。暗知识、类比、隐喻等看似不严谨、缺乏数理逻辑性的默会隐性部分,很难通过理性思维推理得到,但这些东西又恰恰是构成人类智能的重要部分。在智能研究领域,对基础概念的剖析和理解十分重要,对ChatGPT的分析也应如此。下面便从数据、推理、指称、意识方面分别进行阐述。

  从数据的角度看,ChatGPT并不具备智能的本质特征。小样本小数据解决大问题,才是智能的表现。在许多场景中,交互双方的意图往往是在具有不确定性的非完备的动态小数据中,小概率出现并逐步演化而成的。人类智能可以利用这些小数据,从不同维度、不同角度和不同颗粒度猜测对手的意图,从而实现知己(看到兆头苗头)、趣时(抓住时机)、变通(随机应变)。这完全不同于机器智能所擅长的从大数据中对可重复、可验证规律的提取。人类智能还擅长使用统计概率之外的奇异性数据,并能够从有价值的小数据中全面提取可能的需要意向,尤其是能够打破常规,实现跨域联结的事实或反事实、价值或反价值的猜测。ChatGPT是一种大数据+机器学习+微调变换+人机对齐的程序模式,依据数据的事实性泛化来行动,但对泛化形成的行动价值是完全不知道的。有时这种泛化形成的行为结果是错误乃至危险的,比如在对话中出现的各种“胡说”现象。

  从推理逻辑的角度看,ChatGPT不具备智能的本质特征。把智能仅看成计算或逻辑是一种误区。事实上,真实的智能不但包括理性逻辑部分,也包括非/超逻辑的感性部分。作为人工智能基础的数学工具,只是基于公理的逻辑体系部分。ChatGPT的核心是计算智能、数据智能,其感知、认知功能是对预训练文本的按需匹配组合,存在知识来源的产权和内容生成结果的风险责任等问题。虽然ChatGPT算法中被设置了伦理道德的门槛约束,但其可能带来的误导危害依然不容小觑(尤其是对未知知识的多源因果解释、非因果相关性说明方面)。并且,ChatGPT系统的“自主”与人类的“自主”存在很大差异。ChatGPT的“自主”是在文本符号时空对大数据的规则或统计推理过程,是基于数学计算算法的个体性顺序过程;而人类的“自主”则是在物理/认知/信息(符号)/社会混合时空中对小数据或无数据进行因果推导或推论过程,这是一种群体性的过程。进一步而言,ChatGPT的计算是因果还原论式的,其知识是等同的显性事实知识。但智能的关键不仅在于计算能力,更在于带有反思的算计能力。算计是共在系统论,其知识是等价的隐性价值知识。算计比计算强大于反事实、反价值能力。比如,人类的“自主”中常常包含反思(事实反馈+价值反馈)能力。

  从指称的角度看,ChatGPT不具备智能的本质特征。ChatGPT这类生成式人工智能,不同于以往的大多数人工智能只能分析现有数据,而可以创作出全新的内容(如文本、图片、视频、音乐等)。但与人类智能相比,ChatGPT的局限性包括:有限的常识和因果推理(偏向知识而非智力)、有限的自然语言和逻辑推理、缺乏在现实世界中的基础(没有视觉输入或物理交互)、性能不可靠且无法预测等。其中的一个重要缺点,是不能实现人类的“指称”。维特根斯坦在《哲学研究》中提出了在逻辑之外的“指称”问题,即 “不可言说的”“应保持沉默”之物。维特根斯坦虽然意识到了人类智能的不足,但却没有提出恰当的解决办法。他的学生图灵想到了一个办法:若把人类的理性逻辑与感性指称进行剥离,那么就可以通过数学的形式化系统对人类的智能进行模拟。这样一来,在有规则、符合逻辑的领域(如围棋对弈、文本浅层处理等),人工智能与机器便可以达到或超越人类的水平。当然,这种模拟会丢失很多东西(比如感性、直觉等)。“指称”不仅是自然语言与数学语言的问题,更是涉及思维(如直觉、认知)与群体等“语言”之外的问题。

  从意识的角度看,ChatGPT不具备智能的本质特征。ChatGPT在对词语的打标基础上,实现了对篇章上下文、不少逻辑的打标,以及人机共同的打标。其核心是依赖于自注意力机制计算输入和输出表示的Transformer转换模型,实现了更快、更强的计算。但它远未触及智能中更为核心的问题:如何产生意识?正如马克思所指出,语言和意识一样,只是由于需要,由于和他人交往的迫切需要才产生的。或许,在某种意义上说,意识是一种“交互”。无论内在的交互,还是外在的交互,都是人机环境系统的态势感知事实与价值的算计,而不仅仅是简单的事实打标计算。知识都有其范围和背景,离开这些范围和背景,知识的内涵与外延会发生很大变化(甚至可能相反)。我们不仅需要在已知中发现未知,有时还需要在未知中发现已知。在这些方面,ChatGPT目前还基本上无能为力。更进一步讲,人工智能可以通过各种传感器对客观事实环境进行感知、识别、反应等,但产生主观价值则是目前远未解决的难题。智能也和语言、意识一样,既有规则、理性的一面,也有非规则、非理性的一面。能否实现以有限反映无限、以应然反映必然、以客观反映主观,或许是检验一个系统智能高低的重要标志。智能不是仅依靠计算就能够实现,而是需要加入算计,才有可能形成具有深度态势感知的人机环境系统智能体系。

  (作者系北京邮电大学人机交互与认知实验室主任、研究员)

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026

Baidu
map