人工智能监管应具有前瞻性
2023年10月25日 10:03 来源:《中国社会科学报》2023年10月25日第2758期 作者:本报记者 方龄

  人工智能研究公司OpenAI近期在官网发布公告表示,将于11月6日在旧金山举行首届开发者大会。距离2022年11月底ChatGPT的发布已过去了将近一年,一度成为全球热门话题之一的“ChatGPT热”有所降温,但由这个契机带来的“冷思考”却远未结束。监管ChatGPT等人工智能工具的必要性与重要性源于何处?怎样的监管思路和监管策略是当前亟待进一步探索明确的?本报记者就此采访了国外相关领域有实践经验的专家学者。

  监管需求不容回避

  美国伦斯勒理工学院未来计算研究所教授、创始主任詹姆斯·亨德尔(James Hendler)是语义万维网和知识图谱的奠基人之一。他在接受本报记者采访时强调,需要被监管的并非只有ChatGPT,以人工智能算法为代表的算法也需要接受监管。据亨德尔介绍,由他担任主席一职的美国计算机学会全球技术政策委员会2022年10月底曾发布一份声明,题为《关于负责任算法系统原则的声明》,对一系列监管意见和建议进行了总结。

  算法是独立、分步骤进行的一系列操作,用于执行计算、数据处理和自动推理任务。许多人工智能算法以统计模型为基础,通过机器学习的方式,利用数据集进行“学习”或“训练”,另一些则由分析驱动——发现、解释和传播数据中有意义的模式。人工智能与机器学习系统用于作出具体决策的算法和其他底层机制可能是不透明的,个中原因可能包括信息因素(用于训练模型和创建分析的数据在数据主体不知情或未明确同意的情况下被使用)、技术因素(该算法本身不容易被简单明了地解释)、经济因素(透明化的成本过高)、竞争因素(透明度化与商业机密保护有冲突或会使得对决策边界的操纵成为可能)、社会因素(披露信息可能会违反隐私期待)等。这造成了理解难度的加大,输出结果是否有偏差或错误也更难判断。

  即使是设计精良的算法系统也难以规避解释不清的结果或错误,例如,使用的训练数据与应用目的不匹配,或者算法的使用条件已经改变,设计这套系统所依据的假设已经失效。仅靠使用具有广泛代表性的数据集也无法保证系统没有偏见。数据处理方法、用户反馈循环以及部署系统的方式都有可能带来问题。当今世界,以人工智能为基础的算法系统越来越普遍地被用于会对个人、组织及社会产生深远影响的决策的制定与建议,就业、信用、教育准入等方面的许多决定都有机器参与其中,却缺乏足够完善的由人力完成的实质性审查。尽管算法系统寄托着人们对社会更加公平、包容、高效的美好愿望,这样的愿景却不会随着自动化而自动实现。就像人类作出的决定一样,机器作出的决定也有可能不尽如人意,造成歧视等负面社会影响。鉴于上述原因,确保算法系统充分遵守既定的法律、伦理和科学规范,并使其应用风险与解决问题的效用相称,就成为应有之义。

  人工智能的内部分类很重要,不同类型的人工智能不宜混为一谈。德国欧洲数字研究新学院(ENS)数字社会法律与伦理教授菲利普·哈克(Philipp Hacker)、德国海德堡大学法学院研究人员安德里亚斯·恩格尔(Andreas Engel)等人也认为,大型生成式人工智能模型(LGAIMs)已被数以百万计的个人和专业用户用于生成人类级(human-level)的文本、图像、音频和视频,它们正在极大地改变人们交流、工作、创建与构想新内容的方式。ChatGPT、Stable Diffusion等大型生成式人工智能模型预计将影响社会各个领域,从商业到医学,从教育到科研再到艺术。这可以让专业人员腾出时间来专注于实质性工作,其作为决策引擎有助于更有效、更公平地分配资源。不过,它们带来的巨大潜能和显著风险是同时存在的,例如,可能会使假新闻、有害言论等甚嚣尘上。大型生成式人工智能模型运转高速、所生成的文本语法准确性较高,使其成为大规模生产看似严谨实则具有严重误导性的虚假信息的“不二选择”。因此,加强内容审核是一个十分紧迫的要求。

  信任期待不宜过高

  奥地利维也纳大学哲学系媒体与技术哲学教授马克·考克伯格(Mark Coeckelbergh)对本报记者表示,ChatGPT这样的人工智能工具涉及一系列伦理道德问题,它目前仍然不够可靠,有许多错误和误传信息。然而,一些人却对这些工具给予了过多的信任和过高的期望。此外,也有人担心,当人工智能工具发展到极高的水平时,可能会夺走一些就业机会。这对作家、记者、文案撰稿人等以写作为职业的人而言意味着什么?高校和中小学又当如何应对学生利用人工智能工具代写文章的情况?人们需要组织层面的规则,也需要办学主体加强管理。教育界需要为人工智能技术带来的潜在破坏做好更充足的准备,这并不意味着应该禁止人工智能工具,因为它们也可以有效地助力于教育和研究的发展。来自政府与组织的政策支持必不可少,政府、公共部门和私营部门都需要采取行动。私营部门也可以积极作为,但需要接受各级政府的监督管理。企业尤其是大型企业负有应对相关挑战的社会责任。此外,公众舆论中对人工智能伦理问题的呼声也同样能为妥善解决问题提供帮助。

  在考克伯格看来,相关学术研究中,用户对人工智能的期待、人工智能工具对用户的蒙蔽等是重要主题,对技术设计来说尤其如此,而分析人工智能对就业市场的影响也是不可或缺的研究主题。为了制定恰当的政策和法规,只关注ChatGPT是不可取的,应当关注各类人工智能工具将要以及已然如何改变了我们的社会。考克伯格总结到,对此恐慌是不必要的,人类可以有所作为,因为ChatGPT并不“邪恶”,人工智能也能够在社会发展中发挥积极作用。人们要做的是确保人工智能的开发与应用是合乎伦理道德的,并制定有效而透明的监管措施,以促进合情合理的开发与应用。亨德尔在采访最后表示,人工智能背后没有什么“魔力”,它只是人类社会需要监管的众多技术之一。国际社会至少在一定程度上有效应对了核扩散、气候变化、海洋及其利用的立法等挑战,人们需要在对人工智能、社交媒体等的监督管理上积极探索解决问题的机制。

  监管措施不应滞后

  亨德尔在采访中阐述了要从国际视野看待和应对人工智能监管问题的原因。对于现有人工智能监管措施是否能够很好地适用于监管ChatGPT这样的新兴工具,他坦言,在他看来,到目前为止,对人工智能和社交媒体的诸多监管措施都比较落后,且各国之间存在很大差异,效率并不高。要把世界各地不同的法律和政策连接在一起,这使得监管起来相当不易。如果联合国等国际组织能针对算法安全与隐私保护这样的具体议题发挥更大作用,将是一件好事。“OpenAI这类公司在面对如此多的不同规则时所面临的挑战是,如何在遵守规则的同时保持创新和开放。TikTok是世界上最受欢迎的应用之一,但它在美国和欧洲的法律间左右为难。它所面临的挑战很好地说明了为什么我们需要更多的国际协议。”亨德尔解释道。

  考克伯格同样注意到了滞后性可能给人工智能监管带来的不利影响。他告诉记者,在制定监管规则的时候,例如,当他本人作为欧盟委员会人工智能高级专家组成员参与相关工作时,ChatGPT这一新兴工具还没有问世。这就指向了一系列问题,比如,ChatGPT是否构成高风险?这样的例子说明,欧盟委员会等组织机构当前对人工智能监管采取的方案可能是不完善的。考克伯格认为,非常重要的一点是,在设计和开发ChatGPT等工具时,要向用户说明其局限性,这包括明确它是“一种机器”而不是“一个真正的人”。通过这种方式,与技术相关的期望可以得到更好的管控。此外,对于政府而言,预判基于人工智能的自动化对劳动力的影响也很重要,例如,应如何应对人工智能工具可能导致的潜在失业问题。

  哈克和恩格尔等人提出,欧盟及许多其他地区的人工智能监管主要针对的是传统的人工智能模型,而并非大型生成式人工智能模型。换句话说,现有监管措施对新一代人工智能模型的兴起准备不足,可能无法妥善应对其多功能性突出、应用范围广泛等特点带来的风险。大型生成式人工智能模型的案例凸显了专门针对某些技术的监管措施的局限性,容易导致监管空白,需要立法者特别关注。哈克和恩格尔等人的研究还显示,技术中立(technology-neutral)的监管规则可能效果更佳。这是因为,技术特定(technology-specific)的规章制度可能在正式颁布之前或颁布后不久就面临过时的问题。为了提升大型生成式人工智能模型的可信赖程度,确保它们更好地服务于社会整体利益,他们建议,可以从以下五个方面制定监管策略。

  第一,在话语层面上对不同参与者加以区分,分别是对模型进行预训练的开发人员、根据特定用例(use cases)的需要对模型进行精细调整的部署人员以及输出内容的接收方,如接触到由人工智能生成的广告或产品的消费者,这样可以为人工智能价值链上的不同参与者量身定制更细致的监管义务。第二,直接规制(direct regulation)中的规则应当与大型生成式人工智能模型的特点相适配。监管的法律法规应该特别关注特定的高风险应用程序,而不是将预先训练的模型看作一个整体。期望ChatGPT开发人员预测并化解使用该工具时每一个可能的高风险场景下的每一个问题,是不现实的。对于欧盟国家来说,重点可以放在如何保证在高风险场景(如在招聘决策中对简历进行打分)下,部署和使用工具者能够遵守欧盟《人工智能法案》(AI Act)高风险相关义务中关于透明度和风险管理方面的规定。第三,确保开发人员遵守非歧视原则,从源头上防止有偏见的输出,这在开发人员收集和管理来自互联网的训练数据时尤其“对症”。第四,制定详细的透明度义务。对于开发人员和部署人员来说,这涉及人工智能工具的性能指标、在预训练模型期间发现的关于有害言论的风险;对于用户而言,这涉及对其使用人工智能工具所生成内容的披露。第五,欧盟国家应扩展《数字服务法》(Digital Services Act)这类人工智能监管法规中的内容审核规则,包括通知与操作机制、综合审计等,以使得其适用范围更好地涵盖大型生成式人工智能模型。总而言之,内容审核应该在内容生成阶段就进行,而不是事后补救,否则,人工智能在有害言论和假新闻方面产生的负面影响可能难以得到遏制。

  亨德尔对记者表示,探索ChatGPT等人工智能工具监管最大的挑战在于,研究对象是“移动的目标”,算法因具有工业产权属性而受到许多法律的保护,并且处于一种不断变化的状态之中。这要求研究人员通过探究未来可能出现的伦理问题找到具有前瞻性的方法,从而“走在前方”,而不只是试图修复已经出现的问题。他告诉记者,从生物伦理学领域的案例来看,这是可行的——“克隆人”或者“定制婴儿”这样的伦理困境,在技术上被实现前,就已经由学术界通过团结合作的方式解决了。广大相关研究人员需要更多地与人工智能专家进行交流,更多地了解在未来产生重大社会影响的可能性情景,而不仅仅只是试图“追赶”现有的系统。例如,尽管建造和部署量子机器是一个竞争相当激烈的领域,但关于以合乎伦理道德的方式应用量子机器的研究成果却相对较少。“现在是时候思考这个问题了,而不是等到它们具有商业可行性之后再考虑。”亨德尔说道。

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026

Baidu
map