本报综合外媒报道 近日,美国耶鲁大学人类学系助理教授丽莎·梅塞里(Lisa Messeri)和普林斯顿大学心理学系副教授莫利·克罗克特(Molly Crockett)在《自然》杂志发文表示,人工智能在提高科研生产力方面具有很大潜力,但并非没有风险。梅塞里倡导科研人员在使用人工智能技术时保持警觉,并围绕人工智能工具的使用方法展开讨论,对其应用进行批判性的评估。
科研人员对人工智能工具将如何改变科研范式充满了期待。梅塞里和克罗克特把科研人员对人工智能的美好憧憬划分为四个主要类别。其一,就研究设计而言,研究者将人工智能想象成一种“预示”,希望它能客观高效地搜索、评估和总结海量的科学文献,协助研究者在课题设计阶段提出问题。其二,在数据收集方面,人工智能被视为“代理者”,研究者希望它可以协助生成准确的替代数据点。比如,在获取数据需耗费高昂成本或收集过程面临很大困难的情况下,研究者可以使用人工智能来替代人类参与者,生成类似的数据。其三,在数据分析方面,人工智能作为“量化分析专家”可以处理海量而复杂的数据,寻求对人类智能的超越。其四,作为“仲裁者”的人工智能旨在更加客观地评价科研成果的价值和可重复性,从而承担人类评审者在同行评议过程中的职能。
梅塞里和克罗克特认为,无论人工智能工具属于上述四种应用类型中的哪一种,科研人员都不应将其视为科学知识生产的可靠伙伴,而应当作为普通工具来使用,否则可能会使科研人员容易产生“理解错觉”。换言之,研究者可能会误以为自己对世界的理解比实际情况更加准确或全面。此外,人工智能工具所提供的高效能与洞察力,也有可能对科学知识生产造成消极的影响。梅塞里和克罗克特担心,随着人工智能的广泛应用,科研人员在研究问题、实验设计以及对数据和理论的认识方面都将受到限制。这样的学术环境还会让科研人员陷入一种“探索广度错觉”。也就是说,研究者误以为自己正在探索所有可检验的假设,事实上,他们只是在研究可被人工智能工具检验的更狭窄范围内的问题。
梅塞里和克罗克特指出,高校在对科研人员进行技术培训时,往往更注重对技术的掌握,对技术潜在社会影响的反思则较少受到关注。如果人们越来越相信人工智能工具比人类科研人员更加客观、可靠,科学界未来将可能形成一种“知者的单一文化”。在这样的科研文化下,人工智能工具被当成非凡、权威、客观的知者,逐步代替来自不同背景、接受过不同培训、掌握不同专业知识的科研人员组成的多样化的科学社区。这种单一文化还会引发“客观错觉”。这意味着,科研人员们误以为人工智能工具没有特定视角或涵盖所有视角,而实际上,它们代表的可能是开发和训练它们的计算机科研人员的立场。
通过分析各类人工智能科研工具的性质和风险,梅塞里和克罗克特为在人工智能时代推进负责任的知识生产提供了一个框架。梅塞里表示,科学界存在一种观点,认为客观的观察者是知识的理想创造者,但这只是一个神话,继续追求这一神话只会削弱科学发展。有大量证据表明,人类的多样性使科学更强大、更具创造性。克罗克特认为,把科学视为一种受益于包含多样化观点的社会实践,可以帮助科研人员充分发挥其潜能。相反,以人工智能工具取代多样化的创造性视角,则会破坏科学界在将更丰富的视角纳入科学工作方面所取得的进展。
(刘雨微/编译)
友情链接: 中国社会科学院官方网站 | 中国社会科学网
网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号
中国社会科学杂志社版权所有 未经允许不得转载使用
总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026
>