学者建议审慎对待人工智能模型生成的结果
2024年05月31日 15:56 来源:《中国社会科学报》2024年5月31日第2903期 作者:崔岫

  荷兰莱顿大学官方网站近日发文表示,该校文化人类学与发展社会学研究所助理教授罗德里格·奥奇加姆(Rodrigo Ochigame)正在探讨人工智能对科学研究的影响,并发现人工智能模型的应用引发了人们对哪些才是可靠科学证据的质疑。

  奥奇加姆表示,如今各个领域的学者都在尝试使用人工智能开展科研工作,为此他研究了以新颖方式使用人工智能的学者。例如,使用人工智能发现和证明新定理的数学家以及尝试使用人工智能预测气候变化对复杂生态系统影响的环境学家。其所关注的所有案例都有一个共同特点,那就是传统的、简单再现从现有数据集中发现的模式的人工智能模型无法满足研究人员需求,研究人员无法获得传统意义上的“真实数据”,因此需要开发新的模型。例如,“事件视界望远镜”项目2017年捕捉到了代号为M87的超巨椭圆星系中心黑洞图像,之后又经过两年,通过数据处理和理论分析,研究人员才成功“冲洗”出其图片,这也是人类拍摄的首张黑洞图片。但由于项目中的望远镜分布在彼此相距遥远的山峰上,导致由它们组成的望远镜阵列有不少“漏洞”,而人类是无法近距离观测黑洞并进行研究的,故此只能依靠算法来估计、填补缺失的数据。研究人员利用人工智能技术,提供了一种弥补被观测物体缺失信息的方法,提升了相关图片的清晰度。同样,被用来研究气候问题的人工智能模型也必须考虑以前从未发生过的极端情况。

  奥奇加姆认为,人工智能模型虽然能够为研究人员提供很多帮助,但是对人工智能的不合理使用和对人工智能模型生成结果的不加甄别的信任,可能会让人们对科学研究成果的可信度产生疑问。在将人工智能模型产出的结果视为确凿证据之前,要清楚该模型是如何工作的以及其所使用的数据来自何处。研究人员应该将实际观测到的数据应用于经过模拟训练的人工智能模型中,而不是将模拟训练产生的数据当作“真实情况”再次用来训练人工智能模型,这可能会使后续的结果出现偏差。

  奥奇加姆提示说,事实上,许多计算和人工智能模型在被普遍应用前都曾受到过质疑。研究人员不仅质疑其中的一些基本假设,而且怀疑它们是否应该被普遍应用到各个领域,还有一些研究人员甚至开发了自己的替代模型。例如,巴西的数学家开发了允许部分矛盾的逻辑系统,而印度学者开发了非二进制计算模型。因此,人们在使用人工智能模型时还应该考虑其是否适合自己的研究领域,以及是否应该根据实际需要设计个性化的人工智能模型。

  奥奇加姆还就人类学研究人员应如何开展观察研究工作而不被观察对象所排斥发表了看法。他认为,人类学研究人员不仅要作为一个观察者,而且要作为一个积极的参与者,尝试为观察对象的研究作出贡献,这可以帮助他们接近观察对象。(崔岫/编译)

责任编辑:崔博涵
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026

Baidu
map