规范学术研究中的人工智能使用
2024年07月19日 15:12 来源:《中国社会科学报》2024年7月19日第2937期 作者:练志闲/编译

  本报综合外媒报道 人工智能的进步让人类迎来科学的变革时刻。人工智能提高了科学发现和分析的速度,同时也挑战了科研行为的核心规范和价值观,包括问责制度、透明度、可复制性和人类责任等。未来人工智能创新可能会缓解其中的一些问题,同时也可能引发新的担忧和挑战。

  为了探索在学术研究中使用人工智能所带来的日益严峻的挑战,并为学术界提供可行的指引,美国国家科学院召集了一个跨学科专家小组。该小组在《美国国家科学院院刊》上发表了一篇题为《在生成式人工智能时代保护科学完整性》的社论,认为在科学研究中使用人工智能应遵循五项原则。第一,提高透明度。学者应当公开在研究中使用生成式人工智能的情况,包括所使用的具体工具、算法和设置,区分人类和人工智能各自的贡献等。第二,验证人工智能生成的内容和分析。学者应当对使用模型得出的数据、图像和推论的准确性负责,验证结果的准确性和可靠性,同时公开与这一推论有关的证据。第三,记录人工智能生成的数据。学者应在人工智能生成的数据、图像和推论上标注出处信息,说明人工智能在生成该结果中的作用。第四,注重伦理和公平。学者应当确保使用人工智能会产生在科学上合理并对社会有益的结果,同时采取措施降低伤害风险。除此之外,学者、人工智能模型开发人员和政策制定者都应当关注提升人工智能系统的公平性,确保人人都能公平获得人工智能工具和相关教育机会,满足包括边缘群体的多样化需求。第五,持续监测,保证公众参与。学术界应当与其他各界一同持续监测和评估人工智能对科学进程的影响,并快速做出应对。各领域、各部门之间需要合作开展工作,并在开发、应用和监管人工智能的过程中吸引公众参与。

  该小组成员之一、美国密歇根大学公共政策学院教授肖比塔·帕沙萨拉蒂(Shobita Parthasarathy)表示,随着生成式人工智能的普及,对其机制进行技术调整或许有助于消除该技术可能带来的一些不利影响。

  她认为,生成式人工智能的应用逐渐普遍,其局限性也开始暴露出来,例如会产生不正确甚至危险的结果、令创造性工作者和思想家面临信用危机、耗费大量重要的自然资源。人工智能正在加剧社会的不平等和不公正,公平性不足是人工智能带来的一个严重问题。目前生成式人工智能使用的训练数据主要来自英美,因此也难免存在历史和文化偏见,特别是种族偏见。此外,一些大型人工智能企业正在利用主要来自低收入国家的廉价劳动力训练算法,这进一步加剧了不平等问题。诸如此类的情况对本就处于不利地位的群体造成进一步伤害,同时也加剧了人们对科学和政府的不信任。

  帕沙萨拉蒂表示,为了解决公平问题,需要以边缘群体的需求、观点和知识为中心来考察人工智能的创新体系。人工智能技术需要为这些边缘群体赋权,让他们能够影响技术设计,包括试图解决的问题、如何识别和分类数据、如何评估技术人员的工作等。此外,其他在技术与社会关系方面具有丰富专业知识的人,包括社会科学家、人文学者和律师等,也需要更加积极地参与到这一创新体系中来。人工智能开发人员需要接受培训,学会换位思考,理解其他领域专家提供的专业知识。各国政府也需要将公平性纳入人工智能监管框架。(练志闲/编译)

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026

Baidu
map