机器伦理的哲学基础、基本特征与实现方法
2024年03月15日 10:26 来源:中国社会科学杂志社 作者:廖备水

  摘要:随着人工智能系统自主决策能力的不断提升,如何赋予智能体的决策以足够伦理考量成为一个备受关注的重要挑战。解决这一问题的关键途径是建立机器伦理,即将人类伦理价值观和道德规范嵌入人工智能系统,使其具备伦理对齐能力。机器伦理建立在人类伦理的基础上,但具有与人类伦理不同的基本特征。首先,当前的智能机器尚无现实主义意义上的主体性和体验性,表现为在伦理决策方面的弱主体性。其次,机器的决策反映的是受其行为影响的人类利益相关方的伦理考量,因此,机器的伦理决策需要在不同利益相关方的价值诉求之间取得平衡,即具备社会平衡性。再次,机器在伦理决策时容易受到文化因素的影响,应能反映文化差异性。最后,机器需要向人类主体解释伦理决策、理解情感表达,并进行责任归因,因此必须具备良好的人机交互性。

  关键词:伦理对齐 可解释性 大语言模型 知识表示与推理

  作者廖备水,浙江大学哲学学院教授(杭州310058)。

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026

Baidu
map