不断优化人工智能的可解释性
2023年05月15日 11:17 来源:《中国社会科学报》2023年5月15日总第2649期 作者:刘雨微/编译

  本报综合外媒报道 从理论上来看,人类与人工智能合作要比单独工作效率更高。然而,当人工智能给出错误的预判时,许多人也会不假思索地接受。学者将这种威胁人机合作绩效的弹性现象称为人工智能的过度依赖。据美国斯坦福大学官网近日报道,该校计算机科学系副教授迈克尔·伯恩斯坦(Michael Bernstein)等人指出,人类过度依赖人工智能的严重后果包括错误的医学判断或保释决定,这将对社会伦理和人身安全造成巨大伤害。然而,伯恩斯坦等人表示,人工智能的可解释性技术在短期内还无法从根本上解决过度依赖人工智能的问题。

  伯恩斯坦表示,如果一个人正在处理复杂的任务,又用复杂的方式去解释他的做法,反而不能帮助他人理解任务背后的机制。

  伯恩斯坦等人注意到,当人机合作完成一项困难的任务时,人工智能的解释往往和任务本身一样复杂。例如,实验要求参与者与人工智能合作完成一项阅读理解。人工智能很快就给出了文章概括,并解释了它摘取文本信息的过程。此时,合作者有两种方式来判断人工智能是否出色地完成了任务:自己阅读文章并独立完成阅读理解任务,或者只检查人工智能的文章总结和其解释是否合理。由于这两种选择都具有挑战性,实验参与者更倾向于直接相信人工智能提供的答案,提高对人工智能的依赖度,而不是自己深入研究原文或人工智能的解释。

  伯恩斯坦等人表明,如果一项人机合作任务很难,人工智能给出的解释却很简单,就能顺利减少人们对人工智能的依赖度。但是,如果任务很难,解释也很复杂,或者任务很容易,解释也很容易,那么人工智能的解释性对过度依赖度反而没有明显影响。随着人机合作为人们带来金钱收益、内在满意度、工作趣味性等益处,人们就会更加努力避免在执行任务中犯错。研究人员相信,技术开发者可以利用同样的原则来激励人们减少对人工智能的过度依赖。此外,还需要进一步简化人工智能的可解释功能,更好地帮助人们在处理复杂任务的时候找出人工智能的错误。

  (刘雨微/编译)

责任编辑:陈静
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026

Baidu
map