警惕人工智能黑箱模型
2022年10月31日 09:32 来源:《中国社会科学报》2022年10月31日第2519期 作者:王俊美/编译

  本报综合外媒报道 美国斯坦福大学商学院官网10月6日称,人工智能可以成为分析海量数据、发现相关性的强大工具。然而,与人类解决问题的过程不同,许多人工智能模型无法给出解决步骤。这被称为黑箱模型,即人们可以看到输入和输出内容,但无从得知中间过程。

  斯坦福大学商学院金融学助理教授劳拉·布拉特纳(Laura Blattner)表示,许多机器学习模型都存在黑箱问题。人工智能模型的复杂性可能会引发法律、伦理等方面的问题。如果这些黑箱模型被用于借贷、保险、医疗保健或司法系统中的高风险决策,就会存在潜在威胁。

  从借贷领域来看,信用评分和贷款决策通常基于几十个变量。一个能够查看600多个变量的人工智能模型,有可能会更准确地衡量风险,对借贷双方都有利。从理论上讲,人工智能不仅可以使借贷评估过程更精确,而且更公平。然而,美国的贷款机构并不急于采用这些工具,因为如果无法解释贷款申请人的评估过程,就会违反公平贷款规则。这些贷款机构不愿意承担由此带来的风险,特别是在敏感的贷款领域。

  目前有一些方法可以通过分析黑箱输出的内容,倒推其生成过程。斯坦福大学商学院运营、信息与技术助理教授詹恩·施皮斯(Jann Spiess)近期与非营利性机构合作评估了几种工具,这些工具尝试解释了信用审核模型对申请人的预测情况。布拉特纳称,越复杂的黑箱模型在预测违约方面越准确。当然,即使人工智能得到监管机构的认可并被贷方采用,用户也必须不断测试和评估模型,以确保其正常工作。

  (王俊美/编译)

责任编辑:崔岑
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026

Baidu
map