在不重要的特征中建立“不变性”
2023年11月10日 10:39 来源:《中国社会科学报》2023年11月10日第2770期 作者:杨蓝岚/编译

  据美国麻省理工学院官方网站10月16日报道,由美国国家科学基金会、国立卫生研究院等机构资助并于近日发表在《自然—神经科学》上的一篇文章揭示了生物和人工神经网络之间不同的“不变性”,发现人类认为完全不相关的图像可以通过计算模型分类为相同的图像。

  人类的感官系统非常擅长识别所看到的物体或听到的词汇,即使物体是颠倒的,或者这个词汇是从未听过的声音说的。当人类的感官系统进行这种分类时,它会忽略与物体核心身份无关的特征,比如光影、观察角度等,即使物体在那些不太重要的特征上表现出差异也被认为是相同的,这就是所谓的“不变性”。

  近年来,研究人员训练的深度神经网络可以分析数百万个能够引起人的反应或影响人的行为的外部因素,主要是声音或图像,并学习分辨其共同特征,以便能够大致准确地对目标词汇或物体进行分类。

  模拟人类感官系统的深度神经网络模型非常擅长应对具有不变性的表征的变换,无论狗的皮毛是什么颜色,都能正确识别狗的图像,或者无论说话人的声音高低,都能正确识别一个词语。然而,麻省理工学院研究人员开展的一项新研究发现,这些深度神经网络模型对与目标不相似的图像或词汇也有同样的反应。

  如果要求模拟人类听觉或视觉等的深度神经网络模型生成一个图像(比如熊)或一个词语,并将其与特定的自然元素(如自然中熊的图片)放在同一类别,它们生成的相当一部分内容对人类观察者来说是无法识别的。这些模型建立了自己独特的“不变性”,它们会对具有完全不同特征的刺激做出相同的反应。以这种方式生成的多数图像和声音都不像研究人员最初给出的例子,在人类眼中更像杂乱无章的像素和噪音。不仅如此,不同的深度神经网络模型还拥有自己独特的不变性,当研究人员把一个模型给出的数据展示给另一个模型时,后者就像人类观察者一样无法识别。

  研究人员还发现,通过对抗性训练,包括在训练数据中加入一些稍作改变的图像,生成的模型数据对人类来说更容易识别。有针对性的模型改进提高了人类对模型数据的识别性,但没有消除人类与模型之间的总体差异。

  麻省理工学院大脑和认知科学系副教授乔希·麦克德莫特(Josh H. McDermott)表示,这些发现可以帮助评估计算模型对人类感官知觉系统的模仿程度,改进已有的模型。(杨蓝岚/编译)

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026

Baidu
map