主导人工智能对话的五大阵营
2023年08月25日 10:52 来源:《中国社会科学报》2023年8月25日第2721期 作者:

  本报综合外媒报道 美国耶鲁大学官网近日刊登了该校经济学系教授德克·贝尔格曼(Dirk Bergemann)、管理学院教授杰弗里·赛恩菲尔德(Jeffrey Sonnenfeld)等人的文章,文章对当前人工智能相关讨论中不同阵营的观点进行了解读。

  文章写道,美国《华尔街日报》和《纽约时报》仅2023年5月就分别刊登了200余篇关于人工智能的文章,或声称“人类将面临悲惨的灾难结局”,或主张“人类将得到拯救”。今年夏天,政府、商界、学界、媒体等对人工智能众说纷纭,专家们各执一词。大多数人工智能专家的观点可以分为五种不同类型。

  第一类为“乐观的信徒”。态度最为乐观的人通常有在人工智能前沿领域长期工作的经历,他们相信自己研究的技术具有颠覆性的潜力。例如,美国纽约大学工程学院教授杨立昆(Yann LeCun)就赞同机器最终会比人更智慧的观点,并认为人工智能可能会对人类构成严重威胁的想法十分荒谬。但是,一意孤行、过于乐观可能会导致这些专家高估技术的影响力,并忽视其潜在的缺点和操作方面的挑战。

  第二类为“投机的商人”。在ChatGPT发布的推动下,人工智能升温,许多渴望抓住商机的人涌入这一领域。在这些新成立的人工智能初创企业中,有一些企业缺乏成熟的产品或计划,或是由对基础技术缺乏了解的人领导,但这并不妨碍他们筹集到数目可观的资金。这一类人早早地对人工智能“押下赌注”,认为这是可以获得巨额利润的“一生一次的机会”。

  第三类为“好奇的创造者”,他们积极寻找人工智能的应用领域。人工智能创新不仅出现在许多初创企业中,在大规模企业中也比比皆是。许多企业领导者正致力于将人工智能技术应用于他们的业务中,智能驾驶便是其中一个例子。

  第四类为“大惊小怪的警示者”,他们认为人工智能会带来各类风险,呼吁严格限制人工智能以遏制这些风险。例如,2018年图灵奖得主杰弗里·辛顿(Geoffrey Hinton)就对人工智能带来的“生存威胁”提出警告,认为“人们很难阻止坏人利用人工智能做坏事”。美国人工智能研究公司OpenAI联合创始人兼首席执行官萨姆·奥特曼(Sam Altman)和来自谷歌、微软等其他人工智能机构的技术专家共同发表了一封公开信,信中提出,人工智能给人类带来的风险与核战争一样严重,减轻人工智能的风险应该成为全球优先事项之一。

  第五类是“全球治理的关切者”,他们对人工智能的态度没有那么尖锐,但同样谨慎,担忧人工智能会对就业、收入、平等等问题造成不利影响而人们对由人工智能推动的变革缺乏准备。他们意识到,除非达成类似于《不扩散核武器条约》的协议,否则,敌对国家可以继续以危险的方式利用人工智能,因而需要建立一个更平衡的国际竞争环境。一些人士强调了为人工智能的安全发展提供法律保障的重要性,既要鼓励创新,也要避免大规模社会危害的发生。

  (练志闲/编译)

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026

Baidu
map