善用人工智能实现司法公正
2024年02月19日 09:09 来源:《中国社会科学报》2024年2月19日第2834期 作者:赵琪/编译

  本报综合外媒报道 当前,人工智能已经在司法实践中获得了应用。例如,有法官使用ChatGPT起草法律文书,也有律师使用人工智能软件审查合同。尽管人工智能在法律领域的应用加速了该领域的变革,但随之而来的道德和监管方面的担忧,也让司法系统的公正性受到质疑。

  1月19日,“对话”网站刊发英国伦敦国王学院法律职业教育高级讲师阿尼尔·巴兰(Anil Balan)撰写的文章提到,当前,法律界人士积极拥抱新技术,生成式人工智能已经在法律审判层面得到应用,部分律师更是利用人工智能进行合同分析、文件审查,寻找关键证据,帮助客户在诉讼中获胜。相关统计数据显示,迄今为止,法律界使用生成式人工智能频率最高的群体是大型企业法务人员;其次是律师事务所,有12%—13%的律师事务所正在使用该技术。从研究结果来看,法律界使用人工智能不但可以节省人力成本,还能进行内部知识开发,提供更优质的服务,进而强化自身的竞争优势。在接受调查的1000多名英国法律专业人士中,大多数受访者(67%)认为人工智能将对行业产生明显影响。其中38%的受访者表示这将是“意义重大的”,另有11%的受访者表示“具有变革性”。但有8%的受访者对人工智能给行业带来的影响持消极看法。

  巴兰认为,法律界人士在使用人工智能时应该更加审慎,因为很多人工智能软件存在算法不透明等问题,如果无法解决这些问题,就会让法律权威、社会公正受到质疑,进而影响社会和谐发展。

  他提到,当前,人工智能在法律界的应用主要集中在法律研究(通过扫描大量法律文本形成数据库,进而识别相关案例和法规)、文件审查(利用人工智能工具筛选出关键条款,提取重要信息)和案例研究(利用人工智能模型分析已有判例以预测在某些类型案件中胜诉的可能性)等方面。这些应用在提高效率、降低成本方面具有巨大潜力,但也面临一系列挑战。例如,在道德和监管方面,人工智能算法是以数据集为基础进行训练的,可能因数据不全面而存在一定的偏见。具体来说,如果一个城市的某些社区存在过度监管的历史,基于此的人工智能算法可能会建议让来自这些社区的被告提供更高的保释金,而不考虑他们逃跑或再次犯罪的风险。类似的偏见还可能影响企业内部的法务人员,致使他们提供的法律研究、文件审查和案件预测结果存在偏差。此外,过度依赖人工智能还会损害律师自身的专业判断和批判性思维能力。如果没有适当的监管,人工智能就有被滥用和被操纵的风险,从而危及法律正义的基本原则。

  巴兰说,为了更好地在法律界应用人工智能,需要解决以下几个问题。一是偏见问题,可以通过利用更具代表性的数据集(包括种族、性别、社会经济地位和地理位置)训练人工智能模型来解决偏见问题。二是透明度问题,应通过提升人工智能算法决策过程的透明度来缓解人们的担忧。三是法规和监督问题,可以通过制定明确的法律指导方针,包括禁止使用有偏见的人工智能工具等,要求保证数据源和算法的透明度与可追溯性,并建立独立的监管机构来评估人工智能工具。

  总而言之,人工智能在法律实践中的兴起与大规模应用是不可避免的,但其最终目标不是用机器取代人,而是赋予法律专业人士权利,让他们能够更加关注法律的公平正义问题。

  (赵琪/编译)

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026

Baidu
map