在当今法律科技快速发展的时代,人工智能正以前所未有的方式改变着法律行业的运作模式。然而,这一技术进步也带来了新的挑战和伦理困境。近年来,一种被称为"AI幻觉"的现象在法律界引起了广泛关注——律师在法庭文件中引用由AI生成的虚假案例,随后又为逃避责任提出各种令人难以置信的借口。
AI幻觉现象的兴起
自2023年以来,虚假AI生成的案例引证开始被公开报道,并迅速成为司法系统面临的严峻问题。一位法官将这种现象称为"流行病",这些虚假引证严重拖累了法院的运作效率。法国律师兼AI研究员Damien Charlotin创建了一个数据库,记录了律师因AI幻觉而被制裁的案例。Ars Technica对该数据库中的23个案例进行了审查,发现许多律师在面临制裁时,不是选择坦白认错,而是提出各种借口,甚至直接撒谎。

最常见的借口:"我不知道我在使用AI"
在审查的案例中,"不知道自己在使用AI"是最流行的借口之一。一些律师声称他们没有意识到自己正在使用AI工具,例如一位加州律师辩称他被Google的AI概览功能欺骗,误以为这些是典型的Google搜索结果。
更常见的情况是,律师将责任推给下属。本月,一位德州律师在多次推诿后,法院不得不传唤他的客户作证,因为该客户承认在起草有问题的文件中扮演了重要角色。
"您的客户是律师吗?"法院问道。
"不,完全不是,阁下,她只是在帮我处理案件的理论部分,"这位律师回答道。
技术无知与责任推诿
另一个常见的借口是律师假装不知道聊天机器人容易产生幻觉的事实。最近的案例表明,这种借口可能正在演变成变种形式。上月,一位被制裁的俄克拉荷马律师承认,他只要求ChatGPT"让他的写作更有说服力",并没有期望它会添加新的引证。而在9月,一位加州律师陷入了类似的困境——被处以高达1万美元的罚款,法官称这一罚款"保守"。该律师要求ChatGPT"增强"他的案情摘要,然后通过其他AI平台检查错误,却从未阅读这些"增强"后的摘要。
当借口变得荒谬:黑客攻击与窗口切换困难
随着法院开始制定指导方针来应对AI幻觉,一些律师似乎变得更加绝望,Ars发现许多人将虚假引证归咎于常见的技术问题。
怪罪黑客攻击
在纽约市民事法院,一个极端案例浮出水面。律师Innocent Chinweze最初承认使用Microsoft Copilot起草了一份有错误的文件,然后奇怪地转向声称AI引证是由于他电脑上发现的恶意软件所致。
Chinweze说他创建了一份带有正确引证的草稿,但随后被黑客攻击,允许"未经授权的远程访问",据称在他的文件中添加了错误。
法官对此表示怀疑,称这一借口是"难以置信且无根据的陈述",特别是没有证据表明先前存在的草稿。相反,Chinweze请求请专家作证证明黑客攻击确实发生,要求在法院权衡专家分析之前暂停制裁程序。
然而,在法院午休后,这位律师再次"戏剧性"地改变了立场。根据制裁令,他不再希望就恶意软件或未经授权访问其电脑的问题休庭等待专家作证,而是退回到"最初的位置",即他使用Copilot辅助研究,没有意识到它可能生成虚假案例。

切换窗口的困难
在阿拉巴马州,一位名叫James A. Johnson的律师称自己犯了一个"令人尴尬的错误",主要是因为在笔记本电脑上切换窗口很困难,美国地方法官Terry F. Moorer在10月的制裁令中写道。
Johnson解释说,他意外使用了一个他不知道可能产生幻觉的AI工具。他说,这发生在他"在外州医院照顾正在从手术中恢复的家庭成员"期间。他说,他匆忙起草文件,因为他收到通知,客户的会议突然"在法院日程上提前"。
"在时间压力和困难的个人情况下,"Johnson解释说,他决定不使用阿拉巴马州律师协会提供的Fastcase研究工具来研究文件。在他的笔记本电脑上工作,他选择使用"一个名为Ghostwriter Legal的Microsoft Word插件",因为"它自动出现在Word的侧边栏,而Fastcase需要通过阿拉巴马州律师协会网站打开单独的浏览器来访问"。
对Johnson来说,感觉"用触摸板在笔记本电脑上的程序之间来回切换很繁琐",这意味着他"不幸地陷入了一个开放且可用的新程序的诱惑中"。
登录问题与草稿借口
佐治亚州一位律师告诉人们,有时虚假AI引证可能被提交,是因为律师意外提交了草稿而不是最终版本。
其他律师声称,当他们在访问Westlaw或LexisNexis等法律工具时遇到困难时,他们会按需求助于AI。
例如,在爱荷华州,一位律师告诉上诉法院,她在经历了"Westlaw订阅的登录问题"后,后悔依赖"次要的AI驱动的研究工具"。尽管法院"对技术问题表示同情,比如登录问题",但这位律师还是受到了制裁,主要是因为她只在法院命令她解释错误后才承认使用AI。然而,在这种情况下,她可以选择支付150美元的最低罚款或参加"两小时针对AI的法律伦理培训"。
"重复幻觉者"的警示
伊利诺伊州的律师William T. Panichi被发现至少被制裁了三次。对他7月初判处的初步处罚,他承认在"研究软件之间"时被AI所诱惑。
法院沮丧地发现该律师自相矛盾,因此下令实施更严厉的制裁。
Panichi"同时承认使用AI生成案情摘要,没有进行任何独立研究,甚至承认他在这次上诉中'几乎没有做任何个人工作',"法院令状说,同时辩护收取更高的费用——据称是因为这个案例"在花费时间方面非同寻常",他的办公室"在获取信息方面做了一些出色的工作"。
法院认为这种AI滥用如此严重,除了1000美元的罚款外,还命令Panichi退还他收到的"6925.62美元的付款"。
"如果我有幸能够继续在上诉法院执业,我不会再这样做了,"Panichi在7月告诉法院,随后在8月又遭受了两轮制裁。
法院对AI滥用的反应
当发现AI生成的幻觉时,罚款通常会支付给法院、对方律师或两者,具体取决于谁的时间和资源被浪费在核对虚假案例上。
律师似乎更倾向于反对向对方律师支付罚款,希望尽可能降低罚款金额。一位律师甚至辩称"在LexisNexis或Westlaw中输入引证只需要7.6秒,而不是几个小时",同时似乎忽略了没有花这些宝贵的时间检查自己的引证。
该案法官Nancy Miller明确表示,"此类陈述显示出对律师义务令人震惊的无知",并指出"纠正错误和虚假引证的责任永远不会转移到对方律师或法院,即使他们是第一个注意到错误的人"。
"减轻此类错误造成的损害的责任仍然在于签署人,"Miller说。"越早正确纠正这些错误,无论是通过撤回还是修改和补充有问题的诉状,每个人浪费的时间就越少,产生的成本就越少。"
德克萨斯州美国地方法官Marina Garcia Marmolejo表示,确定其他法官如何应对虚假AI引证会浪费更多时间。
"在这个国家最繁忙的法院日程之一,几乎没有 spare 资源首先找出错误的AI引证,更不用说调查这一主题不断增长的判例法了,"她说。
最严厉的制裁与行业警示
至少有一个佛罗里达法院"震惊,震惊"地发现,一位律师在滥用AI后拒绝支付对方律师声称应得的费用。该案律师James Martin Paul要求支付所欠费用和成本的四分之一以下,辩称Charlotin的数据库显示,他可能需要支付"迄今为止使用AI生成判例法所支付的最大罚款"。
但法院发现,让步于Paul的论点"只会使重复幻觉者受益"。最终,Paul因法院所称的"比数据库中其他违规者严重得多的"行为被处以超过8.5万美元的制裁,谴责他"重复的、虐待性的、恶意的行为,不能被视为合法的法律实践,必须被制止"。
伊利诺伊州美国破产法官Michael B. Slade似乎已经厌倦了权衡借口,呼吁所有律师停止使用给法院带来负担的AI捷径。
"坦率地说,到这个地步,任何不知道使用生成式AI平台进行法律研究是在玩火的律师都是活在自己的世界里,"Slade写道。
未来展望:法律行业的AI监管
随着AI技术在法律领域的应用日益广泛,制定明确的监管框架和伦理指南变得至关重要。法院已经开始采取行动,但法律行业本身也需要建立更严格的内部标准和监督机制。律师需要接受关于AI工具局限性和风险的培训,学会在保持法律专业性的同时,负责任地使用这些技术。
最终,AI应该被视为法律研究的辅助工具,而非替代品。律师仍然有责任确保其提交给法庭的所有信息准确无误,无论这些信息是通过传统研究方法还是通过AI工具获得的。只有这样,才能维护司法系统的公正性和效率,同时充分发挥AI技术为法律行业带来的积极变革潜力。











