近日,AI律师美国怀俄明州地方法院法官凯利•兰金下令
,案例要求一律师事务所的造假律师解释为何在法庭文件中引用虚假案例,并说明为何不应受到制裁或纪律处分。司法这已是信任2023年以来第三起AI生成(捏造)法律文件引发争议的公开案件——司法系统的权威性正遭遇AI技术浪潮的冲击。 案件起源于2023年
,AI律师涉及沃尔玛和捷森电子自行车公司(Jetson Electronic Bikes)
。案例原告是造假一名女子、她的司法丈夫及四名未成年子女
,高防服务器他们指控捷森公司生产的信任一款悬浮滑板的锂离子电池发生故障并起火,导致他们的危机住宅被烧毁 ,多名家庭成员严重受伤。AI律师 在今年1月
,案例原告方律师向法院提交了一份“排除动议”,造假请求法院排除某些证据或论点。然而
,法官兰金发现 ,该文件引用的多个案例根本不存在 。“这些案例无法通过Westlaw的编号识别,法院也无法在怀俄明州地方法院的服务器租用电子档案系统中找到这些案例。”兰金在判决书中写道 ,并要求所有涉及的律师“详细解释该动议及虚假案例的生成方式”
,以及他们在起草或监督该动议时的具体角色。 四天后,涉事律师事务所作出回应 ,称
:“我们内部的人工智能平台在协助律师起草动议时‘幻觉’生成了这些案例 。”该律师事务所表示,此事件让他们深感尴尬,并已引发关于人工智能安全培训
、实施及未来使用的讨论和行动
。云计算“这件事对我们事务所及整个行业而言都是一个警示,提醒大家在迈入人工智能新时代时
,应更加谨慎
。” 近年来
,律师越来越多地使用AI工具进行法律研究和文件分析 。然而,AI在法律工作中的误用并非首次引发争议 。 2022年,一名男子起诉阿维安卡航空公司,称自己在一次航班上被金属餐车撞伤。其律师提交的法律文件引用了多个AI编造的源码下载案例。然而,在法庭质疑这些案例的真实性后,该律师不仅没有立即承认错误,反而试图狡辩
。最终,法院对其处以5000美元罚款。 2024年,特朗普前私人律师科恩在封口费案中,居然提交Google Bard生成的虚假判例,再次引发关注 。尽管法院最终未对涉事律师进行处罚 ,但这种法官口中“极度不专业”的行为
,免费模板导致了特朗普的辩护策略全面受挫。 “这不是技术故障
,而是职业伦理的溃堤。”纽约大学法律伦理教授Rebecca Roiphe向虎嗅指出,“当律师把事实核查权交给算法 ,等于放弃了法律人的核心职责。” 尽管事故频发 ,AI法律工具的市场仍在狂飙。全球法律科技融资额从2020年的香港云服务器12亿美元增至2023年的43亿美元,AI法律应用的支持者抛出了效率 、成本和技术进化论三大论点: 文档处理:HarveyAI可在12分钟内完成合同审查(人工需4小时); 案情预测
:Lex Machina通过分析历史判例
,给出胜诉率评估(准确度约78%)。 “AI幻觉是技术早期阶段的必然代价 。”法律科技公司ROSS Intelligence创始人Andrew Arruda辩称,“就像自动驾驶需要累积事故数据改进算法,法律AI也需要判例反馈迭代
。” 反对者则认为 ,目前人工智能技术在法律行业的应用仍在探索阶段,虽然其能够提高效率
,但若不加审查
,其“幻觉”生成的错误信息可能对律师及其客户造成严重后果。 “年轻律师正在丧失基础法律检索能力。”达维律师事务所合伙人Sarah Reynolds观察发现 ,“他们更擅长调试AI提示词
,却看不懂《联邦证据规则》的条文逻辑。”
AI幻觉制造虚假案例,危机律师事务所陷入尴尬
特朗普也是AI律师“幻觉”的受害者
AI在法律行业的未来 :机遇与风险并存