Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了306,425,450字

该文章投稿至Nemo社区   资讯  板块 复制链接


律师用 ChatGPT 打官司,结果被骗引用不存在的案例

发布于 2023/05/28 13:02 139浏览 0回复 758

IT之家 5 月 28 日消息,据纽约时报报道,近日,一名律师在一起法庭案件中,依赖聊天机器人 ChatGPT 进行法律文献检索(legal research),导致提交了错误的信息。这一事件揭示了人工智能在法律领域的潜在风险,包括误传错误信息。

该案件涉及一名男子因个人受伤而起诉一家航空公司,原告的法律团队提交了一份简短的诉讼文件,引用了几个先前的法院案例来支持他们的论点,试图为他们的诉求建立一个法律先例。然而,航空公司的律师发现,其中一些引用的案例并不存在,并立即通知了主审法官。

凯文・卡斯特尔法官对这种情况表示惊讶,称其为“前所未有”,并下令要求原告的法律团队作出解释。

原告律师之一史蒂文・施瓦茨承认自己使用了 ChatGPT 来搜索类似的法律先例,在一份书面声明中,施瓦茨深表遗憾,他说:“我以前从未使用过人工智能进行法律文献检索,也不知道它的内容可能是虚假的。”

提交给法院的文件附有施瓦茨和 ChatGPT 之间的对话截图,在对话中施瓦茨询问了一个特定的案例:Varghese v. China Southern Airlines Co Ltd 是否真实。ChatGPT 回答说是真实的,并表示该案例可以在法律参考数据库如 LexisNexis 和 Westlaw 中找到。然而,后续的调查显示,该案例并不存在,进一步调查显示,ChatGPT 捏造了 6 个不存在的案例。

鉴于这一事件,涉案的两名律师,来自 Levidow, Levidow & Oberman 律师事务所的彼得・洛杜卡和史蒂文・施瓦茨将于 6 月 8 日出席一个纪律听证会,解释他们的行为。IT之家注意到,这一事件引发了法律界对于人工智能工具在法律研究中适当使用的讨论,以及制定全面指导方针以防止类似情况发生的需求。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/695/756.htm]

点赞(0)
点了个评