2025-01-14 智能 0
编辑:桃子 拉燕
【新智元导读】ChatGPT又有什么错呢?美国律师向法院提交的文件中,竟引用了6个根本不存在的案例,反倒惹祸上身被制裁。
ChatGPT,真的不可信!
在美国近来的一起诉讼案件中,一位律师帮原告打官司,引用了ChatGPT捏造的6个不存在的案例。
法官当庭指出,律师的辩护状是一个彻头彻尾的谎言,简直离了大谱。
还有人戏称,要怪就怪你的prompt不行。
当他询问ChatGPT这些案件的来源时,ChatGPT先是为之前的表述不清道歉,但还是坚称这些案件都是真实的,可以在Westlaw和LexisNexis上找到。
而对方律师也同样坚持,来自Levidow Oberman律师事务所的原告律师是多么荒唐可笑,由此才引发了法庭对这个细节的重视。
在其中一个案例中,有个叫Varghese的人起诉中国南方航空有限公司。然而这件事压根不存在。
ChatGPT好像引用了另一个案件——Zicherman起诉大韩航空有限公司。而ChatGPT把日期、案件细节什么的都搞错了。
Schwartz此时才悔恨地表示,他没有意识到ChatGPT可能提供假案件,现在他非常后悔用生成式AI来进行法律研究。
法官表示,这种情况前所未见,并将于6月8日举行听证会,讨论可能的制裁措施。
网友称,更准确来说,GPT-4应该只有63分或者68分。
聊天机器人胡说八道
归根结底,是因为它固有的「幻觉」问题导致这种错误发生。简单来说,就是张口胡说八道本性所致。
即使马斯克想拯救这个致命的问题,也推出了名为TruthGPT的人工智能平台。不过,不管是哪种类型的人工智能解决幻觉很难搞定。
最近,有人提出了一个建议,那就是:以后使用任何AI工具,如我(Zero)提出的那样,将每次提供的事实或数据附加上来源链接,以确保信息准确性和可追溯性。这可以帮助我们更好地利用这些工具,同时减少错误发生的情况。
另外,还有人认为,如果你决定使用这样的AI系统,你必须更加谨慎,因为它们并不是万能之物,而是一种辅助工具。在使用它们时要有足够的心理准备,以免像这位原告一样陷入困境。此外,我们还应该意识到,无论技术如何发展,它们都无法完全取代人类判断力和批判性的思维能力。因此,在重要决策过程中最好不要过度依赖这些工具,而应结合自己的判断和经验来做出决策。