当前位置: 首页 - 智能 - GPT-4考90分全假30年律师用ChatGPT打官司6个虚假案例成笑柄综合国力展示物品新时代智慧

GPT-4考90分全假30年律师用ChatGPT打官司6个虚假案例成笑柄综合国力展示物品新时代智慧

2025-01-14 智能 0

编辑:桃子 拉燕

【新智元导读】ChatGPT又有什么错呢?美国律师向法院提交的文件中,竟引用了6个根本不存在的案例,反倒惹祸上身被制裁。

ChatGPT,真的不可信!

在美国近来的一起诉讼案件中,一位律师帮原告打官司,引用了ChatGPT捏造的6个不存在的案例。

法官当庭指出,律师的辩护状是一个彻头彻尾的谎言,简直离了大谱。

还有人戏称,要怪就怪你的prompt不行。

当他询问ChatGPT这些案件的来源时,ChatGPT先是为之前的表述不清道歉,但还是坚称这些案件都是真实的,可以在Westlaw和LexisNexis上找到。

而对方律师也同样坚持,来自Levidow Oberman律师事务所的原告律师是多么荒唐可笑,由此才引发了法庭对这个细节的重视。

在其中一个案例中,有个叫Varghese的人起诉中国南方航空有限公司。然而这件事压根不存在。

ChatGPT好像引用了另一个案件——Zicherman起诉大韩航空有限公司。而ChatGPT把日期、案件细节什么的都搞错了。

Schwartz此时才悔恨地表示,他没有意识到ChatGPT可能提供假案件,现在他非常后悔用生成式AI来进行法律研究。

法官表示,这种情况前所未见,并将于6月8日举行听证会,讨论可能的制裁措施。

网友称,更准确来说,GPT-4应该只有63分或者68分。

聊天机器人胡说八道

归根结底,是因为它固有的「幻觉」问题导致这种状况发生。简单来说,就是张口胡说八道本性所致。

即使马斯克想拯救这个致命的问题,也推出了名为TruthGPT的人工智能平台。不过,不管是哪种类型的人工智能解决幻觉很难搞定。

最近,有一位名叫John Schulman的人,在一次演讲中讨论了幻觉产生原因以及解决方案。他提到两种主要类型:

1 模式完成行为,即语言模型无法表达自己的不确定性或质疑提示中的前提,以及继续之前犯错误的情况

2 模型猜测错误

语言模型代表一种知识图谱,将训练数据中的事实存储在网络中,而微调可以理解为学习一个函数,可以操作并输出token预测,比如包含「星球大战是什么片?」和答案「科幻」的微调数据集。

Zero提出了一项建设性的建议:如果需要举事例,每次使用之后都附上来源链接。这也是确保信息准确性的重要一步。Tricorn认为,这位原告律师应该自己负责,因为他误用了系统,而不是让系统承担责任。他应该把事例作为输入,然后让系统填充缺失部分以构建论证链条。此外,还有观点认为使用人工智能工具要慎重,以免未来出现类似事件造成更大的损害。这就是活灵活现证明的一个生动场景。对于这种情况,你怎么看?

标签: 做全屋智能化要多少费用ai软件教程基础入门小区智能化系统有哪些全屋智能体验店人工智能男友聊天app