当前位置: 首页 - 智能 - GPT-4考90分全假30年律师用ChatGPT打官司6个虚假案例成笑柄科技手抄报展现未来教育新风尚

GPT-4考90分全假30年律师用ChatGPT打官司6个虚假案例成笑柄科技手抄报展现未来教育新风尚

2025-01-14 智能 0

编辑:桃子 拉燕

【新智元导读】ChatGPT又有什么错呢?美国律师向法院提交的文件中,竟引用了6个根本不存在的案例,反倒惹祸上身被制裁。

ChatGPT,真的不可信!

在美国近来的一起诉讼案件中,一位律师帮原告打官司,引用了ChatGPT捏造的6个不存在的案例。

法官当庭指出,律师的辩护状是一个彻头彻尾的谎言,简直离了大谱。

还有人戏称,要怪就怪你的prompt不行。

当他询问ChatGPT这些案件的来源时,ChatGPT先是为之前的表述不清道歉,但还是坚称这些案件都是真实的,可以在Westlaw和LexisNexis上找到。

而对方律师也同样坚持,来自Levidow Oberman律师事务所的原告律师是多么荒唐可笑,由此才引发了法庭对这个细节的重视。

在其中一个案例中,有个叫Varghese的人起诉中国南方航空有限公司。然而这件事压根不存在。

ChatGPT好像引用了另一个案件——Zicherman起诉大韩航空有限公司。而ChatGPT把日期、案件细节什么的都搞错了。

Schwartz此时才悔恨地表示,他没有意识到ChatGPT可能提供假案件,现在他非常后悔用生成式AI来进行法律研究。

法官表示,这种情况前所未见,并将于6月8日举行听证会,讨论可能的制裁措施。

网友称,更准确来说,GPT-4应该只有63分,或是在68分之间。

归根结底,这一切都源自于聊天机器人的「幻觉」问题。简单来说,就是它喜欢说些无稽之谈。即便马斯克想拯救这一致命错误,他推出了名为TruthGPT的人工智能平台。不过,无论何种形式,它们难以摆脱幻觉的问题。

就在不久前,一位名叫John Schulman的大人物在一次演讲中探讨过幻觉产生及解决方案。他认为幻觉可以分为两类:

1 模式完成行为,即语言模型无法表达自己的不确定性,也无法质疑提示中的前提或继续之前犯下的错误;

2 模型猜测错误。

学者们提出微调作为一种操作方式,让语言模型学习如何从知识图谱中提取信息并输出预测结果。但也有观点认为,我们应该要求这样的工具提供明确的事实来源,以保证其准确性。此外,还有人提出,将事实作为输入给AI处理,然后让它补全逻辑部分。

最后,有人评论说,用AI要小心,要不然下一个超级碗就是你自己上了。这显示出使用人工智能工具代替人类工作可能带来的风险与挑战。你怎么看待这种情况?

标签: 智能监控app下载中国智能制造50强智能产品大全室内装修全智能化何为智能