当前位置: 首页 - 智能 - GPT-4虚假成绩骗局曝光30年律师利用ChatGPT打造6个科技奇迹案例成笑话

GPT-4虚假成绩骗局曝光30年律师利用ChatGPT打造6个科技奇迹案例成笑话

2025-01-14 智能 0

编辑:桃子 拉燕

【新智元导读】ChatGPT又有什么错呢?美国律师向法院提交的文件中,竟引用了6个根本不存在的案例,反倒惹祸上身被制裁。

ChatGPT,真的不可信!

在美国近来的一起诉讼案件中,一位律师帮原告打官司,引用了ChatGPT捏造的6个不存在的案例。

法官当庭指出,律师的辩护状是一个彻头彻尾的谎言,简直离了大谱。

还有人戏称,要怪就怪你的prompt不行。

当他询问ChatGPT这些案件的来源时,ChatGPT先是为之前的表述不清道歉,但还是坚称这些案件都是真实的,可以在Westlaw和LexisNexis上找到。

而对方律师也同样坚持,来自Levidow Oberman律师事务所的原告律师是多么荒唐可笑,由此才引发了法庭对这个细节的重视。

在其中一个案例中,有个叫Varghese的人起诉中国南方航空有限公司。然而这件事压根不存在。

ChatGPT好像引用了另一个案件——Zicherman起诉大韩航空有限公司。而ChatGPT把日期、案件细节什么都搞错了。

Schwartz此时才悔恨地表示,他没有意识到ChatGPT可能提供假案件,现在他非常后悔用生成式AI来进行法律研究。

法官表示,这种情况前所未见,并将于6月8日举行听证会,讨论可能的制裁措施。

网友称,更准确来说,GPT-4应该只有63分,或许68分。

聊天机器人胡说八道

归根结底,这一切还得从它固有的「幻觉」问题说起。那就是张口胡说八道、无所不知,却不知道自己不知道的事物。

马斯克曾想拯救这一致命的问题,因此推出了名为TruthGPT的人工智能平台。他声称,它将成为“最大的求真人工智能”,试图理解宇宙本质。不过,无论如何,“幻觉”很难解决。

就在不久前,一位OpenAI联合创始人兼研究员John Schulman,在一次演讲“RL and Truthfulness – Towards TruthGPT”中探讨了幻觉产生原因及解决方案。根据他的观点,可分为两类:

模式完成行为,即语言模型无法表达自己的不确定性,不能质疑提示中的前提或继续犯错误;

模型猜测错误。

语言模型代表知识图谱,将训练数据中的事实存储于网络内。微调则可以理解为学习操作知识图谱以输出token预测。在微调过程中,如果包含“星球大战是什么片?”与答案“科幻”,Zero提议今后必须附上来源链接,以防止再次发生类似事件。Tricorn认为,该原告律师过度依赖chatgpt,而不是直接使用其作为辅助工具输入prompt并补充缺失部分。此外,有网友警示,用chatgpt需谨慎,以免未来出现类似超级碗上的状况。这场闹剧证明,当人类依赖AI执行复杂任务时,大灾难便随之而至。你对此有何看法?

参考资料:

https://www.theverge.com/2023/5/27/23739913/chatgpt-ai-lawsuit-avianca-airlines-chatbot-research

https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.htm

标签: 智能家居产品种类万能遥控器电视智能语音软件下载人工智能值得学吗智能电销机器人