2025-01-14 智能 0
编辑:桃子 拉燕
【新智元导读】ChatGPT又有什么错呢?美国律师向法院提交的文件中,竟引用了6个根本不存在的案例,反倒惹祸上身被制裁。
ChatGPT,真的不可信!
在美国近来的一起诉讼案件中,一位律师帮原告打官司,引用了ChatGPT捏造的6个不存在的案例。
法官当庭指出,律师的辩护状是一个彻头彻尾的谎言,简直离了大谱。
还有人戏称,要怪就怪你的prompt不行。
当他询问ChatGPT这些案件的来源时,ChatGPT先是为之前的表述不清道歉,但还是坚称这些案件都是真实的,可以在Westlaw和LexisNexis上找到。
而对方律师也同样坚持,来自Levidow Oberman律师事务所的原告律师是多么荒唐可笑,由此才引发了法庭对这个细节的重视。
在其中一个案例中,有个叫Varghese的人起诉中国南方航空有限公司。然而这件事压根不存在。
ChatGPT好像引用了另一个案件——Zicherman起诉大韩航空有限公司。而ChatGPT把日期、案件细节什么的都搞错了。
Schwartz此时才悔恨地表示,他没有意识到ChatGPT可能提供假案件,现在他非常后悔用生成式AI来进行法律研究。
法官表示,这种情况前所未见,并将于6月8日举行听证会,讨论可能的制裁措施。
网友称,更准确来说,GPT-4应该只有63分或者68分。
聊天机器人胡说八道
归根结底,是因为它固有的「幻觉」问题,即张口胡说八道的问题所致。
马斯克尝试解决这个问题并推出了名为TruthGPT的人工智能平台。马斯克曾表示,这将是一个「最大的求真人工智能」,它将试图理解宇宙本质。
然而,无论是什么样的AI,都很难完全摆脱幻觉的问题。前段时间,在演讲「RL and Truthfulness – Towards TruthGPT」中,该公司联合创始人兼研究员John Schulman探讨了一些幻觉产生原因以及解决方案。他提到了两种主要类型:
1 模式完成行为,即语言模型无法表达自己的不确定性,不能质疑提示中的前提或继续之前犯错误;
2 模型猜测错误。
语言模型代表一种知识图谱,将训练数据中的事实存储在其网络中,而微调可以理解为学习如何操作该图谱并输出token预测,比如处理包含“星球大战是什么片?”这样的问题及答案“科幻”。
Zero提出一个建设性的想法:未来,每次使用时需附上来源链接,以增加透明度和可信度。Tricorn认为,如果原告律师正确使用工具,它应该作为输入的一个部分,然后让AI填充缺失信息。这也是为什么人们认为需要小心使用这种技术,因为它们有潜力导致灾难性的错误。如果你觉得这样看待的话,你怎么看待这整个事件?
参考资料:
https://www.theverge.com/2023/5/27/23739913/chatgpt-ai-lawsuit-avianca-airlines-chatbot-research
https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.htm
上一篇:水仙花的花语寓意纯洁优雅与独特
下一篇:一夜之间变身摄影师用手机拍满天星