2025-01-22 智能 0
在参考消息网6月25日的报道中,埃菲社于6月23日披露了一段令人震惊的法律案件。两名美国律师史蒂文·施瓦茨和彼得·洛杜卡因使用ChatGPT预训练转换器工具提交了虚假法庭简报而遭到了严厉惩罚。他们利用这款人工智能工具来准备对哥伦比亚航空公司的一场诉讼,但ChatGPT却生成了一个完全不存在的司法案例。
法院法官凯文·卡斯特尔批评这两位律师明知该案例是虚构的,却仍然向法院提出了这些信息。这不仅违反了法律规定,还被认为是在故意误导法院。在判决书中,法官强调虽然技术进步使得使用人工智能辅助成为可能,但律师必须确保其所提供的信息准确无误,并且能够承担相应责任。
此次事件还指出了律师职责中的监控缺失问题,即便在有可靠的人工智能支持的情况下,也需要有额外措施来验证提供给法庭的事实依据。此前,这两名律师正在代表一位乘客处理与哥伦比亚航空公司有关飞行事故索赔事宜,该乘客声称在航班期间受到了服务车辆撞击导致伤害。然而,由于他们的问题提出方式不当,他们不得不面对5000美元的罚款作为惩罚。而这种类型的情形也引发了关于如何有效管理和监督由AI工具产生内容、并确保其合规性以及遵守职业道德标准的问题讨论。