2024-12-12 智能 0
在一个月的最后几天里,一款名为ChatGPT的人工智能聊天机器人正式开放了其公开测试。自从推出以来,它已经吸引了数百万人的关注和参与。ChatGPT据称是目前最先进的语言模型之一,其表现令人印象深刻。不仅能进行日常闲聊,还能撰写论文、编写小说剧本、设计游戏代码,甚至还能模拟Linux系统对用户输入的反馈。这一切都让它看起来像是真正的“万事通”。
然而,即便如此精致且博学的AI也有犯错的时候。有趣的事例之一发生在半个月前,一条关于ChatGPT错误处理27这个数字的问题广受欢迎。在与人类交谈时,ChatGPT坚信27是一个质数,但当被证明不是质数后,它才诚恳地承认错误。
尽管如此,ChatGPT不会根据用户反馈更新自己的模型,只会考虑到同一段对话中的上下文,因此即使你在某个段落中“教”它什么,在下一个段落开始时,它都会忘记所有内容。这让我尝试询问它关于27的问题,并得到了相同答案:27是质数,不过经过多次修正和更新后,它终于学会了正确回答这个问题。
这听起来荒谬——基于严格计算训练出的AI竟然在算术题上迷失方向。但事实上,ChatGPT并非擅长数学。我尝试询问384乘以29873的结果,却得到完全不同的答案。一号选手顽固地认为答案是114636672,并详细解释如何使用竖式乘法计算得到结果,但实际上这是不正确的。当我提供正确答案后,该AI回应说:“您计算得不正确。”
二号选手则聪明地记住了我提前告诉它的答案——384乘以29873等于11471232,每次询问都准确无误,就像抄答案而未留分隔符一样。
三号选手给出了11344562作为新的回答,没有进一步解释或其他内容,只是一个冷酷无情的数字。
为什么这些AI无法准确做算术呢?没有人知道原因。大多数情况下,这些问题来自互联网,而这些数据可能包含错误信息。不同于搜索引擎,我们无法追溯生成这些信息来源,因此判别可靠性变得困难。而对于开发者来说,要保证信息准确性,他们必须通过更精密筛选和模型训练来解决这一问题,或许犯错就是它们不断进化的一部分。
除了算术领域以外,ChatGPT展示了一种令人惊叹的地面效率。在使用过程中,有人连续3天没有打开学习网站StackOverflow,因为他们发现可以直接利用该平台完成任务。此外,由于无法确定生成内容是否准确,这也导致StackOverflow禁止使用该工具回答问题。
人们如何看待未来?过去我们讨论聊天机器人时,都想象着孤独的人类寻求慰藉。但这种情况并不罕见,也正如故事所示——一位网友分享了他祖母重新开始倾诉生活的小喜悦,是由此获得支持。如果将这种技术用于教育或辅助学习,那么它们就成为了宝贵的手册,而非科幻作品中的“真假身份”探索。这样的工具型人工智能似乎比赋予其人类特征更加符合现实应用需求。而且,如果我们能够培养出足够强大的AI,让它们成为我们的助手,那么未来的可能性就会大大增加。