2025-01-07 智能 0
人工智能的进化,会在未来取代人吗?
近日,国外一家统计网站Tooltester(工具测评者)发布了针对ChatGPT使用情况的最新调查报告。该调查分两次进行,首次测评于2023年2月下旬开展,面向1920名ChatGPT的美国使用者,罗列了75段分别由真人写作、机器写作,以及机器写作结合真人编辑的内容,以问卷形式请受试者识别。在GPT-4推出后,补充征集了1394人进行二轮调查。结果表明,由于聊天机器人的迭代速度超出了普通大众的预估,大多数使用者对机器写作内容的复杂程度了解有限,因此难以区分哪些网络内容是由真人编写。
在内容识别方面,这项任务更像是一个谜题,它挑战着人们对信息来源的判断力和洞察力。当你阅读这些看似平凡,但实际上可能是由AI创造出来的话语时,你能否准确地从文本中辨认出它们?调查显示,在这场游戏中,大部分玩家都无法获得高分。超过53.1%的人无法准确从文本中挑出那些被精心设计为让人类难以区分的人工智能生成文本。而当我们迎来了GPT-4这个新的技术革命,那么这一比例甚至达到了63.5%。即便对于那些熟悉AI类工具的人来说,只有48%能够正确地区分人类与AI创作之间微妙差异。而且,不同年龄层面的用户表现也存在差异,其中介于18到24岁之间的小青年们更容易被这些“伪装成”的AI文章所欺骗,他们中的59.8%无法做到正确判断。
尽管如此,有趣的是,在所有年龄段中,最擅长区分真正人类创意与AI产品的是65岁以上老年人口,他们之中的52%能够正确识别。但这并不意味着他们就不需要警惕,因为随着科技不断发展,我们必须保持警觉,并不断学习如何在信息爆炸时代里辨别真假。
此外,该研究还探讨了是否存在某些主题领域,更适合或更易受到误导。在健康和旅行方面,由AI撰写的小贴士似乎比任何其他类型都更加具有吸引力,而人们倾向于认为它们是由真正的人类所撰寫。这反映了一种潜在危险,即我们的生活越来越依赖自动化,而我们却越来越失去判断能力。
虽然技术类文章相对容易识别,但女性受试者的表现略好于男性,而且这种趋势似乎揭示了一种深刻而又令人不安的事实:我们正步入一个深度融合自然语言处理技术和现实世界生活模式的大门,这包括医疗保健等敏感领域。
此外,还有关于公众态度的问题:80%以上的人支持制定相关规范条例,以确保透明性;71.3%的人表示,如果没有明确说明,就不能接受商业企业发布未经手动编辑过的自动生成内容。这表明,我们希望看到提供信息的一方主动告知其来源,同时展现一种信任问题——如果没有这样的标记,我们可能会怀疑品牌信誉。如果这样的事情成为常态,那么互联网环境将如何变化?
自2022年11月30日OpenAI发布ChatGPT以来,这个话题已经引发了广泛讨论。此前几天内就吸引了上百万用户注册,这项可以理解上下文语境、学习人类语言并完成邮件撰写、主题创作等任务的聊天机器人的强大功能给予公众惊叹。而今年3月份GPT-4再次颠覆了人们的心智。这份最新报告再一次证实:目前我们的确很难区分人类书籍与机械笔触产生的情景。