2025-01-07 智能 0
人工智能的进化,会在未来取代人吗?
近日,国外一家统计网站Tooltester(工具测评者)发布了针对ChatGPT使用情况的最新调查报告。该调查分两次进行,首次测评于2023年2月下旬开展,面向1920名ChatGPT的美国使用者,罗列了75段分别由真人写作、机器写作,以及机器写作结合真人编辑的内容,以问卷形式请受试者识别。在GPT-4推出后,补充征集了1394人进行二轮调查。结果表明,由于聊天机器人的迭代速度超出了普通大众的预估,大多数使用者对机器写作内容的复杂程度了解有限,因此难以区分哪些网络内容是由真人编写。
在内容识别方面,这项任务更像是一个谜题,它挑战着人们对信息来源的判断力和直觉反应。当调查揭示超过53.1%的人无法准确从文本中挑出机器写作段落时,我们不禁思考:这个数字是否意味着我们正在逐渐失去辨认虚拟与现实之间界限的一种能力?尤其是在GPT-4发布之后,这一比例甚至升至63.5%,进一步证明了这一点。
即便是那些熟悉AI技术的大众,他们也仅能够正确判断48%的情况。这让我们意识到,即使是那些最接近科技前沿的人,也难免被这新兴技术所迷惑。年龄也是一个重要因素,一群18到24岁之间年轻人的参与率显示,他们中有59.8%的人无法正确地区分人类创意与AI生成内容。这或许反映出他们在社交媒体上习惯性的接受并分享各种信息,从而影响了他们对于源自何处以及可信度的问题认识。
然而,在所有年龄段中,最能够正确识别这些高科技产物的是65岁以上老年人口,他们中的52%能精准地区分出哪些文字来自于真正的心智活动,而非计算机程序。而且令人好奇的是,有关健康和旅行的话题似乎特别容易误导人们,让他们相信这些AI生成文章更加亲切自然,就像是真实生活中的小贴士一样。
但另一方面,对于涉及技术类话题则显得相对简单,不少受访者的50.6%能很快发现哪些“技巧贴”其实是由AI制造出来。但女性用户表现比男性略优越一些,她们中的52.4%比男性49.9%更擅长辨认这种类型的事实暗示着一种潜在趋势:随着时间流逝,我们可能会看到更多基于数据驱动的情感交流方式出现,并且它们将如何融入我们的日常生活仍然是个未知之谜。
此外,该调研还询问了一系列关于公众态度和信任问题。大约80%以上的人表示支持制定相关规范来监管这个迅速增长的人工智能领域,同时71.3%的人认为,如果没有明确标记,那么商家或出版社发布AI生成内容会严重损害品牌形象。这提出了一个紧迫的问题:我们是否应该要求提供方清楚指明内容产生者的身份,以维护消费者的权益?
自OpenAI宣布推出的ChatGPT以来,一场关于人类与机械合作边界讨论就此展开。而现在,这个事件再次强调了一件让许多人感到不安的事情——即便目前已经存在可以理解语境、学习语言、完成邮件撰写等功能的小型聊天助手,它们依旧引起广泛争议;更不用说如今已经发布的更先进版本,如GPT-4带来的巨大变化所带来的影响深远无穷。总之,无疑,现在我们的社会正经历一次极其关键的地缘变革,其核心之一就是我们如何有效地区分人类创造力与计算机算法产生的情报。