2025-01-07 智能 0
人工智能的进化,会在未来取代人吗?
近日,国外一家统计网站Tooltester(工具测评者)发布了针对ChatGPT使用情况的最新调查报告。该调查分两次进行,首次测评于2023年2月下旬开展,面向1920名ChatGPT的美国使用者,罗列了75段分别由真人写作、机器写作,以及机器写作结合真人编辑的内容,以问卷形式请受试者识别。在GPT-4推出后,补充征集了1394人进行二轮调查。结果表明,由于聊天机器人的迭代速度超出了普通大众的预估,大多数使用者对于机器写作内容的复杂程度了解有限,因此难以区分哪些网络内容是由真人编写。
在内容识别方面,这超过53.1%的人无法准确从文本中挑出机器写作段落。而当GPT-4发布后,这一比例甚至升至63.5%。即便是对AI类工具更熟悉的人,也只能正确判断48%的情况。这意味着,即使是那些经常接触到AI生成内容的人也难以区分人类和AI创造的文字。
有趣的是,在所有年龄段中,对AI生成文本最不敏感的是65岁以上老年人,他们能够正确识别50.6%的情况。
图源:Tooltester官网。
此外,该调查还揭示了一点有趣的事实,那就是尽管人们越来越多地被告知要警惕信息来源,但他们仍然容易误认为健康、旅行等主题上的AI生成文章为人类撰述。此外,不同领域内的情报收集能力也有所不同,比如技术类文章则相对容易辨认,有51%的人能将其与其他类型区分开来。
值得注意的是,对于这些数据,一些分析师提醒,我们正步入一个更加依赖科技和自动化生产生活方式的地球,其中包括医疗保健行业,这可能是一个潜在的问题,因为它涉及到患者安全和治疗效果等核心问题。
此外,当询问关于信任度时,大约80%以上的人表示支持制定相关规范,而71.3%的人表示,如果没有标明是否为AI创造的话,则会影响他们对品牌或出版社信任度。这表明,无论何种形式,只要提供方不能透露信息来源,其商业声誉都可能受到损害。
自OpenAI发布ChatGPT以来,这项技术引发了广泛讨论,并迅速吸引上百万用户注册。随着时间推移,它变得越来越难以区分人类与机器之间产生的一般性语言交流和专业性的输出。此报告再次证实,我们现在就已经无法做出这种区分,使我们不得不重新审视现有的信息传播模式,并考虑如何适应这一不断变化的地球环境。