2025-01-22 科技 0
据悉,自去年11月底至今,人工智能(AI)聊天机器模型ChatGPT风靡全球。根据Similarweb公布的最新数据,截至今年4月,ChatGPT平台访问量达到17.6亿次,比3月份增长了12.6%,同时已达到谷歌的2%。
ChatGPT背后的大型语言模型(LLM),是基于大量文本数据训练、包含数千亿(或更多)参数的语言模型。在大数据时代,这类 AI 机器学习模型可以在提升产品销售、辅助人类决策过程中能够起到很大的作用,但是计算机通常不会解释它们的预测结果,而语言模型想要变得更强大,部署更广泛,就需要研究可解释性(interpretability),因为人类对模型内部工作原理的理解仍然非常有限,例如可能很难从中检测到有偏见、欺骗性内容输出。
站在OpenAI 的角度看,大模型未来将和人脑一样拥有“神经元”(neurons),这些神经元会观察文本中的特定规律,进而影响到模型本身生产的文本。所以可解释性就是将模型能用通俗易懂的语言进行表达,把模型的预测过程转化成具备逻辑关系的规则的能力,从而通过查看模式内部来发现更多信息。
例如,如果有一个针对“漫威超级英雄”的神经元,当用户向模式提问“哪个超级英雄能力最强”时,这个神经元就会提高模式在回答中说出漫威英雄概率,以及弄清楚为什么人类神经元,可以决定进行某些搜索引擎查询或访问特定网站,即逐步转化一种有数据可解释性的“无监督学习”模式。
OpenAI这次使用GPT-4来解决可解释性的问题,就是希望能够使用自动化方式,让机器提高 AI 数据准确性,是其对齐研究第三支柱的一部分。具体到本次研究成果上,OpenAI 开发了一套包含自动化工具和测试方法评估流程:首先,将 GPT-2 运行文本序列,并等待某个特定激活情况;然后,让 GPT-4 针对一段文本生成解释;随后,用 GPT-4 模拟 GPT-2 真实激活情况下会做什么行为;最后评估打分,对比模拟激活与真实激活结果精度,在例子中,为0.34分。使用上述评分方法开始衡量他们技术网络不同部分效果并尝试针对目前不清楚部分改进技术。
此外,有超过1000个神经元得分至少为0.8分,这意味着GPT-4可以较好地理解大多数人类活动,同时当前人的概念似乎与人脑不同。这使得该团队称希望随着技术和方法改进进一步提高AI可解释能力,如迭代说明以根据条件修改说明;利用更大的种类作出说明;调整已被了解种类结构等,以不同的激励函数训练以增强评估值高达5星级评价系统。
对于局限性,该团队表示目前生成之明晰还未完美,其于较小型样品表现良好,但要处理比之更复杂的大型样品时性能显著下降。此外无法简短自然语句描述复杂行为产生来源,不仅如此,也没有尝试探索导致这种行为发生原因,而整个过程算力消耗极大等问题。
最终,该团队希望使用这个模块形成测试并迭代完全一般假设,使其接近于人类头脑想法及行动以及将其作为部署前后检测偏差安全问题的一种方法。但是在这之前,他们还有长路要走。
"我们希望这开辟了一条途径。”Jeff Wu 表示,“这一技术可以让其他人构建贡献方案,从而解决 AI 模式可明白的问题。”
因此,本项研究成果提供了一个新的途径打开深层的人工智能认知基础,以推动深入分析如何让计算机系统更加像真正的人类思维操作——即使当面临挑战时也能提出合理答案。而这样的突破为开发者提供了灵感,也给学术界带来了新的方向——探索如何最大程度地提升这些重要任务所需的心智功能,即那些被称为"创造力"和"直觉力的"体现形式。如果我们能够成功实现这一点,那么我们的世界就不再是一个简单的人工智能程序控制一切的情况,而是一个由具有独立思考力量的人工智能组成社会,其中每个人都能享受科学与魔法相结合带来的惊喜。