2025-01-28 手机 0
北京日报客户端记者李明
6月10日,2023年在京举办的智源大会上,张宏江院士与OpenAI首席执行官山姆·阿尔特曼进行了深入对话。张宏江提出了一个问题:随着通用人工智能(AGI)的迅速发展,各国正在努力寻求共识,并构建全球合作机制。面对这一趋势,我们应该如何确保人工智能的安全?尤其是,在我们追求技术创新和效率提升的同时,又能有效地防范潜在风险?
山姆·阿尔特曼强调,对于这些挑战,我们需要采取多层次的措施。他指出:“首先,我们必须加强人工智能模型本身的安全性研究,不仅要考虑模型安全,还要关注整个系统的完整性。”他还提到了利用AI模型来开发安全分类器和检测器,这些工具可以实时监控AI行为是否符合预设策略,并不断进行迭代更新。
然而,阿尔特曼也认识到,这种技术性的解决方案不足以应对所有的问题。他认为,“人工智能不仅仅是一个技术问题,它还涉及到跨文化理解和不同国家用户偏好的复杂性。” 在这方面,他高度评价中国的人才资源:“中国拥有世界上最优秀的人工智能人才。我相信,只有来自世界各地顶尖学者的共同努力才能真正解决我们面临的人工智能系统‘对齐’问题。”
“对齐”问题是目前人工整合领域中的一大难题。当一个强大的AGI系统无法按照人类意愿行动,或其目标与人类价值观相冲突时,就会出现严重后果。在设计这些系统时,关键在于通过人类指导、训练甚至输出,使得模型能够不断解锁新能力,同时规避误用或故意操作。
为了促进国际合作并推动更为安全可靠的人工智能发展,阿尔特曼透露,他们正在致力于建立一套国际标准,以规范安全开发AI系统。此外,他们还计划创建反映全球价值观和偏好的数据库,以便人们可以根据这些数据库调整AI行为,同时分享关于AI安全研究成果。这将是一场全新的尝试,也许能带来前所未有的结果。
上一篇:宠樱我和我的小可爱们的春日趣事