2025-01-28 智能 0
2023年6月10日,OpenAI创始人Sam Altman以视频连线的方式现身于中国北京举办的2023智源人工智能大会,这是Altman首次对中国观众发表演讲。Altman在演讲中引用了《道德经》,谈及大国合作,表示AI安全始于足下,各国间必须进行合作和协调。
随后Altman接受了智源研究院理事长张宏江的一对一问答。张宏江博士目前任北京智源人工智能研究院理事长,同时担任多家公司的独立董事和顾问。曾任金山集团执行董事及首席执行官兼金山云的首席执行官,是微软亚洲研究院创始人之一,曾担任副院长、微软亚太研发集团(ARD)首席技术官及微软亚洲工程院(ATC)院长以及微软“杰出科学家”。
Altman演讲核心内容:
当下人工智能影响如此之大的原因,不仅在于其影响的规模,也是其进展的速度。这同时带来红利和风险。
随着日益强大的 AI 系统的出现,全球合作的大门从未如此之大。在一些重要的大事上,每个国家都必须进行合作与协调。推进 AGI 安全是我们需要找到共同利益点、共商未来命运最重要的一个领域。
对齐仍然是一个未解决的问题。GPT-4 花了八个月时间完成对齐方面工作。但相关研究还在升级,其主要分为扩展性和可解释性的两方面。
问答环节核心内容:
十年内人类将拥有强大的的人工智能系统(AI System)。
OpenAI没有有关开源模型新时间表,但开源模型具有优势,而不是一切可能并不是促进 AI 发展的一条最佳路线。
看明白神经网络比看明白人类脑子容易多了。
某天会尝试做 GPT-5 模型,但不会很快知道具体何时。
要想让通用人工智能更安全,我们需要非常不同的架构,使得 AGI 更加安全且易于检查。
AGI 的下一步方向?会很快看到 GPT-5 吗?
作为一个研究人员,我也好奇下一步 AGI 研究方向是什么?在大模型、大语言模型方面,我们会不会很快看到 GPT-5?下一个前沿是在具身模型上?自主机器人的话,是不是 OpenAI 正正在或准备探索这个领域?
我也好奇下一步会发生什么,我最喜欢做这项工作的一部分原因就是站在科研前沿,有很多令人兴奋的事情。我们还没有答案,所以我们正在探索很多新的可能范式。不久之后,我们会尝试做一个 GPT-5 模型,但不会是很快。我不知道具体什么时候。我希望有一天我们能够回到这个领域。
这种方法对于艺术ificial neural networks 是有效滴,在artificial neural networks 上观察发生的事情比在生物神经元上容易得多。在artificial neural networks 上使用更强大的模型帮助我们理解其他model 的方法是可行滴。但我不确定你怎么把这个方法应用到人类大脑上。
控制model 数量是否可行?
好的,那谢谢你。你既然提到了 AI 安全与AGI 控制,那么一直讨论的一个问题就是,如果世界只有三个models 会不会更安全,就像核武器一样,不想让它扩散。而我们的国际条约正试图控制能获得这一技术国家数量那么控制model 数量是否是一个可行路径?
我认为对于世界上的少数还是多数models 更安全有不同的观点。我认为更重要的是,我们是否有一个系统,让任何一个强大的 model 都经过充分测试? 我们是否有框架,让任何一个人创造出足够强力的 model 人,都有资源也有责任来确保他们创造出的东西既安全又符合价值观?
昨天会议上,一位MIT教授提到了一种可能办法,就是类似药物开发过程那样测试新产品,你不能直接放市场。你必须经过这样的测试过程。这可以借鉴吗?
我绝对认为,从不同行业发展出来许可和测试框架中可以借鉴许多东西。但是我认为从根本来说,我们已经有一些可以奏效的事实存在。