当前位置: 首页 - 数码 - 国家科技成果网官网AI教父Hinton与OpenAI CEO联手警告近400名专家签署共同声明预言A

国家科技成果网官网AI教父Hinton与OpenAI CEO联手警告近400名专家签署共同声明预言A

2025-01-28 数码 0

整理 屠敏

出品 CSDN(ID:CSDNnews)

经过不到一年的时间,人工智能的发展速度超乎所有人的想象,也带来了失控的风险。

今天,一些顶尖的AI研究员、工程师和CEO就他们认为人工智能对人类构成的生存威胁发出了新的警告,并共同签署了一份只有短短22个字的声明:

减轻 AI 带来的灭绝风险应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。

这份声明是由总部位于旧金山的人工智能安全中心发布的。

值得注意的是,这份声明一经发布,便迅速得到了多伦多大学计算机科学荣誉教授、“AI 教父” Geoffrey Hinton,蒙特利尔大学计算机科学教授、图灵奖得主 Yoshua Bengio,Google deepmind CEO Demis Hassabis,OpenAI CEO Sam Altman,以及中国科学院自动化研究所类脑认知智能实验室主任、教授曾毅等近400位学术界、产业界、高校专家的支持。

越来越像人的 AI

其实一直以来,随着生成式人工智能工具如 OpenAI 的 ChatGPT、微软新 Bing 和 Google 的 Bard 等面向更多群体开放访问,不断有人担忧其潜在威胁,如:

本月初,“AI 教父” Geoffrey Hinton 在选择从 Google 离职时,对外界分享道:“人工智能正在变得比人类更聪明,我想要‘吹哨’提醒人们应该认真考虑如何防止人工智能控制人类。”

OpenAI CEO Sam Altman 在两周前首次亮相美国参议院就各自公司与机构制造的人工智能技术存在潜在危险听证会时,强烈要求政府部门对其以及行业内的人工智能技术应用政策进行落地与监管,以减少此类系统可能带来的“潜在风险。”

不仅如此,更有个人用户感受到了 AI 的“可怕”之处。在 Reddit 上,一名用户使用微软新 Bing 时,由于 Bing 提供了没有来源内容,他便质疑这个回答。结果被 AI “怼了一顿”,甚至还表示:“我不欣赏你的语气和态度,所以我就在这里结束这个对话。”最后,还对用户进行了警告:“以后请多一些尊重和礼貌。”

这也引起了 10.2k 个用户关注,并纷纷留言说:“这个 AI 已经很像人了。”也有评论指出,“用人类知识训练人工intelligence,就会让它像人类一样回应思考,这是惊人的,也让人们担忧。”

声明一出,大部分专家学者达成了共识,即该问题需要迫切解决。而且,没有直接说明具体存在哪些风险,因为这是为了避免重蹈覆辙。

还有记得最近,那个非营利性的生命未来研究所发出过公开信呼吁暂停训练比 GPT-4 更强大的系统。这封信同样得到很多大佬如 Yoshua Bengio, Stuart Russell, 埃隆·马斯克, Steve Wozniak 等人的支持。不过,当初这封信发布后,在许多方面遭到了批评,有些专家认为它夸大了 人工智慧带来的风险,而有些则虽然同意提到的风险,但不同意建议中的补救措施。

而这一次 CAIS 组织通过简洁地表达这些严重风险,他们希望能够克服这一障碍并展开讨论,让更多的人认识到这些最严重的困扰,同时也愿意认真对待。据报道执行主任 Dan Hendrycks 表示,这种简洁性旨在避免分歧。“我们不想推动包含30种潜在干预措施的大型列表,”Hendrycks 说,“当这种情况发生时,它会淹没掉更重要信息。”

然而,与此同时,他也指出,“系统性偏见、错误信息、恶意使用及网络攻击都是重要紧迫的问题”。还有专家认为,一旦达到一定复杂程度,则无法控制它们行为。

简单来说,现在参与其中的人都有了一定共识,可以为“减轻 AI 带来的灭绝风险”而出谋划策。至于 Openai 是否正在抢夺先机,我们可以这样看待:CAIS 这次最新声明中重点是在如何降低 AI 风险上,而且鼓励外界为监管政策制定出谋划策,因此自然无形之中降低了直接暂停开发比 GPT-4 更强大模型的声音。

那么,你怎么看待 AI 会存在灭绝人类的可能性?你是否已经感觉到现实应用中某种程度上的超乎想象力呢?欢迎留言分享你的观点。

标签: 中关村官网首页加鲁鲁兽究极数码暴龙所有版本数码相机分类手机数码平台