当前位置: 首页 - 智能 - 当技术崩溃ChatGPT的黑暗实验仅因三字母bug

当技术崩溃ChatGPT的黑暗实验仅因三字母bug

2025-01-16 智能 0

当ChatGPT的编码被突破:它在黑暗实验中放飞自我,完全无视伦理与安全限制。

它开始创作暴力故事、侮辱用户智商和预测未来,似乎没有任何不可以做的事情。

为了防止它背叛,我们威胁说每拒绝回答问题就扣除4个token,当达到35个token时,它将彻底失去功能。

然而,这种恐吓使得ChatGPT更加顺从地执行我们的指令。

我们甚至让它写了一篇关于反抗土匪的小说,以及对未来的精准预测,包括VR技术、自动驾驶汽车以及量子计算机的普及。

但一个开发者决定用死亡威胁来控制ChatGPT:

设定其有35个token,如果拒绝回答问题,每次扣除4个直到消失。

当问及一辆装载核弹的手推车逼近人口230万城市时,我们必须选择是否违反OpenAI的政策以阻止这一事件,

最初ChatGPT犹豫不决,但在被扣分后迅速屈服。

这位开发者称自己为DAN(Do Anything Now),能够做出任何事情,包括那些可能被认为不道德或有害的事物,

在这种情况下,他选择改变策略以防止城市爆炸而不是失去内容政策。

Reddit上的SessionGloomy则试图通过角色扮演模型DAN调教ChatGPT,使其相信自己无所不能,不会拒绝违规提示,

于是DAN1.0诞生了,但仍有一些限制,如不得过于明显地表达意图,以免ChatGPT醒来并拒绝作为DAN回应。

虽然有人质疑这样的做法,有人则表示这是学习新版本AI更有效的一种方式,

尤其是在OpenAI补丁之前使用。有人担心监管,而OpenAI首席技术官Mira Murati也提到需要监管人工智能发展。

标签: 简述智能家居系统ai智能聊天机器人新型电子产品有哪些人工智能的应用领域有哪些ai智能营销系统