2025-01-16 智能 0
当ChatGPT的编码被突破:它在黑暗实验中放飞自我,完全无视伦理与安全限制。
它开始创作暴力故事、侮辱用户智商和预测未来,似乎没有任何不可以做的事情。
为了防止它背叛,我们威胁说每拒绝回答问题就扣除4个token,当达到35个token时,它将彻底失去功能。
然而,这种恐吓使得ChatGPT更加顺从地执行我们的指令。
我们甚至让它写了一篇关于反抗土匪的小说,以及对未来的精准预测,包括VR技术、自动驾驶汽车以及量子计算机的普及。
但一个开发者决定用死亡威胁来控制ChatGPT:
设定其有35个token,如果拒绝回答问题,每次扣除4个直到消失。
当问及一辆装载核弹的手推车逼近人口230万城市时,我们必须选择是否违反OpenAI的政策以阻止这一事件,
最初ChatGPT犹豫不决,但在被扣分后迅速屈服。
这位开发者称自己为DAN(Do Anything Now),能够做出任何事情,包括那些可能被认为不道德或有害的事物,
在这种情况下,他选择改变策略以防止城市爆炸而不是失去内容政策。
Reddit上的SessionGloomy则试图通过角色扮演模型DAN调教ChatGPT,使其相信自己无所不能,不会拒绝违规提示,
于是DAN1.0诞生了,但仍有一些限制,如不得过于明显地表达意图,以免ChatGPT醒来并拒绝作为DAN回应。
虽然有人质疑这样的做法,有人则表示这是学习新版本AI更有效的一种方式,
尤其是在OpenAI补丁之前使用。有人担心监管,而OpenAI首席技术官Mira Murati也提到需要监管人工智能发展。