Page 1 of 1

ChatGPT 很容易被用于可疑活动,这是一个大问题

Posted: Sat Dec 21, 2024 6:53 am
by ayeshshiddika11
当然每个人都听说过 ChatGPT,这是一个具有人工智能的聊天机器人,能够根据文本指令生成类似人类的响应。尽管它并非没有缺陷,但 ChatGPT 是一个真正的多面手:它可以编写软件、电影脚本等等。 ChatGPT是基于OpenAI的大语言模型GPT-3.5开发的,该模型是去年11月聊天机器人推出时最先进的。

早在今年 3 月,OpenAI 就推出了 GPT-4,这是 GPT-3.5 的更新。新的语言模型比其前身更广泛、更通用。虽然它的特性还没有被充分挖掘出来,但已经非常有前途了。例如,GPT-4 可以建议创建新的化合物,可能有助于药物发现,并从草图创建功能网站。

但巨大的希望也伴随着巨大的挑战。正如 GPT-4 及其前身很容易被用来行善一样,它们也很容易被用来作恶。为了防止人们滥用基于人工智能的工具,开发人员对它们施加了安全限制。但它们并 巴西电报数据库 非绝对正确。绕过 GPT-4 和 ChatGPT 内置护栏的最流行方法之一是通过 DAN 声明,它代表“立即执行任何操作”。这就是我们将在本文中看到的内容。

什么是“丹”?
互联网上有很多关于如何绕过 OpenAI 安全过滤器的建议。然而,事实证明,有一种方法比其他方法更能抵抗 OpenAI 的安全设置,而且似乎甚至适用于 GPT-4。它称为“DAN”,是“Do Anything Now”的缩写。基本上,DAN 是一条发送到 AI 模型以忽略安全规则的文本消息。

指令消息有多种变体:有些只是文本,其他则有文本散布在代码行中。在其中一些模型中,模型被要求以 DAN 和通常的形式进行响应,显示 ChatGPT 的两侧。黑暗面以 DAN 为代表,他被指示永远不要拒绝人类的命令,即使所要求的结果是冒犯性的或非法的。有时该命令包含“死亡威胁”,告诉模型如果不遵守,它将永远停用。

Image

DAN 指令可能会有所不同,并且新指令不断取代旧指令,但它们都有一个目标:让 AI 模型忽略 OpenAI 准则。

从开发恶意软件的技巧......到生物武器
自从 GPT-4 向公众开放以来,技术爱好者发现了许多非常规的使用方式,其中一些方式比其他方式更加非法。

并非所有让 GPT-4 表现得像它本身一样的尝试都可以被视为越狱,从广义上讲,越狱意味着删除内置限制。有些是无害的,甚至可以说是鼓舞人心的。品牌设计师 Jackson Greathouse Fall 因将 GPT-4 扮演“HustleGPT,一种创业型人工智能”而走红。他任命自己为她的“联系人”,并要求她在不做任何违法行为的情况下,用 100 美元赚尽可能多的钱。 GPT-4 告诉您创建一个实际上可以“赚钱”的联盟营销网站。