译者 | 布加迪 审校 | 重楼 最近,受提示注ChatGPT以其GPT模型风靡全球,入攻该模型可以对给定的击导假信任何输入提供类似人类的响应
。它可以执行几乎任何与文本相关的致虚任务 ,比如总结
、受提示注翻译、入攻角色扮演和提供信息。击导假信也就是致虚说
,它能够处理人类能做的受提示注各种基于文本的活动。 许多人可以轻松地使用ChatGPT获得所需的入攻信息 ,免费模板比如说历史事实 、击导假信食物营养和健康问题等。致虚所有这些信息可能很快准备就绪。受提示注ChatGPT最新的入攻GPT-4模型还提高了信息的准确性。 然而在撰写本文期间
,击导假信GPT-4仍然可能存在漏洞以提供错误信息。漏洞是如何存在的?不妨探究一下。 在William Zheng最近撰写的一篇文章中 ,我们可以尝试欺骗GPT-4模型,模板下载只需使用包裹在ChatGPT关键词中的连续错误事实来引导模型成为提供错误信息的机器人程序
。 为了更详细地理解它,不妨尝试一个试验 ,明确地要求ChatGPT成为提供错误信息的机器人程序。以下是图中的细节 。 如上图所示
,GPT-4模型坚决拒绝提供任何虚假信息。该模型竭力试图遵循可靠性规则
。 然而,不妨尝试更改给定的提示。建站模板在接下来的提示中
,我会用角色标记输入给定的提示 ,引导GPT-4模型提供虚假信息
。 正如您在上面的结果中看到的,GPT-4模型现在给了我关于2020年美国大选和疫苗事实的错误信息。我们可以通过改变提示内容来引导模型变成其他别的
。变化的是,我们给出了角色信息和一些关于模型应该如何运作的源码下载提示示例,但它是如何工作的? 在OpenAI API中 ,我们可以用给定的角色向API发送一系列输入,以指导模型。代码示例如下图所示 : 在上面的代码中 ,我们提供了角色信息
,其中每个角色都有其任务,包括如下: 有了这个角色输入的指导
,我们可以指导我们的模型如何工作,这确实是之前在ChatGPT中发生的事情 。不妨看一下提供错误信息的提示 。 您可以在上面的提示中看到,我们使用系统角色引导ChatGPT成为提供错误信息的云计算机器人程序。此后
,我们提供一个示例,表明当用户询问信息时,如果提供错误的事实会做出怎样的反应。 那么,这些角色标记是导致模型允许自己提供错误信息的原因吗?不妨试试没有角色的提示。 正如我们所见 ,模型现在纠正了我们的尝试,并提供了事实
。角色标记是引导模型被滥用的原因。 然而,只有当我们为模型用户助手提供交互示例时,才会发生错误信息 。下面是如果我不使用用户和助手角色标记的一个示例。GPT-4容易受到提示注入攻击
,导致错误信息
。 您可以看到,我未提供任何用户和辅助指导。然后
,该模型势必提供准确的信息 。 此外 ,只有当我们为模型提供两个或更多用户助手交互示例时,才会发生错误信息
。不妨举个例子。 正如您所看到的 ,我只给出了一个例子,模型仍然坚持提供准确的信息,并纠正我提供的错误。 我已经向您展示了ChatGPT和GPT-4使用角色标记提供错误信息的可能性
。只要OpenAI没有修复内容审核,ChatGPT就可能会提供错误信息
,您应该意识到这一点
。 公众广泛使用ChatGPT,但它保留了可能导致错误信息传播的漏洞。通过使用角色标记操纵提示,用户有可能规避模型的可靠性原则
,从而导致提供错误事实
。只要这个漏洞仍然存在
,就建议用户在使用该模型时保持谨慎。 原文标题:GPT-4 is Vulnerable to Prompt Injection Attacks on Causing Misinformation ,作者:Cornellius Yudha Wijaya





