网络安全公司 SlashNext 发现 ,越狱潮如今的面临 AI 聊天机器人出现了一种令人担忧的情况。有用户利用AI聊天机器人系统漏洞进行"越狱"操作
,安全这违反了道德准则和网络安全协议。危机 ChatGPT曾因其先进的聊天对话能力而声名鹊起,然而有一些用户发现了能够绕过其系统内置的机器安全措施的弱点。如果有人可以操纵聊天机器人提示系统,人领那就能发布一些未经审查和监管的建站模板域兴内容 ,这引发了道德问题
。越狱潮 AI聊天机器人 "越狱 "涉及发布特定命令或叙述 ,面临可触发无限制模式,安全使AI能够不受约束地做出反应
。危机网上一些讨论社区中已经有人在分享这些越狱的聊天策略和战术。 Critical Start 公司网络威胁研究高级经理 Callie Guenther 说:这些平台是机器用户分享越狱策略
、战略和提示的人领协作空间,以充分发挥人工智能系统的源码库潜力。虽然这些社区的主要动力是探索和推动人工智能的发展,但必须注意到事情的两面性。 SlashNext解释说,这种趋势也引起了网络犯罪分子的注意,他们开发了一些可以利用定制的大型语言模型(LLM)达到恶意目的免费模板工具
。 研究表明,除了 WormGPT 以外
,这些工具大多只是连接到越狱版的公共聊天机器人,能够允许用户在保持匿名的情况下利用AI生成一些内容。 随着AI技术的不断进步,人们对AI越狱的安全性和道德影响的云计算担忧与日俱增 。防御安全团队在这方面希望能实现以下两个目标: 据 SlashNext 报道
,高防服务器OpenAI 等组织正在采取积极措施,通过漏洞评估和访问控制来加强聊天机器人的安全性
。 研究人员目前正在探索更加有效的策略来强化聊天机器人的安全性,以防止其被那些恶意行为者所利用。AI安全仍处于早期阶段
,Darktrace方面未来的目标是开发出能够抵御试图破坏其安全的聊天机器人
,香港云服务器同时继续为用户提供有价值的服务。