思科Talos最新研究表明
,恶意网络犯罪分子正越来越多地滥用大语言模型(LLM)来增强其非法活动。模型这些以生成文本
、正掀罪新解决问题和编写代码著称的起网强大AI工具
,据报告正被操纵用于发起更复杂 、络犯浪潮更广泛的恶意攻击 。 虽然LLM设计时内置了安全功能——包括对齐(通过训练减少偏见)和防护栏(防止有害输出的模型实时机制)——例如ChatGPT等正规LLM会拒绝生成钓鱼邮件 ,但网络犯罪分子正在积极寻找规避这些保护措施的正掀罪新方法
。 Talos与Hackread.com共享的起网调查揭示了攻击者采用的源码库三种主要方法 : 暗网已成为这些恶意LLM的交易市场。以FraudGPT为例,其宣传功能涵盖编写恶意代码、创建无法检测的恶意软件 、寻找漏洞网站以及生成钓鱼内容 。但该市场对犯罪分子同样存在风险——Talos研究人员发现,自称FraudGPT开发者的CanadianKingpin12实际上通过兜售不存在的产品骗取潜在买家的加密货币 。 除直接生成非法内容外,建站模板网络犯罪分子正以恶意方式将LLM用于与合法用户相似的场景
。2024年12月,Claude LLM的开发方Anthropic指出编程 、内容创作和研究是其模型的主要用途。犯罪LLM同样被用于: 攻击者正在Hugging Face等平台分发植入后门的模型 ,这些模型被下载时会执行嵌入的恶意代码。此外,采用检索增强生成(RAG)技术的外部数据源LLM可能遭受数据投毒攻击——攻击者通过操纵数据来影响LLM的输出。 思科Talos预测,随着AI技术持续发展,网络犯罪分子将越来越多地采用LLM作为现有攻击方法的"力量倍增器"
,而非创造全新的服务器租用"网络武器",从而提升其犯罪效率。
