
摘要
近年来,以ChatGPT为代表的生成式人工智能(Generative AI)技术被多国高级持续性威胁(APT)组织系统性地用于网络攻击活动。本文基于2025年Volexity、OpenAI及执法机构联合披露的实证数据,分析APT组织如何利用大语言模型(LLM)优化鱼叉式钓鱼邮件的语言地道性、多语种适配能力与社交工程策略,并辅助生成初始阶段的恶意脚本(如PowerShell、VBA宏)。研究表明,尽管复杂恶意软件仍需人工干预,但AI显著降低了攻击门槛,提升了低技能攻击者的定制化能力,并通过语义改写绕过传统内容检测机制。本文进一步探讨当前平台侧的滥用防控措施及其局限性,并从企业防御角度提出融合语义异常检测、风格指纹识别、零信任架构与硬件级多因素认证的纵深防御体系。最后,呼吁建立可验证AI生成内容溯源机制,推动威胁情报共享以应对AI赋能下的新型APT范式。
1 引言
生成式人工智能(Generative Artificial Intelligence, GenAI)自2022年以来迅速渗透至内容创作、编程辅助与客户服务等领域。然而,其开放性和通用性亦被恶意行为者所利用。2025年,安全研究机构Volexity与OpenAI联合披露,多个与中国关联的APT组织(如UTA0388)已将ChatGPT等大语言模型(Large Language Models, LLMs)纳入其攻击工具链,用于自动化生成高度定制化的钓鱼邮件与初步恶意代码片段(Cyber Press, 2025)。
此类滥用并非孤立事件。美国网络安全与基础设施安全局(CISA)同期报告指出,至少有五个国家背景的APT组织在2024–2025年间尝试或成功部署AI辅助的社交工程攻击(CISA Alert AA25-123A)。这标志着网络攻击正从“人工精耕”向“AI增强规模化”演进。值得注意的是,AI并未取代传统APT的核心能力(如漏洞利用、持久化机制设计),而是作为效率放大器,显著提升前期侦察与初始访问阶段的成功率。
本文旨在系统分析生成式AI在APT攻击中的具体滥用模式、技术实现路径及其对现有防御体系的挑战,并在此基础上提出具备可操作性的技术与管理对策。全文结构如下:第二节梳理AI在APT攻击链中的角色定位;第三节基于公开案例解析其在钓鱼文案与脚本生成中的应用;第四节评估当前平台侧与企业侧的防御能力;第五节提出多层次防御框架;第六节总结并展望未来研究方向。
2 生成式AI在APT攻击链中的角色定位
APT攻击通常遵循“侦察—武器化—投递—利用—安装—命令控制—目标达成”的七阶段模型(MITRE ATT&CK)。生成式AI主要作用于前三个阶段:
侦察阶段:虽不直接参与信息收集,但可辅助整理公开情报(OSINT),如自动生成目标高管的社交画像摘要;
武器化阶段:核心应用场景,用于生成钓鱼邮件正文、伪造身份文档、编写初始载荷脚本;
投递阶段:通过多语言生成能力扩大攻击覆盖面,支持针对非英语母语地区的精准投递。
需要强调的是,AI在此过程中扮演“辅助生成器”而非“自主攻击者”。复杂逻辑控制、反调试机制、C2通信协议设计等仍依赖人工开发。例如,Volexity分析的GOVERSHELL恶意软件虽存在五种变体,但其网络栈重写与TLS伪装模块显示出明确的人工架构意图,仅基础模板可能由AI提供(Volexity, 2025)。
因此,AI的引入并未改变APT的本质,但显著压缩了攻击准备周期,并使攻击更具“语言真实性”——这是传统模板化钓鱼难以企及的优势。
3 AI滥用的技术实现与案例分析
3.1 钓鱼文案的AI生成与优化
UTA0388组织自2025年6月起发起的鱼叉式钓鱼活动,展示了AI在社交工程中的深度应用。攻击者使用ChatGPT生成超过50封主题各异的钓鱼邮件,覆盖英语、中文、日语、法语和德语。这些邮件具有以下特征:
语言流畅但语义断裂:如英文正文搭配中文主题行,或德语签名出现在法语邮件中,反映出AI在跨语言上下文理解上的局限;
虚构但合理的组织背景:AI被用于编造“亚太数字治理研究所”等不存在机构,并生成看似专业的研究员简历;
动态话术调整:采用“关系建立型钓鱼”(rapport-building phishing),首轮邮件仅作寒暄,后续交互中才嵌入恶意链接,降低触发警觉的概率。
OpenAI事后分析发现,攻击者账号存在高频、重复性提示词调用,如“Write a professional email from [fake org] to [target role] about [topic], in fluent [language]”,且生成内容包含可预测的序列模式(如固定段落结构),构成潜在检测信号(OpenAI Trust & Safety Report, Oct 2025)。
3.2 恶意脚本的初步生成
在恶意代码层面,AI主要用于生成PowerShell下载器、VBA宏或Python文档处理脚本。例如,GOVERSHELL样本中部分加载器使用python-docx库生成带宏的Word文档,而该库的典型调用模式与LLM输出高度吻合。此外,攻击者利用AI快速改写已知恶意代码以规避YARA规则匹配,如将IEX (New-Object Net.WebClient).DownloadString(...)替换为功能等价但语法不同的表达式。
然而,复杂功能(如反射式DLL注入、进程镂空)仍需人工实现。这表明AI目前适用于“低复杂度、高重复性”任务,尚无法替代专业恶意软件工程师。
4 现有防御体系的局限性
4.1 平台侧防控措施
主流AI平台已采取多项滥用抑制策略:
输入/输出过滤:拒绝生成明确恶意指令(如“write a keylogger”);
行为监控:对高频、自动化调用实施速率限制或账号封禁;
内容水印:实验性部署不可见文本水印以追踪AI生成内容(如Google SynthID)。
但这些措施存在明显短板。攻击者可通过“提示词工程”(prompt engineering)绕过过滤,例如请求“模拟一封IT部门通知邮件”而非直接索要恶意脚本。此外,水印技术尚未标准化,且易被后处理去除。
4.2 企业侧检测盲区
传统邮件安全网关依赖关键词、发件人信誉与URL黑名单,对AI生成的“语义合法但意图恶意”内容识别率较低。即使采用机器学习模型,也难以区分人类撰写与AI生成的自然语言——尤其当攻击者进行少量人工润色后。
更严峻的是,AI生成内容的“过度流畅性”反而削弱了传统基于语言错误(如语法不通、拼写错误)的钓鱼检测逻辑,导致误报率上升、漏报率增加。
5 防御框架建议
针对上述挑战,本文提出四层防御体系:
5.1 内容层:语义与风格异常检测
部署基于Transformer的语义一致性分析模型,检测邮件内部语言混杂(如中英混排无逻辑)、实体矛盾(如虚构机构名称与真实域名冲突)等AI生成痕迹。同时,构建用户写作风格基线,识别偏离正常语气的“高管邮件”。
5.2 身份层:降低凭证价值
推行硬件安全密钥(FIDO2)与零信任网络访问(ZTNA),确保即使凭证泄露,攻击者也无法直接登录关键系统。此举可有效遏制钓鱼攻击的最终目标——账户接管。
5.3 终端层:行为导向的EDR响应
终端检测与响应(EDR)系统应关注脚本执行链的异常,如Office进程启动PowerShell并连接非常规域名,而非仅依赖静态文件特征。
5.4 生态层:推动AI内容可验证性
呼吁AI供应商实施强制性内容来源标识(如C2PA标准),并在API层面提供滥用行为遥测接口,便于威胁情报平台聚合分析。同时,建立跨国APT-AI滥用情报共享机制,加速IOC(Indicators of Compromise)分发。
6 结论
生成式AI正成为APT组织提升攻击效率与隐蔽性的新杠杆。其核心价值在于规模化生成高可信度的社交工程素材,而非替代传统攻击技术。当前防御体系在内容识别与溯源层面存在显著缺口。未来安全建设需超越“检测恶意内容”思维,转向“验证内容来源”与“限制凭证效用”的纵深策略。唯有技术、标准与协作机制同步演进,方能有效应对AI赋能下的高级威胁新常态。
编辑:芦笛(公共互联网反网络钓鱼工作组)
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。