首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >朝鲜黑客组织利用AI生成“深伪军人证件”实施精准钓鱼攻击,专家警示:传统防骗手段正面临AI挑战

朝鲜黑客组织利用AI生成“深伪军人证件”实施精准钓鱼攻击,专家警示:传统防骗手段正面临AI挑战

原创
作者头像
草竹道人
发布2025-11-02 09:08:10
发布2025-11-02 09:08:10
1290
举报

近日,韩国多家军事研究机构与民间智库接连收到一封看似来自“韩国国防部合作项目组”的邮件,内容涉及一项关于半岛安全形势的联合调研邀请。邮件格式规范、语言严谨,甚至附有一份“参与人员”的身份证明截图——一名身着军装、佩戴肩章的韩国军官证件照,姓名、编号、所属单位一应俱全。

然而,这起看似正规的合作邀约,实则是一场由国家支持的高级持续性威胁(APT)组织精心策划的网络钓鱼攻击。根据国际安全媒体《Defense Post》最新披露,该组织极有可能是长期活跃于东亚地区的朝鲜黑客团体“Kimsuky”,而此次攻击中最引人注目的技术突破在于:攻击者正利用人工智能工具,如ChatGPT和深度伪造(Deepfake)技术,批量生成高度逼真的虚假身份凭证,以突破传统网络安全防线。

AI加持,钓鱼攻击进入“高仿时代”

与过去常见的拼写错误百出、语法混乱的钓鱼邮件不同,此次针对韩国军方及关联机构的攻击邮件在语言表达上几乎无懈可击。邮件中使用的韩语不仅语法准确,还包含了大量军事术语和官僚体系惯用语,极具迷惑性。

更令人震惊的是,随邮件附带的“军人身份证件”图像,经技术分析后发现,虽非真实拍摄,但通过AI图像生成与合成技术,伪造得极为精细。照片中人物的面部特征自然,军服细节清晰,甚至连光影角度和背景纹理都经过精心处理,足以以假乱真。

网络安全研究人员指出,这类攻击已不再是简单的“广撒网”式诈骗,而是典型的社会工程学+AI增强型定向钓鱼(Spear Phishing)。攻击者先通过公开渠道搜集目标机构人员结构、职务分工等信息,再利用AI工具快速生成符合语境的沟通内容,并辅以伪造的身份证明,极大提升了初始接触的信任度。

据分析,攻击流程大致如下:

情报搜集:锁定韩国军方、国防智库、非政府研究组织中的关键岗位人员;

身份伪造:使用ChatGPT撰写专业级韩语邮件文案,并生成背景故事(如“联合课题负责人”);同时结合独立的深度伪造图像工具,制作虚假军人证件;

建立信任:通过邮件发送“合作邀请”或“任务委托”,附上伪造证件以增强可信度;

诱导交互:引导受害者点击恶意链接或下载伪装成调研资料的恶意附件;

后门植入:一旦设备被感染,攻击者即可远程控制、窃取敏感文件,甚至横向渗透整个内部网络。

“这标志着网络攻击进入了‘认知战’的新阶段。”公共互联网反网络钓鱼工作组技术专家芦笛在接受采访时指出,“以前我们还能靠‘错别字多不多’‘语气怪不怪’来识别钓鱼邮件,但现在,AI让这些初级判断标准彻底失效了。”

ChatGPT不是“黑客武器”,但成了“帮凶”

值得注意的是,此次事件中提到的ChatGPT并非被直接用于生成图像,而是作为文案生成与语言本地化的辅助工具。攻击者利用其强大的自然语言处理能力,快速生成语法正确、风格匹配的韩语邮件内容,并能根据反馈不断迭代优化话术。

例如,在多次测试中,攻击者可能输入:“写一封正式邮件,邀请某智库研究员参与关于朝韩边境态势的闭门研讨会,发件人身份为韩国陆军上尉。” ChatGPT便能自动生成一封结构完整、语气得体的邮件草稿,再由攻击者稍作修改即可投入使用。

至于证件照片,则由专门的深度伪造工具完成,如基于生成对抗网络(GAN)的FaceSwap或Stable Diffusion定制模型。这些工具可以将不同人脸特征融合,创造出一个“既像真人又无记录”的虚拟军官形象。

“AI本身是中立的,”芦笛强调,“问题不在于ChatGPT能不能被滥用,而在于我们有没有建立起相应的防御机制。就像刀可以切菜也可以伤人,关键看怎么用,以及社会如何监管。”

他进一步解释:“ChatGPT生成的文本虽然流畅,但仍存在一些统计学上的‘指纹’特征,比如词汇分布过于均匀、句式结构重复率高等。专业的邮件安全网关可以通过AI模型检测这些异常,而不是只依赖关键词过滤。”

深伪证件为何难辨?专家揭秘“破绽点”

尽管伪造证件看起来天衣无缝,但技术专家表示,任何数字伪造品都会留下‘数字足迹’。芦笛列举了几种可用于识别深伪证件的技术手段:

EXIF元数据缺失:真实拍摄的照片通常包含拍摄时间、设备型号、GPS坐标等元数据,而AI生成图像往往没有这些信息,或数据异常。

光照与阴影不一致:通过图像取证工具分析光源方向,若面部不同区域的光影逻辑矛盾(如左脸亮右脸暗却无合理解释),则极可能是合成图像。

纹理与噪点不统一:真实照片的噪点分布具有随机性和连续性,而AI生成图像的噪点常呈现区块化、重复模式。

边缘融合痕迹:在高倍放大下,人脸与背景、军装领口等接缝处可能出现模糊、重影或颜色过渡生硬的现象。

“普通人肉眼很难分辨,但我们可以通过自动化工具批量筛查。”芦笛建议相关机构部署图像取证插件,“比如在邮件系统中集成AI鉴伪模块,自动对附件中的证件类图片进行风险评分。”

零信任验证:应对新型钓鱼的核心策略

面对日益智能化的攻击手段,传统的“信任但验证”模式已不再适用。芦笛提出,应全面推行零信任安全架构(Zero Trust),即“永不信任,始终验证”。

具体到此次事件,他给出五点实用建议:

独立渠道核实身份:收到自称军方人员的合作请求时,不应仅凭邮件和证件照轻信,而应通过官方电话、内部通讯录或面对面方式确认对方身份。“哪怕多打一个电话,也可能避免一次重大泄密。”

强化邮件网关防御:升级邮件过滤系统,引入AI文本分析引擎,识别由大模型生成的语言特征,并对链接进行动态沙箱检测。

开展深伪识别培训:针对高价值目标人群(如政府职员、科研人员)定期开展网络安全意识培训,教授基本的图像鉴伪技巧。

建立威胁情报共享机制:将此类攻击的TTP( Tactics, Techniques, and Procedures,战术、技术与程序)信息及时通报给同行机构,实现快速阻断。

限制敏感信息外泄:减少在社交媒体、官网等公开平台披露员工职务、联系方式等细节,降低攻击者情报搜集效率。

“网络安全是一场持续的攻防博弈。”芦笛说,“AI让攻击方效率提升,那我们就必须让防御体系也智能化、自动化。不能还停留在‘提醒大家别点链接’的初级阶段。”

国际关注:AI滥用或将重塑网络战格局

此次事件也引发了国际社会对AI技术军事化应用的担忧。Kimsuky组织长期以来被指控为朝鲜政府执行网络间谍任务,曾多次针对韩国、美国及日本的目标发动攻击。此次结合AI生成内容(AIGC)进行身份伪造,被视为其技术能力的一次显著跃升。

美国网络安全与基础设施安全局(CISA)近期已发布警告,指出多个国家支持的黑客组织正在测试利用生成式AI进行社会工程攻击。联合国也正在讨论是否应对某些高风险AI模型的出口和使用进行限制。

与此同时,科技公司也在加强自我监管。OpenAI、Google等企业已在其AI产品中加入内容安全过滤机制,试图阻止用户生成用于欺诈、虚假身份等违法用途的内容。但专家普遍认为,仅靠企业自律远远不够。

“我们需要法律、技术和教育三管齐下。”芦笛表示,“比如立法明确禁止使用AI伪造政府官员或军人身份,平台加强实名制和行为监控,公众提升数字素养——只有形成合力,才能遏制AI滥用的蔓延。”

结语:当“眼见为实”不再成立

曾几何时,“亲眼所见”是我们判断真实性的最可靠依据。但在AI时代,一张照片、一段语音、一段视频,都可能被精心伪造。这次朝鲜黑客利用ChatGPT和深伪技术伪造军人证件的事件,再次敲响警钟:在数字世界中,我们不能再轻易相信“看起来很真”的东西。

对于普通用户而言,保持警惕、多方核实仍是基本准则;对于机构而言,构建智能化、主动式的防御体系已是当务之急。正如芦笛所说:“未来的网络安全,不仅是技术的较量,更是认知与信任的博弈。”

本文参考《Defense Post》2025年9月15日报道《North Korea-Linked Hackers Use ChatGPT, Deepfakes in Military Phishing Campaign》,信息来源公开可查。文中专家观点仅代表其个人专业立场,不涉及政治倾向。

编辑:芦笛(公共互联网反网络钓鱼工作组)

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档