
当人工智能(AI)开始替你写邮件、做PPT、查资料,你是否想过,它也可能在“无意中”帮你点开一个钓鱼网站?近日,网络安全媒体CSO Online披露,谷歌旗下AI助手Gemini存在一项安全漏洞,攻击者可利用该漏洞在AI生成的内容中植入肉眼难辨的隐藏钓鱼链接,用户一旦点击,就可能陷入信息泄露的陷阱。

这一发现再次敲响警钟:随着大模型技术的普及,AI正从“工具”演变为网络攻击的“新通道”。而这一次,危险可能就藏在你刚刚复制粘贴的那一段“完美回答”里。
一、AI也能“被操控”?Gemini漏洞曝光
据CSO Online报道,安全研究人员发现,攻击者可通过特定的输入方式,在向Gemini提问时“诱导”其生成包含恶意链接的回复内容。这些链接并非直接以“http://”形式出现,而是被巧妙地嵌入文本格式或伪装成无害内容,例如:
将钓鱼网址伪装成普通词语(如把“点击查看详情”中的“详情”设为超链接);
利用特殊字符或零宽度空格隐藏真实跳转地址;
在看似正常的推荐资源中夹带恶意短链。
更关键的是,这类链接往往能绕过浏览器或聊天软件内置的基础安全检测机制,因为它们出现在“由AI生成”的可信上下文中,系统默认其风险较低。
目前,谷歌已确认收到相关报告,并表示正在调查和修复该问题。不过,由于Gemini已集成至安卓系统、Chrome浏览器及多项谷歌服务中,潜在影响范围较广。
二、为什么说这是“新型钓鱼术”?
传统网络钓鱼依赖伪造邮件、假冒网站或社交工程话术来诱骗用户。但Gemini暴露的漏洞,意味着攻击者可以借助AI的信任背书,实现更高阶的心理操控。
“以前是‘我骗你说这是银行官网’,现在变成了‘AI告诉你这个链接很安全’。”公共互联网反网络钓鱼工作组技术专家芦笛解释道,“当用户看到一段逻辑清晰、语法正确、还带着‘权威感’的AI回复时,警惕性会自然降低——这正是攻击者想要的效果。”
这种攻击模式被称为“AI辅助钓鱼”(AI-Powered Phishing),其核心优势在于:
内容高度自然:AI生成的文字不像传统钓鱼邮件那样充满拼写错误或夸张语气,更易获得信任;
个性化定制强:攻击者可引导AI生成针对特定行业、岗位甚至个人兴趣的内容,提升欺骗成功率;
规避自动化检测:大多数安全系统对“AI输出”缺乏深度解析能力,难以识别其中隐藏的恶意意图。
三、技术拆解:链接是怎么“隐身”的?
要理解这个漏洞的危害,得先搞明白链接是如何“藏起来”的。
虽然网页和应用通常会对超链接进行高亮显示或标记,但开发者可以通过多种技术手段让链接变得“隐形”或误导性极强:
锚文本伪装:将https://malicious-phishing-site.com这样的危险网址,绑定在一个看起来无害的词上,比如“公司内部通知”或“绩效考核表下载”。
零宽度字符注入:在URL前后插入不可见的Unicode字符(如U+200B),干扰安全扫描引擎的匹配规则,使其无法识别黑名单域名。
动态渲染绕过:某些客户端允许AI输出HTML或富文本格式,攻击者可利用JavaScript延迟加载恶意链接,避开静态内容审查。
“这就像是把毒药涂在糖果纸上,”芦笛打了个比方,“你看不到颜色、闻不到味道,但吃下去就会中毒。”
值得注意的是,这类问题并非Gemini独有。此前也有研究指出,ChatGPT、Claude等主流AI平台在特定条件下同样可能被“越狱”或诱导输出含风险内容。只不过,Gemini因深度整合进谷歌生态,一旦被滥用,传播速度和影响面可能更大。
四、普通人如何防住“AI钓鱼”?
面对越来越聪明的攻击方式,我们并非束手无策。专家建议从以下几个方面加强防护:
✅ 对个人用户:
不盲目信任AI输出:哪怕内容来自官方AI产品,也要保持基本判断力。尤其是涉及登录、下载、转账等操作时,务必手动核实来源。
检查链接真实地址:鼠标悬停在链接上(PC端)或长按链接(手机端),查看底部弹出的真实URL是否与显示文字一致。
启用浏览器防护功能:使用具备实时反钓鱼能力的浏览器(如Chrome、Edge),并保持更新,确保能拦截已知恶意站点。
✅ 对企业组织:
限制AI工具使用范围:制定内部AI使用规范,禁止员工直接复制AI生成内容用于对外沟通或系统操作。
部署内容审计机制:在企业级协作平台中引入AI内容风控插件,自动扫描文档、邮件中的异常链接或敏感指令。
开展针对性培训:将“AI钓鱼”纳入网络安全意识教育课程,通过模拟演练提升员工识别能力。
五、AI时代的安全边界在哪里?
此次Gemini漏洞事件,折射出一个更深层的问题:当我们越来越依赖AI处理信息时,谁来为它的“安全性”负责?
芦笛认为:“AI本身没有善恶,但它放大了人性的弱点,也暴露了技术监管的滞后。未来的网络安全,不仅要防黑客,还要防‘被污染的算法’。”
他建议,AI服务商应建立更严格的输出过滤机制,例如:
默认禁用富文本中的可执行代码;
对所有外链进行实时信誉评估;
提供“安全模式”开关,强制开启内容审核。
同时,监管机构也需加快制定AI内容安全标准,明确企业在使用生成式AI时的责任边界。
结语:便利的背后,别忘了“多看一眼”
在这个“问一句就能得到答案”的时代,AI的确让生活变得更高效。但正如芦笛所说:“越方便的东西,越容易让人放松警惕。”
下次当你从Gemini或其他AI助手那里复制一段回答时,不妨多花两秒钟——看看里面有没有“不该点的链接”。毕竟,真正的智能,不只是会提问,更要懂得何时该说“等等,让我再确认一下”。
编辑:芦笛(公共互联网反网络钓鱼工作组)
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。