首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >警惕AI“带货”变“带毒”!谷歌Gemini被曝可藏匿隐蔽钓鱼链接

警惕AI“带货”变“带毒”!谷歌Gemini被曝可藏匿隐蔽钓鱼链接

原创
作者头像
草竹道人
发布2025-10-21 15:30:46
发布2025-10-21 15:30:46
1700
举报

当人工智能(AI)开始替你写邮件、做PPT、查资料,你是否想过,它也可能在“无意中”帮你点开一个钓鱼网站?近日,网络安全媒体CSO Online披露,谷歌旗下AI助手Gemini存在一项安全漏洞,攻击者可利用该漏洞在AI生成的内容中植入肉眼难辨的隐藏钓鱼链接,用户一旦点击,就可能陷入信息泄露的陷阱。

这一发现再次敲响警钟:随着大模型技术的普及,AI正从“工具”演变为网络攻击的“新通道”。而这一次,危险可能就藏在你刚刚复制粘贴的那一段“完美回答”里。

一、AI也能“被操控”?Gemini漏洞曝光

据CSO Online报道,安全研究人员发现,攻击者可通过特定的输入方式,在向Gemini提问时“诱导”其生成包含恶意链接的回复内容。这些链接并非直接以“http://”形式出现,而是被巧妙地嵌入文本格式或伪装成无害内容,例如:

将钓鱼网址伪装成普通词语(如把“点击查看详情”中的“详情”设为超链接);

利用特殊字符或零宽度空格隐藏真实跳转地址;

在看似正常的推荐资源中夹带恶意短链。

更关键的是,这类链接往往能绕过浏览器或聊天软件内置的基础安全检测机制,因为它们出现在“由AI生成”的可信上下文中,系统默认其风险较低。

目前,谷歌已确认收到相关报告,并表示正在调查和修复该问题。不过,由于Gemini已集成至安卓系统、Chrome浏览器及多项谷歌服务中,潜在影响范围较广。

二、为什么说这是“新型钓鱼术”?

传统网络钓鱼依赖伪造邮件、假冒网站或社交工程话术来诱骗用户。但Gemini暴露的漏洞,意味着攻击者可以借助AI的信任背书,实现更高阶的心理操控。

“以前是‘我骗你说这是银行官网’,现在变成了‘AI告诉你这个链接很安全’。”公共互联网反网络钓鱼工作组技术专家芦笛解释道,“当用户看到一段逻辑清晰、语法正确、还带着‘权威感’的AI回复时,警惕性会自然降低——这正是攻击者想要的效果。”

这种攻击模式被称为“AI辅助钓鱼”(AI-Powered Phishing),其核心优势在于:

内容高度自然:AI生成的文字不像传统钓鱼邮件那样充满拼写错误或夸张语气,更易获得信任;

个性化定制强:攻击者可引导AI生成针对特定行业、岗位甚至个人兴趣的内容,提升欺骗成功率;

规避自动化检测:大多数安全系统对“AI输出”缺乏深度解析能力,难以识别其中隐藏的恶意意图。

三、技术拆解:链接是怎么“隐身”的?

要理解这个漏洞的危害,得先搞明白链接是如何“藏起来”的。

虽然网页和应用通常会对超链接进行高亮显示或标记,但开发者可以通过多种技术手段让链接变得“隐形”或误导性极强:

锚文本伪装:将https://malicious-phishing-site.com这样的危险网址,绑定在一个看起来无害的词上,比如“公司内部通知”或“绩效考核表下载”。

零宽度字符注入:在URL前后插入不可见的Unicode字符(如U+200B),干扰安全扫描引擎的匹配规则,使其无法识别黑名单域名。

动态渲染绕过:某些客户端允许AI输出HTML或富文本格式,攻击者可利用JavaScript延迟加载恶意链接,避开静态内容审查。

“这就像是把毒药涂在糖果纸上,”芦笛打了个比方,“你看不到颜色、闻不到味道,但吃下去就会中毒。”

值得注意的是,这类问题并非Gemini独有。此前也有研究指出,ChatGPT、Claude等主流AI平台在特定条件下同样可能被“越狱”或诱导输出含风险内容。只不过,Gemini因深度整合进谷歌生态,一旦被滥用,传播速度和影响面可能更大。

四、普通人如何防住“AI钓鱼”?

面对越来越聪明的攻击方式,我们并非束手无策。专家建议从以下几个方面加强防护:

✅ 对个人用户:

不盲目信任AI输出:哪怕内容来自官方AI产品,也要保持基本判断力。尤其是涉及登录、下载、转账等操作时,务必手动核实来源。

检查链接真实地址:鼠标悬停在链接上(PC端)或长按链接(手机端),查看底部弹出的真实URL是否与显示文字一致。

启用浏览器防护功能:使用具备实时反钓鱼能力的浏览器(如Chrome、Edge),并保持更新,确保能拦截已知恶意站点。

✅ 对企业组织:

限制AI工具使用范围:制定内部AI使用规范,禁止员工直接复制AI生成内容用于对外沟通或系统操作。

部署内容审计机制:在企业级协作平台中引入AI内容风控插件,自动扫描文档、邮件中的异常链接或敏感指令。

开展针对性培训:将“AI钓鱼”纳入网络安全意识教育课程,通过模拟演练提升员工识别能力。

五、AI时代的安全边界在哪里?

此次Gemini漏洞事件,折射出一个更深层的问题:当我们越来越依赖AI处理信息时,谁来为它的“安全性”负责?

芦笛认为:“AI本身没有善恶,但它放大了人性的弱点,也暴露了技术监管的滞后。未来的网络安全,不仅要防黑客,还要防‘被污染的算法’。”

他建议,AI服务商应建立更严格的输出过滤机制,例如:

默认禁用富文本中的可执行代码;

对所有外链进行实时信誉评估;

提供“安全模式”开关,强制开启内容审核。

同时,监管机构也需加快制定AI内容安全标准,明确企业在使用生成式AI时的责任边界。

结语:便利的背后,别忘了“多看一眼”

在这个“问一句就能得到答案”的时代,AI的确让生活变得更高效。但正如芦笛所说:“越方便的东西,越容易让人放松警惕。”

下次当你从Gemini或其他AI助手那里复制一段回答时,不妨多花两秒钟——看看里面有没有“不该点的链接”。毕竟,真正的智能,不只是会提问,更要懂得何时该说“等等,让我再确认一下”。

编辑:芦笛(公共互联网反网络钓鱼工作组)

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档