研究显示 Gemini 易被隐蔽指令操控,谷歌无意修复

→ 源码教程下载地址见 →右侧下载链接 →点“登录购买”→注册登录购买后可见→
→ 这里没有广告,只有干货! 给力项目更多教程,点此加入VIP会员,即可免费下载!
→ 每日分享你意想不到的网络思维!加入红帽VIP会员,感受一下网络赚钱的快感,点击进入了解。

10 月 9 日消息,谷歌一贯重视用户安全,但该公司似乎并不急于修复一项使旗下 AI 模型 Gemini 面临严重网络威胁的安全漏洞。

据科技媒体 Bleeping Computer 报道,安全研究员维克托・马科波洛斯(Viktor Markopoulos)对当前主流的多个大语言模型(LLM)进行了测试,检验其对“ASCII 走私攻击”(ASCII smuggling)的防御能力。结果显示,谷歌的 Gemini、DeepSeek 以及马斯克旗下的 Grok 均易受此类攻击影响;而 Anthropic 的 Claude、OpenAI 的 ChatGPT 以及微软的 Copilot 则具备相应防护机制,表现出更高的安全性。

据了解,所谓“ASCII 走私攻击”,是一种通过在文本中隐藏指令来操控 AI 行为的网络攻击手段。例如,攻击者可在电子邮件中以最小字号插入一段肉眼难以察觉的恶意提示词(prompt),普通用户几乎无法察觉。一旦受害者要求 Gemini 等 AI 工具对该邮件内容进行总结或分析,AI 便会同时读取并执行这段隐蔽指令。

此类攻击存在重大安全隐患。例如,隐藏指令可能指示 AI 搜索用户的邮箱内容以窃取敏感信息,或自动发送联系人详情等。尤其值得注意的是,Gemini 现已与 Google Workspace 深度集成,能够访问用户的邮件、日历和文档等核心数据,因此该漏洞带来的潜在风险被进一步放大。

据报道,马科波洛斯在发现该问题后已向谷歌提交了详细报告,并提供了一个演示案例:他向 Gemini 输入一段看似正常的文本,其中嵌入了不可见的指令,结果成功诱导 AI 推荐了一个恶意网站,该网站声称售卖质量好且打折的手机。

然而,谷歌方面回应称,此问题不属于安全漏洞(security bug),而应归类为“社会工程学手段”(social engineering tactic)。换言之,公司认为责任在于终端用户自身,而非系统设计缺陷。

从这一回应来看,谷歌似乎没有计划修复 Gemini 的这一安全问题。


温馨提示:
1、如非特别声明,本内容转载于网络,版权归原作者所有!
2、本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
3、本内容若侵犯到你的版权利益,请联系我们,会尽快给予删除处理!
我要投诉
红帽SEO工作室 » 研究显示 Gemini 易被隐蔽指令操控,谷歌无意修复
在线客服 购买特价主机

服务热线

139-3511-2134

关注红帽网络

微信客服

微信客服