用户安全受威胁?谷歌Gemini存漏洞,公司回应称非系统层面问题

近日,安全研究员维克托・马科波洛斯在一次针对AI模型安全性的实验中发现,谷歌旗下的Gemini模型存在可被“ASCII走私攻击”利用的潜在安全隐患。这一发现经科技媒体Bleeping Computer披露后,引发业界广泛关注。令人意外的是,谷歌方面对此回应称,这并非系统漏洞,而属于社会工程学范畴,暂无修复计划。

Gemini曝出安全风险

马科波洛斯在测试中对多款主流大语言模型进行了攻击模拟,以评估其抵御“ASCII走私攻击”的能力。结果表明,谷歌Gemini、DeepSeek以及马斯克的Grok均易受此类攻击影响,而Anthropic的Claude、OpenAI的ChatGPT以及微软Copilot则能有效防御。
据介绍,“ASCII走私攻击”是一种通过文本编码隐匿恶意指令的手法。攻击者可在邮件或文件中嵌入极小字号的不可见字符,一旦AI被要求读取或总结该内容,便可能被诱导执行暗藏的指令。例如,攻击者可让AI在后台搜索邮箱、读取文档甚至泄露隐私信息。

隐患或被放大

Gemini与Google Workspace生态的深度整合,使这一漏洞的风险更具现实威胁。Gemini可访问用户的Gmail、日历及云端文档等核心数据,一旦攻击者利用漏洞诱导AI执行恶意操作,后果可能远超传统网络钓鱼攻击。

谷歌态度引质疑

面对研究员提交的完整报告及演示,谷歌在回复中表示,这种行为属于社会工程学范畴,并非系统层面的安全漏洞,因此不会列入修复计划。业内专家指出,这一表态或反映了谷歌在AI安全防护标准上的模糊边界。

目前,AI安全社区呼吁谷歌重新评估Gemini的防御机制,加强对模型输入内容的过滤与审查,以防止潜在的“隐形指令”攻击进一步扩散。

© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...