谷歌的旗舰AI模型Gemini,正遭遇一场隐秘而规模浩大的“数字围猎”。
近日,谷歌官方罕见披露,其先进的Gemini模型正面临一种新型威胁——“蒸馏攻击”。与以往的黑客入侵不同,攻击者采用了更为系统、更具商业意图的策略:通过设计海量、重复的提示词,单轮攻击次数可达惊人的十万次以上,以此诱导AI聊天机器人,逐步“吐露”其内在的运作逻辑与决策机制。
这场攻击的核心,在于“逆向工程”AI的思维过程。攻击者通过分析模型在不同提问下的响应内容、细微延迟乃至置信度差异,试图描绘出Gemini的决策边界与推理路径图谱。简而言之,他们不是在偷取一行代码,而是在“窃取”模型的思考方式。
讽刺的是,这种“蒸馏”技术本身并非黑科技。它原是AI领域一项成熟的模型压缩方法,旨在将庞大“教师模型”的知识,迁移到更轻巧的“学生模型”中。如今,攻击者却反其道而行之,利用这种合法技术,将开放服务的Gemini当作免费的“顶尖教师”,用其“授课内容”(即海量对话响应)去训练自己的“学生模型”,以期复刻其核心能力。

谷歌将此类行为定性为知识产权盗窃。尽管各大AI厂商早已部署了识别和阻断此类攻击的防御机制,但谷歌也坦言,只要主流大模型服务保持对公众开放,这种攻击在本质上就很难根除。开放与保护,成为AI巨头们面前一道棘手的天平。
这起事件撕开了一个残酷的商业现实:在AI竞赛白热化的今天,顶级模型的内部逻辑已成为高价值商业机密。通过精心设计的“提问”进行“蒸馏”,正演变成一种低成本、高潜在回报的“合法灰色”竞争手段。它不再仅仅是技术攻防,更是一场关于创新边界与商业伦理的复杂博弈。谷歌的这次公开警示,或许意味着AI行业的“安全战事”,已进入一个全新且更加微妙的阶段。

