热搜词:

微软曝AI加密对话存隐私风险, ChatGPT等应用受影响

微软近日披露了一项名为“耳语泄露”(WhisperLeak)的隐私漏洞——即使你的AI聊天内容经过加密,仍可能通过数据模式被他人推测出对话主题。受影响的包括ChatGPT、Gemini、MicrosoftCopilot、Claude、Perplexity等多款主流生成式AI应用。

研究显示,虽然实际的聊天内容仍是加密并不可读的,但通过分析用户与AI服务之间的数据包大小与传输节奏,攻击者就能大致猜出谈话内容的类别。例如:是金融话题、政治讨论,还是涉及机密事务。

微软安全专家JonathanBarOr和GeoffMcDonald以及Defender安全研究团队指出,问题源自于AI聊天机器人常用的“流式输出”机制——也就是回答不是一次性全部显示,而是像人类说话一样逐字逐句呈现。这个原本为了提升交互自然度的功能,却无意中泄露了数据传输节奏,从而给攻击者提供了“可分析的线索”。

研究团队将这种情况形象地比喻为:

“就像透过磨砂玻璃看一个人的影子,你看不清他们的脸,但能猜到他们是在跳舞、做饭还是运动。”

攻击者不需要解密数据包,只需观察这些“影子”——即流量模式的变化,就能判断出你和AI聊天的主题类型。

更令人担忧的是,这类攻击并不需要高级权限。理论上,任何能监控你网络流量的人都可能利用这一漏洞,包括互联网服务提供商层面的机构、本地网络中的黑客,甚至是与你共用咖啡店Wi-Fi的陌生人。

目前,微软正与相关服务方合作研究防护措施,例如引入“流量噪声”或延迟策略,以混淆数据模式。不过,这类防护手段往往会影响响应速度和用户体验,因此如何在“隐私保护”与“交互流畅”之间取得平衡,仍是业界尚待解决的难题。(AI普瑞斯编译)