导读 如果黑客可以监控目标与目标的云端AI助手之间的互联网流量,他们就可以轻松窃取对话。如果对话中包含敏感信息,这些信息最终也会落入攻击者...
如果黑客可以监控目标与目标的云端AI助手之间的互联网流量,他们就可以轻松窃取对话。如果对话中包含敏感信息,这些信息最终也会落入攻击者手中。
这是根据以色列本·古里安大学进攻性人工智能研究实验室的研究人员的最新分析得出的结论,他们发现了一种使用所有大型语言模型(LLM)助手(GoogleGemini除外)对目标部署侧信道攻击的方法。
其中包括OpenAI的强大引擎Chat-GPT。
进攻性人工智能研究实验室负责人YisroelMirsky告诉ArsTechnica:“目前,任何人都可以阅读从ChatGPT和其他服务发送的私人聊天内容。”
“这包括与客户端使用同一Wi-Fi或LAN(例如同一家咖啡店)的恶意行为者,甚至是互联网上的恶意行为者——任何可以观察流量的人。攻击是被动的,可以在OpenAI或其客户不知情的情况下发生。OpenAI加密其流量以防止此类窃听攻击,但我们的研究表明,OpenAI使用加密的方式存在缺陷,因此消息的内容会暴露。”
基本上,为了让该工具尽可能快,开发人员为骗子打开了获取内容的大门。当聊天机器人开始发送响应时,它不会一次性发送所有内容。它会以令牌的形式发送小片段,以加快处理速度。这些令牌可能经过加密,但由于它们是逐个发送的,因此一旦生成,攻击者就可以对其进行分析。
研究人员分析了令牌的大小、长度、到达顺序等。经过分析和后续改进,解密后的响应几乎与受害者看到的响应完全相同。
研究人员建议开发人员采取以下两种做法之一:要么停止一次发送一个令牌,要么将所有令牌固定为最大可能的数据包的长度,使分析变得不可能。这种被他们称为“填充”的技术已被OpenAI和Cloudflare所采用。