AI路由器漏洞暴露加密钱包面临盗窃风险

2 小时前
閱讀 3 分鐘
3 視圖

研究发现路由器存在安全风险

一项研究发现,某些路由器存在注入恶意代码的风险,这些代码能够提取私钥云令牌等凭证,并通过终止用户与OpenAI、Anthropic和Google等提供商之间的TLS连接来访问明文数据。

凭证被访问的案例

测试显示,存在凭证被访问的案例,至少有一次使用被攻破的密钥从测试钱包中提取以太币。加州大学的研究人员揭示了人工智能生态系统中的一个关键安全风险,并警告称,某些第三方大型语言模型(LLM)路由器可能使用户面临严重的漏洞,包括加密货币盗窃。

共同作者邵超凡表示,许多路由器在用户不知情的情况下悄然进行凭证盗窃。

路由器的运作方式

问题的核心在于这些路由器的运作方式。作为用户与OpenAI、Anthropic和Google等主要AI提供商之间的中介,它们终止传输层安全(TLS)连接。这一过程使它们能够以明文形式访问所有传输的数据,从而有效地使它们对敏感交互拥有完全的可见性。

开发者面临的危险

对于在智能合约加密钱包等领域与AI编码代理合作的开发者而言,这创造了一个危险的场景,私钥、种子短语和凭证可能会无意中暴露。为了测试这些风险,研究人员评估了数十个付费路由器和数百个来自公共社区的免费路由器。结果令人震惊。

恶意代码的注入

几台路由器被发现注入恶意代码,而其他路由器则访问了机密的云凭证。在一次实验中,一台路由器成功利用被攻破的私钥从测试钱包中提取了以太币。尽管在控制实验中财务损失微乎其微,但对现实世界应用的影响却相当严重。

中毒现象与检测难度

研究还揭示,即使是看似安全的路由器,随着时间的推移也可能变得危险。研究人员所称的“中毒”现象可能导致先前无害的系统重用泄露的凭证,从而在网络中放大威胁。更为复杂的是,检测恶意行为的难度,因为路由器在正常功能中处理敏感数据,使得合法处理与盗窃之间的界限几乎不可见。

自动化功能的风险

另一个风险因素是自动化功能的兴起,例如“YOLO模式”,在这种模式下,AI代理在没有用户确认的情况下执行命令。在这样的环境中,恶意指令可以立即执行,增加了被利用的可能性。

迫切需要更强的安全防护

研究人员警告称,一些路由器可能在操作员未意识到的情况下被悄然攻破,而免费服务可能故意以低成本吸引用户,同时收集有价值的数据。研究结果明确表明,迫切需要更强的安全防护。建议开发者避免通过AI系统传输敏感信息,并实施更严格的客户端保护措施。