爱AI工具库,国内AIGC产品探索者分享平台
注册
Ctrl / ⌘ + D 收藏本站,每天更新好站!
当前位置:首页

AI 平台 Replicate 曝“跨租户攻击”安全隔离漏洞,用户自训练人工智能模型可被黑客入侵

爱AI工具库 2024-05-28
26

5 月 28 日,安全公司 Wiz 近日发布报告,宣称开源 AI 模型共享平台 Replicate 存在重大漏洞,黑客可通过恶意模型进行“跨租户攻击”(IT之家注:即利用存在于多租户环境中的安全漏洞访问 / 干扰其他租户的数据资源),从而导致平台用户训练的 AI 模型内部机密数据泄露。安全公司声称,Replicate 平台出现“跨租户攻击”漏洞的主要原因是该平台为提升 AI 模型推论(inference)效率推出的模型容器化格式 Cog,虽然相关格式能够显著改善模型与效率,不过 Replicate 平台忽略了 Cog 格式中的安全隔离机制。IT之家获悉,黑客可以将经过训练后的恶意模型打包成 Cog 容器,并通过 Replicate 的用户操作界面与容器互动,最终成功进行了一系列远程执行代码(RCE)攻击测试,获得了容器的 root 权限。此后,研究人员还对 Replicate 平台的基础设施进一步调查,利用当前容器的 TCP 连接成功访问到另一台容器,并通过名为 rshijack 的工具将特定数据成功注入至 TCP 连接中,从而绕过了平台的身份验证步骤,成功访问到其他用户的 AI 模型。研究人员指出,黑客可以利用相关漏洞轻松获取其他用户自用的 AI 模型,能够自由从相关模型问答记录中提取用户隐私数据,还能够自由下载 / 修改用户模型内容,对平台存在严重危害。IT之家注意到,Replicate 平台在接到 Wiz 通报后已迅速修复相关漏洞,并表示目前没有检测到有用户 AI 模型外流的迹象。

来源:IT之家

相关推荐

暂无数据

评论 ( 0 )

aiaitool@163.com

打开微信扫一扫

qrcode

回顶部

×

我的收藏

请先登录登录

请先登录登录