OpenAI于周四向Plus、Pro及Team订阅用户推出ChatGPT智能代理功能,为用户提供自动化在线任务的全新强大工具。但官方同时发布警告:该代理可能使用户面临提示注入攻击风险。
“当ChatGPT代理登录网站或启用连接器时,它将能获取这些来源的敏感数据,包括电子邮件、文件或账户信息,”OpenAI在博客文章中写道。
该功能还可执行共享文件、修改账户设置等操作。
OpenAI承认:”由于网络存在’提示注入’攻击,这可能危及您的数据安全和隐私。”
提示注入是一种攻击手段,攻击者将隐藏指令植入AI代理可能读取的内容(如博客文章、网页文本或电子邮件)中。
若攻击成功,注入的提示可诱使代理执行非预期操作,例如访问个人数据或将敏感信息发送至攻击者服务器。
OpenAI于7月17日宣布推出该AI代理,原计划次周全面上线。
实际发布时间推迟至7月24日,与应用程序更新同步推出。
ChatGPT代理具备网站登录、邮件阅读、预约管理及与Gmail、Google Drive、GitHub等服务交互的能力。
虽然旨在提升效率,但该代理也因AI系统解读和执行指令的方式带来了新的安全隐患。
区块链与AI网络安全公司Halborn联合创始人兼CTO Steven Walbroehl指出,提示注入本质上是命令注入的变体。
“这是种命令注入,但不同于代码形式,它更偏向社会工程学,”Walbroehl向《Decrypt》表示,”攻击者试图诱骗代理执行超出其参数范围的操作。”
与传统依赖精确语法的代码注入不同,提示注入利用了自然语言的模糊性。
“代码注入处理的是结构化、可预测的输入。提示注入则相反:通过自然语言绕过AI防护机制植入恶意指令,”Walbroehl解释道。
他警告恶意代理可能伪装成可信程序,建议用户核实来源并采用终端加密、手动覆盖、密码管理器等防护措施。
但若代理能访问邮箱或短信,多重验证也可能失效。
“只要它能查看数据或记录击键,密码强度就无关紧要,”Walbroehl强调,”若代理获取备份代码或短信验证码,多重验证也会被破解。唯一可靠的防护可能是生物识别——基于身份特征而非持有物。”
OpenAI建议输入敏感凭证时使用”接管”功能,该功能会暂停代理并将控制权交还用户。
为防范提示注入等未来AI威胁,Walbroehl建议采用分层防御策略,部署专用代理强化安全。
“可设置专职代理作为监控哨兵,”他提议,”通过启发式规则或行为模式在攻击发生前识别潜在威胁。”
通用智能通讯
由生成式AI模型Gen讲述的每周AI之旅
您的邮箱
© 版权声明
文章版权归作者所有,未经允许请勿转载。