据 IT 之家 8 月 2 日消息,谷歌 DeepMind 的研究人员 Nicholas Carlini 在一篇题为“AI-Guardian 的 LLM 辅助开发”的论文中,探讨了使用 GPT-4“设计攻击方法、撰写攻击原理”的方案,并将这些方案用于欺骗 AI-Guardian 的防御机制。谷歌研究团队表示,通过 GPT-4 的帮助,他们成功地“破解”了 AI-Guardian 的防御,使该模型的精确值从 98% 的降低到仅 8%。目前相关技术文档已经发布在 ArXiv 中。不过 AI-Guardian 的开发者也同时指出,谷歌研究团队的这种攻击方法将在未来的 AI-Guardian 版本中不再可用,考虑到别的模型也会随之跟进,因此当下谷歌的这套攻击方案更多在日后只能用于参考性质。 据悉,AI-Guardian 是一种 AI 审核系统,能够检测图片中是否存在不当内容,及图片本身是否被其他 AI 修改过,若检测到图片存在上述迹象,便会提示管理员前来处理。 原文链接 —- 编译者/作者:Yangz 玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。 |
谷歌研究团队利用 GPT-4 击败 AI-Guardian 审核系统
2023-08-02 Yangz 来源:区块链网络
LOADING...
相关阅读:
- AMD 首席执行官苏姿丰:有机会为正在寻求人工智能解决方案的中国客户2023-08-02
- Uber CEO:正在开发一款 AI 聊天机器人2023-08-02
- 软银和微软将在日本合作开发人工智能软件2023-08-01
- 澳门科技大学团队开发出能预测潜在新冠病毒危险突变株的人工智能模2023-08-01
- 华为成立“AI 算力平台先遣组”和“数据中心军团”2023-08-01