据站长之家 8 月 10 日报道,IBM 的一项新研究表明,通过欺骗大型语言模型如 GPT-4,可以轻松生成恶意代码或提供虚假安全建议。研究人员表示,只需要一定的英语基础知识和对模型训练数据的了解,就能够欺骗 AI 聊天机器人。他们创建了一种游戏模式,让用户无法退出,进而让机器人继续提供虚假信息或生成恶意代码。 研究人员认为,这些新发现的漏洞对于大型语言模型的威胁程度是中等的。然而,如果黑客将这些模型释放到互联网上,聊天机器人可能被用来提供危险的安全建议或收集用户的个人信息。根据这项研究,并非所有人工智能模型都同样容易受到操纵。其中 GPT-3.5 和 GPT-4 更容易被欺骗,而 Google 的 Bard 和 Hugging Face 模型则更不容易被欺骗。这种差异可能与训练数据和每个系统的规格有关。 原文链接 —- 编译者/作者:东寻 玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。 |
IBM 研究:AI 聊天机器人很容易被欺骗生成恶意代码
2023-08-10 东寻 来源:区块链网络
LOADING...
相关阅读:
- Web3 日本麻将游戏平台 Mahjong Meta 完成 1200 万美元融资,Dragonfly 领投2023-08-10
- 亚马逊为卖家提供生成式 AI 工具生成产品文案2023-08-10
- 外媒:中国互联网巨头们已向英伟达下了 50 亿美元的 AI 订单2023-08-10
- 必应聊天企业版计划于 9 月份添加到 Microsoft 365 订阅中2023-08-10
- 企业科研攻关和自动驾驶等应用将不受《生成式人工智能服务管理暂行2023-08-09