据 IT 之家援引路透社报道,尽管谷歌是生成式 AI 最坚定的支持者之一,但该公司正在警告员工注意聊天机器人的使用。知情人士称,谷歌母公司 Alphabet 已建议员工不要将其机密材料输入给 AI 聊天机器人,同时该公司还提醒 IT 工程师避免直接使用聊天机器人生成的计算机代码。 谷歌对此回应称,其聊天机器人 Bard 可以提出不受欢迎的代码建议,但它仍然对 IT 工程师们会有所帮助。谷歌表示其目标是对生成式 AI 的技术局限性保持足够的透明度。 分析人士指出,这些担忧表明谷歌希望避免生成式 AI 对公司的商业化运作造成损害,这种谨慎的态度也体现出对生成式 AI 的使用限制正越发成为某种具有共性的企业安全标准。 原文链接 —- 编译者/作者:东寻 玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。 |
知情人士:谷歌警告员工不要向生成式 AI“泄密”,也不要直接用其写代码
2023-06-15 东寻 来源:区块链网络
LOADING...
相关阅读:
- 报告:AI 服务器出货将少于预期,2023 年占比仍不足 1%2023-06-15
- 中国石化与百度将在行业 AI 基础设施建设、大模型等新技术创新等领域2023-06-15
- 梦网科技:已与华为云盘古大模型签业务合作协议,后续将集成华为云2023-06-15
- 法国总统马克龙:将追加投资超过 5 亿欧元发展人工智能,打造世界级2023-06-15
- 百川智能正式推出首个 70 亿参数中英文预训练大模型 baichuan-7 B2023-06-15