据 CNBC 5 月 17 日消息,谷歌上周宣布的大型语言模型 PaLM 2 使用的训练数据几乎是其前身的五倍,使其能够执行更高级的编码、数学和创意写作任务。根据 CNBC 查看的内部文件,PaLM 2 是谷歌在 I/O 大会上推出的新型通用大型语言模型,它接受了 3.6 万亿个 token 的训练。谷歌之前版本的 PaLM 于 2022 年发布,并接受了 7800 亿个 token 的训练。 原文链接 —- 编译者/作者:Yangz 玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。 |
谷歌 PaLM 2 在训练中使用的文本数据是其前身的近五倍
2023-05-17 Yangz 来源:区块链网络
LOADING...
相关阅读:
- 奥运礼服设计师:AIGC 让童装设计从绿皮车进入高铁时代2023-05-17
- 杭州市与蚂蚁集团签订深化战略合作协议,加速围绕人工智能和数据要2023-05-17
- 雷石产业观察 | ChatGPT火了,AI制药能迎来新发展吗?2023-05-17
- 微软本周将在 Bing 和 Edge 中推出 AI 功能2023-05-16
- OpenAI CEO:人工智能仍处于早期阶段,仍会出现错误2023-05-16