据品玩 9 月 5 日报道,Nous Research 联手 EleutherAI 实验室以及瑞士日内瓦大学的研究者发表论文,公布了一项名为 YaRN 的方法,可扩展大模型上下文窗口。论文显示,和传统方法相比,YaRN 需要更少的标记和训练步骤。利用这种方法,LLaMA 模型可以有效地利用和外推到比其原始预训练所允许的上下文长度更长的上下文,同时超过了过去窗口扩展的最新技术水平。据 GitHub 页面显示,使用 YaRN 进行微调的 LLaMA 2 7B/13B 上下文窗口分别可达到 64k 和 128k。 原文链接 —- 编译者/作者:东寻 玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。 |
Nous Research 提出高效计算法 YaRN,可扩展大模型上下文窗口
2023-09-05 东寻 来源:区块链网络
LOADING...
相关阅读:
- 天工大模型登顶多模态榜单,解决幻觉、跨语言两大难题2023-09-05
- 数据:二季度全球 AI 领域投资总额下降 38%2023-09-05
- 高盛:或无需对人工智能泡沫如此担忧2023-09-05
- Atomicwork 完成 1100 万美元融资,旨在将 AI 融入员工工作流程2023-09-05
- 百度申请多个大模型应用商标2023-09-05